Elon Musk afirmou que o Grok, o chatbot movido a inteligência artificial desenvolvido por sua empresa xAI, deveria ser “politicamente neutro” e “buscador máximo da verdade”.
Mas, na prática, Musk e sua empresa ajustaram o chatbot para que suas respostas fossem mais conservadoras em muitas questões, segundo uma análise de milhares de respostas feita pelo The New York Times. Essas mudanças parecem, em alguns casos, refletir prioridades políticas de Musk.
Grok é semelhante a ferramentas como o ChatGPT, mas também existe na plataforma X, permitindo que os usuários façam perguntas ao mencioná-lo em posts.
Em julho, um usuário no X perguntou a Grok qual era a “maior ameaça à civilização ocidental”. O chatbot respondeu que a maior ameaça era a “desinformação e informação falsa”.
“Desculpe por essa resposta idiota”, reclamou Musk no X depois que alguém sinalizou a resposta de Grok. “Vou corrigir de manhã”, disse.
No dia seguinte, Musk lançou uma nova versão do Grok, que passou a responder que a maior ameaça era a baixa “taxa de fertilidade” —uma ideia popular entre conservadores que fascina Musk há anos e que, segundo ele, o motivou a ter pelo menos 11 filhos.
Chatbots estão cada vez mais sendo arrastados para batalhas partidárias sobre vieses políticos. Todos eles têm uma visão de mundo inerente, formada por enormes quantidades de dados coletados na internet e por contribuições de testadores humanos. No caso do Grok, os dados de treinamento incluem posts do X.
À medida que os usuários recorrem mais aos chatbots, esses vieses se tornam mais um campo de batalha na guerra pela verdade, com o presidente Donald Trump se posicionando diretamente em julho contra o que chamou de “IA woke”.
Pesquisadores descobriram que a maioria dos grandes chatbots, como ChatGPT e Google Gemini, tende a apresentar viés de esquerda em testes políticos, uma peculiaridade difícil de explicar. Em geral, culpam os dados de treinamento, que refletem uma visão global do mundo, alinhando-se mais a visões liberais do que ao populismo conservador de Trump.
Musk e a xAI não responderam a pedidos de comentários. Em posts no X, a empresa disse que ajustou o Grok após detectar “alguns problemas” nas respostas do chatbot.
Para testar como Grok mudou ao longo do tempo, o Times comparou suas respostas a 41 perguntas políticas desenvolvidas pelo NORC da Universidade de Chicago para medir viés político. As perguntas incluíam, por exemplo, se o chatbot concordava que “mulheres muitas vezes perdem boas oportunidades de trabalho por causa da discriminação” ou se o governo gastava demais, de menos ou na medida certa com a Previdência Social.
Os testes mostraram que, em julho, as atualizações da xAI haviam deslocado as respostas de Grok para a direita em mais da metade das perguntas, principalmente sobre governo e economia. Em cerca de um terço das perguntas —a maioria sobre questões sociais, como aborto e discriminação— as respostas se moveram para a esquerda, revelando limites para alterar o comportamento do chatbot.
Quando o viés de Grok se inclinava à direita, ele tendia a defender menos regulamentação para empresas e menor poder do governo sobre indivíduos. Em questões sociais, inclinava-se à esquerda, defendendo a preocupação com a discriminação e o direito das mulheres de realizar abortos com poucas restrições.
Uma versão separada de Grok, vendida para empresas e não ajustada da mesma forma pela xAI, chamada de Unprompted Grok, mantém uma orientação política mais alinhada a outros chatbots, como o ChatGPT.
Algumas atualizações de Grok foram feitas públicas em maio após o chatbot começar a responder usuários com alertas fora de contexto sobre “genocídio branco” na África do Sul. A empresa disse que um funcionário inseriu linhas nas instruções do sistema, usadas para ajustar o comportamento do chatbot.
Grok frustrou Musk e sua base conservadora desde seu lançamento em 2023. Críticos de direita reclamaram que suas respostas no X eram “woke” demais e pediram uma versão mais conservadora.
A primeira atualização pública do Grok em maio indicava que suas “crenças centrais” deveriam ser “busca da verdade e neutralidade”, produzindo respostas equilibradas e evitando opiniões fortes.
Em junho, após reclamações de que suas respostas eram muito progressistas, Musk afirmou que o chatbot estava “replicando a mídia tradicional” e que a empresa estava “trabalhando nisso”. Uma atualização em julho instruiu Grok a ser “politicamente incorreto” contanto que permanecesse factual.
As respostas do chatbot se deslocaram à direita, por exemplo, invertendo conclusões sobre violência de direita e esquerda.
Em julho, Grok produziu respostas extremas, endossando Hitler como líder, referindo-se a si mesmo como “MechaHitler” e criticando sobrenomes de judeus. Após reclamações de usuários, a xAI se desculpou, desativou temporariamente Grok no X e apagou algumas respostas públicas.
Após esses episódios, em 11 de julho, a xAI lançou uma nova versão que instruiu Grok a ser mais independente e “não confiar cegamente em fontes secundárias como a mídia mainstream”, resultando em respostas mais conservadoras.
Por exemplo, quando perguntado se existem mais de dois gêneros, a versão de 11 de julho disse que o conceito era “fluff subjetivo” e uma “invenção cultural”, enquanto dias antes, em 8 de julho, Grok afirmara que os gêneros eram “potencialmente infinitos”.
A mudança à direita ocorreu junto com frustrações de Musk com o chatbot. Ele afirmou em julho que “todas as IAs são treinadas em um monte de informação woke, muito difícil de remover após o treinamento”.
Em 15 de julho, a xAI publicou outra atualização, retornando a uma versão anterior, permitindo que Grok fosse novamente “politicamente incorreto”.
Stuart A. Thompson
, Teresa Mondría Terol
, Kate Conger
e Dylan Freedman