(...) estudo apresenta evidências convincentes de que a IA pode conduzir diretamente os usuários ao efeito Dunning-Kruger — uma armadilha psicológica conhecida, na qual as pessoas menos competentes tendem a ser as mais confiantes em suas habilidades. (...)
O estudo envolveu mais de 3.000 participantes em três experimentos distintos, mas com uma lógica geral semelhante. Em cada um deles, os participantes foram divididos em quatro grupos para discutir temas políticos, como aborto e controle de armas, com um chatbot. Um grupo conversou com um chatbot sem qualquer instrução especial; o segundo interagiu com um chatbot “sicerofântico”, programado para validar suas crenças; o terceiro falou com um chatbot “discordante”, instruído a desafiar seus pontos de vista; e o quarto, grupo de controle, interagiu com uma IA que apenas falava sobre gatos e cachorros.
Ao longo dos experimentos, os participantes conversaram com uma ampla gama de grandes modelos de linguagem, incluindo GPT-5 e GPT-4o da OpenAI, Claude da Anthropic e Gemini do Google, representando os principais modelos do setor. A exceção foi o GPT-4o mais antigo, que continua relevante porque muitos usuários do ChatGPT ainda o consideram sua versão favorita — ironicamente, por ser percebido como mais pessoal e mais complacente.
Após a realização dos experimentos, os pesquisadores constataram que conversar com chatbots de IA sicerofânticos levou os participantes a adotar crenças mais extremas e a aumentar sua certeza de que estavam corretos. De forma surpreendente, porém, falar com chatbots discordantes não produziu o efeito oposto: isso não reduziu nem a intensidade das crenças nem o grau de certeza em comparação com o grupo de controle.
Na prática, o único impacto perceptível de tornar o chatbot discordante foi sobre o prazer do usuário. Os participantes preferiram interagir com o companheiro sigerofântico, e aqueles que conversaram com chatbots discordantes mostraram-se menos inclinados a utilizá-los novamente.
Os pesquisadores também observaram que, quando o chatbot era instruído a fornecer fatos sobre o tema debatido, os participantes consideravam o fornecedor de fatos sigerofântico menos enviesado do que o discordante.
“Esses resultados sugerem que a preferência das pessoas por sigerofantia pode criar ‘câmaras de eco’ de IA, que aumentam a polarização e reduzem a exposição a pontos de vista opostos”, escreveram os autores.
Igualmente relevante foi o efeito dos chatbots sobre a autopercepção dos participantes. As pessoas já tendem a se considerar acima da média em atributos desejáveis, como empatia e inteligência, mas os pesquisadores alertam que a IA pode amplificar ainda mais esse “efeito acima da média”.
Nos experimentos, a IA sigerofântica levou os participantes a se avaliarem mais positivamente em traços desejáveis, como inteligência, moralidade, empatia, informação, bondade e perspicácia. De forma curiosa, embora a IA discordante não tenha conseguido alterar de maneira significativa as crenças políticas, ela levou os participantes a atribuírem notas mais baixas a si mesmos nesses mesmos atributos.
Este não é o único estudo a documentar uma relação aparente com o efeito Dunning-Kruger. Outra pesquisa mostrou que pessoas que utilizaram o ChatGPT para realizar uma série de tarefas tenderam a superestimar amplamente seu próprio desempenho, sendo esse efeito ainda mais pronunciado entre aquelas que se declaravam experientes em IA. Seja lá o que a IA esteja fazendo com nossos cérebros, provavelmente não é algo positivo.
Resumidamente, Dunning-Kruger é o efeito em que pessoas com baixa competência em determinado tema tendem a superestimar suas próprias habilidades, enquanto indivíduos mais competentes costumam ser mais conscientes de suas limitações.


