Eis o texto:
Pessoas que são piores em realizar determinada tarefa também tendem a superestimar gravemente o quão boas são nela, enquanto aquelas que de fato são competentes costumam não reconhecer plenamente o próprio talento.
Esse incômodo viés cognitivo é conhecido como efeito Dunning-Kruger, como você provavelmente já sabe — e você acreditaria se disséssemos que a IA parece torná-lo ainda pior?
É o que mostra um novo estudo publicado na revista Computers in Human Behavior, intitulado, de forma memorável, “AI Makes You Smarter But None the Wiser” (“A IA torna você mais inteligente, mas não mais sábio”). O estudo revelou que todos os participantes foram ruins em estimar o próprio desempenho após realizar uma série de tarefas usando o ChatGPT. De forma surpreendente, os participantes considerados “alfabetizados em IA” foram os que mais erraram nessas estimativas.
“Quando se trata de IA, o [efeito Dunning-Kruger] desaparece”, afirmou o autor sênior do estudo, Robin Welsch, professor da Universidade de Aalto, em comunicado. “Na verdade, o mais surpreendente é que maior letramento em IA gera mais excesso de confiança.”
“Esperaríamos que pessoas alfabetizadas em IA não apenas interagissem um pouco melhor com sistemas de IA, mas também fossem melhores em avaliar seu desempenho com esses sistemas”, acrescentou Welsch. “Mas isso não aconteceu.”
(...) No estudo, os pesquisadores pediram que metade de 500 participantes utilizasse o ChatGPT para ajudar a resolver 20 questões de raciocínio lógico do LSAT (Law School Admission Test), enquanto a outra metade resolveu os problemas sem o auxílio de IA. Em seguida, cada participante foi solicitado a avaliar o próprio desempenho, com a promessa de uma compensação adicional caso essa avaliação fosse precisa. Os participantes também responderam a um questionário para medir seu nível de letramento em IA.
Os pesquisadores constataram que o grupo que usou o ChatGPT obteve notas significativamente melhores do que o grupo que não usou. No entanto, esse mesmo grupo superestimou amplamente seu desempenho — efeito particularmente forte entre os participantes mais familiarizados com IA, o que “sugere que aqueles com maior conhecimento técnico sobre IA eram mais confiantes, porém menos precisos ao julgar o próprio desempenho”, segundo os autores.
Ao analisar como os participantes utilizaram o chatbot, a equipe descobriu que a maioria raramente fazia mais de uma pergunta por problema, sem aprofundamento ou verificação adicional. Segundo Welsch, isso exemplifica o que psiquiatras chamam de cognitive offloading (terceirização cognitiva), um fenômeno bem documentado no uso de IA, no qual os usuários transferem todo o esforço de pensar para a ferramenta.
“Analisamos se eles realmente refletiam junto com o sistema de IA e constatamos que as pessoas simplesmente achavam que a IA resolveria tudo por elas”, afirmou Welsch. “Em geral, havia apenas uma única interação para obter o resultado, o que significa que os usuários confiaram cegamente no sistema.”
É preciso reconhecer: a IA está democratizando o efeito Dunning-Kruger. Que outra tecnologia pode se dar ao luxo de afirmar isso?