Translate

21 setembro 2025

Por uma IA com falhas

(...) Fabrizio Dell’Acqua, da Harvard Business School, que recentemente conduziu um experimento no qual recrutadores eram assistidos por algoritmos — alguns excelentes e outros nem tanto — ao decidir quais candidatos convidar para entrevista. (Isso não é IA generativa, mas é uma grande aplicação real de IA.)

Dell’Acqua descobriu, contraintuitivamente, que algoritmos medianos, com cerca de 75% de acurácia, entregaram melhores resultados do que bons algoritmos com aproximadamente 85% de acurácia. A razão é simples: quando os recrutadores recebiam orientação de um algoritmo conhecido por ser irregular, permaneciam atentos e acrescentavam seu próprio julgamento e expertise. Quando recebiam orientação de um algoritmo que sabiam ser excelente, recostavam-se e deixavam o computador decidir.

Talvez eles tenham economizado tanto tempo que os erros valeram a pena. Mas certamente houve erros. Um algoritmo fraco e um humano ligado tomam decisões melhores juntos do que um algoritmo de ponta com um humano desligado. E, quando o algoritmo é de ponta, um humano desligado é justamente o que você tende a obter.

Ouvi sobre a pesquisa de Dell’Acqua por Ethan Mollick, autor do futuro Co-Intelligence. Mas, quando mencionei a Mollick a ideia de que o piloto automático era uma analogia instrutiva para a IA generativa, ele me alertou contra buscar paralelos “estreitos e um tanto reconfortantes”. É justo. Não há um precedente tecnológico único que faça justiça ao avanço rápido e ao escopo desconcertante dos sistemas de IA generativa. Mas, em vez de descartar todos esses precedentes, vale procurar analogias diferentes que iluminem partes distintas do que pode estar por vir. Tenho mais duas em mente para explorar no futuro.

(Tim Harford) 

Nenhum comentário:

Postar um comentário