Translate

17 março 2026

Paradoxo Grossman-Stiglitz para IA

Um dos resultados mais interessantes da teoria econômica é o Paradoxo de Grossman-Stiglitz.

Você já ouviu falar da Hipótese dos Mercados Eficientes (EMH) — a ideia de que os preços dos ativos financeiros já incorporam toda a informação disponível sobre o valor desses ativos? Pois bem, em 1980, Sanford Grossman e Joseph Stiglitz mostraram por que a EMH não pode estar totalmente correta. A ideia é bastante simples: obter informação exige esforço. Quem vai se dar ao trabalho de buscar informações sobre quanto ações, títulos ou imóveis realmente valem, se não puder ganhar dinheiro negociando com base nessas informações? E, se ninguém se esforça para obter informação, como ela poderia ser incorporada aos preços em primeiro lugar? Grossman e Stiglitz concluíram que os mercados financeiros devem ser, ao menos em algum grau, ineficientes.

Agora, Daron Acemoglu, Dingwen Kong e Asuman Ozdaglar propuseram um problema semelhante para a inteligência artificial. Em geral, não sou muito fã dos trabalhos de Acemoglu sobre IA, mas acho que este toca em um ponto importante e fundamental.

Acemoglu e coautores escrevem que, se a IA generativa colocasse toda a informação do mundo ao alcance imediato das pessoas, então elas não teriam incentivo para sair e aprender coisas novas — o que, por sua vez, impediria descobertas acidentais que ampliam a base total de conhecimento da sociedade:

Estudamos como a IA generativa, e em particular a IA agêntica, molda os incentivos ao aprendizado humano e a evolução de longo prazo do ecossistema de informação da sociedade… O aprendizado apresenta economias de escopo: o esforço humano, custoso, produz conjuntamente um sinal privado sobre o próprio contexto e um “sinal fino” público que se acumula no estoque de conhecimento geral da comunidade, gerando uma externalidade de aprendizado. A IA agêntica fornece recomendações que substituem o esforço humano… Embora a IA agêntica possa melhorar a qualidade das decisões no curto prazo, ela também pode corroer os incentivos ao aprendizado que sustentam o conhecimento coletivo no longo prazo… A economia pode, assim, convergir para um estado estacionário de colapso do conhecimento, no qual o conhecimento geral desaparece, apesar da existência de aconselhamento personalizado de alta qualidade.

Basicamente, Acemoglu e coautores sugerem que a humanidade, como um todo, aprende coisas novas quando indivíduos tentam “reinventar a roda” — isto é, descobrir por conta própria em vez de simplesmente consultar a informação pronta. Isso consome bastante esforço, mas também contribui para ampliar o estoque geral de conhecimento.

A ideia aqui é que a IA torna todo mundo realmente preguiçoso — em vez de tentar escrever um código do zero, provar um teorema matemático do zero ou descobrir algo por conta própria, você simplesmente pede para a IA fazer tudo por você. Assim, todos acabam obtendo as respostas corretas para perguntas cujas respostas já são conhecidas, e, com isso, não acrescentam nada de novo. É o Paradoxo de Grossman-Stiglitz, mas aplicado a tudo.

Na verdade, já é possível perceber indícios disso acontecendo. O tráfego de sites está em queda, à medida que as pessoas passam a consumir respostas geradas por IA em vez de acessar páginas da web. Publicações de tecnologia, por exemplo, estão perdendo rapidamente seu público leitor:

E usar IA para programar faz com que as habilidades dos programadores se atrofiem.

Minha primeira observação aqui é que isso também se aplica não apenas à IA, mas à própria internet. Sim, as pessoas podem pedir a um LLM que lhes ensine matemática ou que escreva algum código para elas. Mas também podiam recorrer ao Math Exchange e ao Stack Exchange, mesmo antes da existência dos LLMs. E o mesmo problema surge — se todo o conhecimento do mundo está ao alcance das suas mãos, não há razão para gastar tempo reinventando a roda. Mas, como Neal Stephenson já escreveu em 2011, isso pode levar à falta de novidade, já que todos passam apenas a copiar o que já foi feito.

E isso me leva ao meu segundo ponto: e se a IA também puder produzir novo conhecimento? Afinal, a IA é propensa a alucinações — isto é, erros aleatórios. Se agentes estiverem por aí testando coisas erradas de forma aleatória, ocasionalmente podem descobrir algo novo. Se houver uma maneira de incorporar essas descobertas acidentais ao corpo geral de conhecimento da IA, talvez ela possa expandir o estoque total de conhecimento, em vez de reduzi-lo. Tudo o que seria necessário é deixar de depender dos humanos como o único repositório de conhecimento de longo prazo. Como fazer isso, naturalmente, eu não sei.

Da excelente Noahpinion newsletter. 

O artigo citado é  AI, Human Cognition and Knowledge Collapse
Daron Acemoglu, Dingwen Kong & Asuman Ozdaglar 

Nenhum comentário:

Postar um comentário