Translate

Mostrando postagens com marcador IA. Mostrar todas as postagens
Mostrando postagens com marcador IA. Mostrar todas as postagens

02 fevereiro 2026

Bot ajudando o ambiente de trabalho


 A tradução do resumo:

A inteligência artificial generativa é regularmente incumbida de navegar pelas complexidades da interação humano-a-humano, incluindo apoio entre pares em saúde mental e o aprimoramento da regulação emocional interpessoal em contextos de atendimento ao cliente. Resultados qualitativos questionam se a inteligência artificial merece um espaço nessa área; entretanto, muitos estudos recentes indicam que a inteligência artificial pode melhorar a interação humano-a-humano. No presente estudo, e a partir de duas amostras (NGivers = 522; NReceivers = 580; NTotal = 1.102) coletadas para detectar efeitos de pequena magnitude, examinamos um caso específico de uso de inteligência artificial generativa no ambiente de trabalho e se ela pode ser utilizada para aprimorar mensagens pró-sociais entre pessoas para além de mensagens escritas por humanos, por meio de um experimento quantitativo de survey. Especificamente, treinamos e analisamos o impacto da inteligência artificial generativa nas percepções dos participantes sobre mensagens de reconhecimento de funcionários no ambiente de trabalho. Constatamos que os participantes: (a) consideraram que a inteligência artificial generativa treinada estava alinhada às melhores práticas do setor de Recursos Humanos (RH); e (b) aprenderam com a inteligência artificial generativa, acreditando que ela os levaria a mudar seu comportamento. As mensagens geradas pela inteligência artificial estavam mais alinhadas às melhores práticas do setor de RH do que as mensagens escritas por humanos, sendo também mais longas e com valência mais positiva. Além disso, mesmo após controlar pelo tamanho da mensagem, continham mais substantivos, adjetivos e verbos do que as mensagens escritas por humanos. Discute-se a consistência desses achados com a literatura atual e o lugar da inteligência artificial generativa na interação humano-a-humano daqui em diante. 

Hatch, S. G., Dalessandro, C., Topham, B., Patterson, D., Berry, C., Johnson, J. J., & Lovell, A. (2026). Thanks a Bot: Leveraging Artificial Intelligence for Improved Workplace Appreciation. Sage Open, 16(1). https://doi.org/10.1177/21582440251414704 (Original work published 2026)

O grifo é do blog. É realmente interessante que os textos produzidos pela IA tenham mais adjetivos do que as mensagens escritas por humanos. Além disso, parece que a IA está ensinando os humanos a se comportarem. 

Imagem aqui 

27 janeiro 2026

IA treinada com dados de IA pode ser um problema

Modelos de IA funcionam sendo treinados em enormes volumes de dados da internet. Mas, à medida que a IA vem sendo cada vez mais usada para despejar na web páginas cheias de conteúdo lixo, esse processo corre o risco de ser minado. 

(...) À medida que modelos subsequentes produzem saídas que passam a ser usadas como dados de treinamento para modelos futuros, o efeito piora. Ilia Shumailov, cientista da computação da Universidade de Oxford que liderou o estudo, compara o processo a tirar fotos de fotos. “Se você tira uma foto, escaneia, depois imprime, e repete esse processo ao longo do tempo, basicamente o ruído acaba dominando todo o processo”, diz ele. “Você fica com um quadrado escuro.” O equivalente desse quadrado escuro para a IA é chamado de “colapso do modelo”, explica, ou seja, o modelo passa a produzir lixo incoerente. 

(...) E o problema tende a piorar à medida que um número crescente de sites lixo gerados por IA começa a entulhar a internet. 

Os modelos atuais de IA não vão simplesmente colapsar, diz Shumailov, mas ainda assim pode haver efeitos substanciais: as melhorias vão desacelerar e o desempenho pode sofrer. (...)

Shumailov explica o que ele acha que está acontecendo usando esta analogia: imagine que você está tentando encontrar o nome menos provável de um estudante na escola. Você poderia passar por todos os nomes dos alunos, mas isso levaria tempo demais. Em vez disso, você olha 100 dos 1.000 nomes. Você obtém uma estimativa razoavelmente boa, mas provavelmente não é a resposta correta. Agora imagine que outra pessoa venha e faça uma estimativa com base nos seus 100 nomes, mas selecione apenas 50. A estimativa dessa segunda pessoa vai estar ainda mais distante da realidade. 

“Você certamente pode imaginar que o mesmo acontece com modelos de aprendizado de máquina”, diz ele. “Então, se o primeiro modelo viu metade da internet, talvez o segundo modelo não vá pedir metade da internet, mas, na verdade, vai raspar os últimos 100.000 tweets e ajustar o modelo em cima disso.” 

Além disso, a internet não contém uma quantidade ilimitada de dados. Para alimentar seu apetite por mais, modelos futuros de IA talvez precisem treinar com dados sintéticos — ou dados que tenham sido produzidos por IA. 

(...) Matthias Gerstgrasser, pesquisador de IA em Stanford que é autor de outro artigo examinando o colapso de modelos, diz que adicionar dados sintéticos aos dados do mundo real, em vez de substituí-los, não causa grandes problemas. Mas acrescenta: “Uma conclusão com a qual toda a literatura sobre colapso de modelos concorda é que dados de treinamento de alta qualidade e diversos são importantes.” 

Fonte: aqui 

O texto é de 2024, mas o alerta ainda é válido. Talvez por isso seja tão importante uma enciclopédia, como a Wikipedia, escrita por humanos. Ou, sendo pouco humilde, um blog escrito por três abnegados, possa ser útil para treinar os modelos de LLM 

Google tomou notas da minha vida e decidiu entregar o caderno


O Google lançou esta semana um novo e poderoso recurso no Modo IA da Busca. Ele se chama Inteligência Pessoal e integra vários serviços existentes da empresa de uma forma radicalmente nova. Isso também foi lançado recentemente no Gemini, o chatbot de IA do Google. Pranav Dixit, do Business Insider, testou e ficou impressionado. Aqui está a avaliação dele: 

“A Inteligência Pessoal parece que o Google esteve silenciosamente tomando notas sobre toda a minha vida e finalmente decidiu me entregar o caderno.” 

Com a minha permissão, o Gemini pode acessar minha conta do Google — Gmail, Fotos, histórico de buscas, YouTube e mais — e raciocinar sobre tudo isso para responder perguntas como um assistente humano faria, só que este tem anos de registros sobre a minha vida. 

Isso é algo que eu queria desde que os chatbots com IA explodiram no fim de 2022. Naquela época, eu despejava minha alma no ChatGPT e recebia uma resposta inteligente. Em seguida, o bot imediatamente esquecia que eu existia, como um peixe-dourado genial. Nos últimos anos, a OpenAI e a Anthropic permitiram que seus chatbots se conectassem a serviços como Gmail, Google Drive e Google Agenda. Mas o Google tem a vantagem de jogar em casa: ele já possui a visão mais ampla do que você realmente fez, pesquisou, assistiu e salvou. 

A capacidade do Gemini de conectar os pontos é assustadoramente boa, muito além do que o ChatGPT ou o Claude conseguem fazer. Quando pedi ideias de passeios turísticos para meus pais, que já visitaram a Bay Area algumas vezes, ele sugeriu museus e jardins, inferindo corretamente que eles já tinham feito trilhas e viagens a florestas de sequoias. 

Quando perguntei ao Gemini como ele sabia disso, ele me disse que deduziu com base em “migalhas” deixadas pela minha conta do Google: e-mails da família, fotos do Muir Woods, uma reserva de estacionamento no Gmail e uma busca no Google por “trilhas fáceis para idosos”. Isso é tão poderoso que o Google já está tentando se antecipar ao susto. O vice-presidente Josh Woodward disse que o Google toma “medidas para filtrar ou ofuscar dados pessoais” das conversas que temos com o Gemini. 

“Nós não treinamos nossos sistemas para aprender o número da sua placa; nós os treinamos para entender que, quando você pede por isso, podemos localizá-lo”, escreveu ele recentemente. Então, pedi a ele o número da placa do meu carro e ele conseguiu encontrá-lo, com base em fotos do meu carro no Google Fotos. 

Também perguntei ao Gemini quando o seguro do meu carro venceria para renovação, e ele acertou, com base em e-mails da AAA na minha caixa de entrada do Gmail. Quando pedi que me ajudasse a planejar uma viagem próxima, ele levou em conta o fato de que estamos viajando com um bebê — porque ele já sabe que temos um recém-nascido. Claro que sabe. 

Fiquei pensando no meu caso: uso gmail, posto aqui no blogger,  já usei muito o google para pesquisar - incluindo o Maps e uso eventualmente o gemini. Meu celular trabalha com o Android. Mas não uso o navegador deles, mas acho que isso é insuficiente para o Google não me conheça muito bem. 

17 janeiro 2026

Anthropic Economic Index

Sendo coerente, o resumo foi feito por uma IA, no caso o GPT:

O mais recente relatório do Anthropic Economic Index apresenta uma nova forma de analisar o impacto econômico da inteligência artificial ao introduzir medidas básicas chamadas “economic primitives”. Essas métricas capturam cinco dimensões fundamentais de uso da IA: complexidade das tarefas, habilidades humanas e de IA envolvidas, propósito do uso (trabalho, educação, pessoal), nível de autonomia concedido à IA, e sucesso da tarefa concluída. Os dados são derivados de milhões de interações reais com o modelo Claude, oferecendo uma visão detalhada de como diferentes tipos de conversas refletem efeitos econômicos potenciais. O relatório revisita padrões de uso observados em edições anteriores, destacando que o uso de IA permanece concentrado em certas tarefas, especialmente programação, e que a adoção global ainda é desigual. Ao fornecer estes primitives e os conjuntos de dados correspondentes, a Anthropic cria uma base mais rica para pesquisadores explorarem como a IA está sendo incorporada na economia e como isso pode moldar produtividade e mercados ao longo do tempo. 

Mas veja que a IA não mostra a melhor parte do texto. Destaco o seguinte trecho:

O uso do Claude se diversifica com maior adoção e renda
Embora o uso mais comum do Claude seja para trabalho, o uso em atividades educacionais é mais elevado em países com menor PIB per capita [1], enquanto países mais ricos apresentam as maiores taxas de uso pessoal. Isso é consistente com uma narrativa simples de curva de adoção: em países menos desenvolvidos, os primeiros adotantes tendem a ser usuários técnicos, com aplicações específicas de alto valor, ou utilizam o Claude para educação; já em mercados mais maduros, o uso se diversifica para finalidades mais casuais e pessoais.

Claude tem bom desempenho na maioria das tarefas, mas menos nas mais complexas
Constatamos que o Claude, em geral, é bem-sucedido nas tarefas que recebe, e que o nível educacional de suas respostas tende a corresponder ao nível do input do usuário. No entanto, o Claude enfrenta dificuldades em tarefas mais complexas: à medida que aumenta o tempo que um humano levaria para realizá-las, a taxa de sucesso do Claude diminui [2], de forma semelhante aos principais testes que medem as tarefas mais longas que IAs conseguem executar de maneira confiável.

A exposição das ocupações à IA muda quando se consideram as taxas de sucesso
Também utilizamos a métrica de taxa de sucesso para compreender melhor a exposição das ocupações à IA, calculando a parcela de cada ocupação que o Claude consegue desempenhar ao ponderar a cobertura das tarefas tanto pelas taxas de sucesso quanto pela importância de cada tarefa dentro do trabalho. Em algumas ocupações, como digitadores de dados e arquitetos de banco de dados, o Claude demonstra proficiência em grandes porções das atividades.

Claude é usado em tarefas de maior qualificação do que as da economia em geral
As tarefas observadas no uso do Claude tendem a exigir mais educação do que aquelas predominantes na economia como um todo. Se assumirmos que tarefas assistidas por IA passam a representar uma parcela menor das responsabilidades dos trabalhadores [3], sua remoção deixaria para trás atividades menos qualificadas. Contudo, esse deslocamento simples de tarefas não afeta os trabalhadores de escritório de maneira uniforme: em algumas ocupações, elimina as tarefas mais intensivas em habilidades; em outras, as menos qualificadas.

 [1] É interessante isso e motivo de preocupação dos educadores brasileiros. 

[2] Parece razoável e isso mostra um limite da IA 

[3] Em um dos trechos do relatório, a empresa destaca que o Brasil usa muito a IA em situações de trabalho, conforme o gráfico a seguir


 

14 janeiro 2026

Quem adota IA?

O gráfico é da Microsoft, o que significa que não é fruto de uma pesquisa acadêmica. Mas mostra a adoção de Inteligência Artificial no mundo. Emirados Árabes Unidos e Cingapura lideram a adoção, com 64% da população usando algum tipo de ferramenta de IA. Por outro lado, África (9,38% de média), parte da Ásia (14,76) e parte da América do Sul (15,5% na média) tem uma taxa de adoção baixa. No Brasil somente 17,1% da população usa uma ferramenta de IA. 

Quanto mais desenvolvido o país, maior a adoção? Parece que sim.  

13 janeiro 2026

Índia tem uma proposta para os direitos autorais na IA


A Índia propôs um novo modelo regulatório para inteligência artificial que exige que empresas de IA paguem uma taxa de licença obrigatória, calculada como porcentagem da receita global, para usar obras protegidas por direitos autorais no treinamento de seus modelos. A proposta inclui a criação de uma agência que arrecadaria essas taxas e as distribuiria aos criadores registrados, oferecendo compensação e evitando longas disputas judiciais sobre uso de dados. O plano tem gerado críticas: grupos de tecnologia argumentam que pode desacelerar a inovação, e especialistas afirmam que artistas maiores seriam beneficiados de forma desproporcional, enquanto pequenos criadores receberiam pouco. 

O texto  afirma que o Brasil está pensando em algo próximo. 

07 janeiro 2026

Democratizando Dunning-Kruger

Eis o texto:

Pessoas que são piores em realizar determinada tarefa também tendem a superestimar gravemente o quão boas são nela, enquanto aquelas que de fato são competentes costumam não reconhecer plenamente o próprio talento. 

Esse incômodo viés cognitivo é conhecido como efeito Dunning-Kruger, como você provavelmente já sabe — e você acreditaria se disséssemos que a IA parece torná-lo ainda pior?  


É o que mostra um novo estudo publicado na revista Computers in Human Behavior, intitulado, de forma memorável, “AI Makes You Smarter But None the Wiser” (“A IA torna você mais inteligente, mas não mais sábio”). O estudo revelou que todos os participantes foram ruins em estimar o próprio desempenho após realizar uma série de tarefas usando o ChatGPT. De forma surpreendente, os participantes considerados “alfabetizados em IA” foram os que mais erraram nessas estimativas.  

“Quando se trata de IA, o [efeito Dunning-Kruger] desaparece”, afirmou o autor sênior do estudo, Robin Welsch, professor da Universidade de Aalto, em comunicado. “Na verdade, o mais surpreendente é que maior letramento em IA gera mais excesso de confiança.”  

“Esperaríamos que pessoas alfabetizadas em IA não apenas interagissem um pouco melhor com sistemas de IA, mas também fossem melhores em avaliar seu desempenho com esses sistemas”, acrescentou Welsch. “Mas isso não aconteceu.”  

(...) No estudo, os pesquisadores pediram que metade de 500 participantes utilizasse o ChatGPT para ajudar a resolver 20 questões de raciocínio lógico do LSAT (Law School Admission Test), enquanto a outra metade resolveu os problemas sem o auxílio de IA. Em seguida, cada participante foi solicitado a avaliar o próprio desempenho, com a promessa de uma compensação adicional caso essa avaliação fosse precisa. Os participantes também responderam a um questionário para medir seu nível de letramento em IA.  

Os pesquisadores constataram que o grupo que usou o ChatGPT obteve notas significativamente melhores do que o grupo que não usou. No entanto, esse mesmo grupo superestimou amplamente seu desempenho — efeito particularmente forte entre os participantes mais familiarizados com IA, o que “sugere que aqueles com maior conhecimento técnico sobre IA eram mais confiantes, porém menos precisos ao julgar o próprio desempenho”, segundo os autores.  

Ao analisar como os participantes utilizaram o chatbot, a equipe descobriu que a maioria raramente fazia mais de uma pergunta por problema, sem aprofundamento ou verificação adicional. Segundo Welsch, isso exemplifica o que psiquiatras chamam de cognitive offloading (terceirização cognitiva), um fenômeno bem documentado no uso de IA, no qual os usuários transferem todo o esforço de pensar para a ferramenta.  

“Analisamos se eles realmente refletiam junto com o sistema de IA e constatamos que as pessoas simplesmente achavam que a IA resolveria tudo por elas”, afirmou Welsch. “Em geral, havia apenas uma única interação para obter o resultado, o que significa que os usuários confiaram cegamente no sistema.”  

É preciso reconhecer: a IA está democratizando o efeito Dunning-Kruger. Que outra tecnologia pode se dar ao luxo de afirmar isso?  

15 dezembro 2025

Quem está pagando pela IA?

A questão, talvez, mais importante — quem está pagando por todos os chips, centros de dados e eletricidade que alimentam nossas consultas de IA — é provavelmente a mais complicada de responder.

Os usuários estão certamente arcando com parte da conta; os crescentes números de vendas de empresas como a OpenAI, que está se aproximando de US$ 20 bilhões em receita anualizada, e a Anthropic, que estaria mais perto de US$ 9 bilhões, atestam o facto de que receitas reais estão a ser geradas neste espaço. Mas estes são uma gota no oceano comparado ao que está a ser gasto na criação da infraestrutura de IA, com empresas como a Meta a aparecer em cidades rurais e a construir centros de dados do tamanho de Manhattan.

Na verdade, a era do gigante tecnológico com poucos ativos ("asset-light") acabou oficialmente, com empresas como a Oracle e a Meta a estarem agora entre os negócios mais intensivos em capital no S&P 500. E depois há a OpenAI (empresa privada), que assinou algo na região de US$ 1 trilião em acordos de infraestrutura.

Do ponto de vista contábil, grande parte da "conta da IA" tem surgido até agora na forma de capex (despesas de capital). Quando a Meta gasta US$ 1 milhão em chips de IA da Nvidia, a empresa regista isso como capex. Não afeta diretamente o resultado final da Meta até o próximo período contabilístico, quando os contabilistas começam a reduzir o valor do ativo através da depreciação, ao longo de quantos anos eles acharem que esses chips serão úteis. A Nvidia, por outro lado, pode registar o US$ 1 milhão como receita imediatamente.

Portanto, no curto prazo, os gastos desenfreados em capex na verdade aumentam os lucros no agregado — parte da razão pela qual as empresas americanas e o mercado de ações tiveram um ano tão bom.


É claro que Wall Street está agora a prever custos crescentes: as estimativas para despesas de depreciação para as nove maiores gigantes tecnológicas dos Estados Unidos dispararam, à medida que estas se tornaram proprietárias de ativos físicos extremamente grandes.

A História é Gerada por IA pelos Vencedores

Mas, embora a IA tenha sido uma enorme bênção para muitos negócios americanos, por sua vez ajudando a Big Tech a ficar muito maior este ano, alguns setores sofreram na sombra da tecnologia, e isto sem sequer considerar o impacto nos indivíduos.

Empresas de software como Adobe, Workday e Docusign estão sob pressão, pois a IA reduz as barreiras de entrada nos seus respetivos campos; educadores e editoras também estão a lutar, com a IA capaz de redigir uma dissertação decente ou escrever uma publicação de blog em minutos. Recém-licenciados estão a enfrentar um mercado de trabalho brutal, que muitos estão a culpar a IA, e indústrias inteiras, como consultoria, atendimento ao cliente e, ironicamente, até mesmo desenvolvimento de software, enfrentam ameaças da IA e da automação. Como diz o velho ditado: a única constante é a mudança.

Fonte: aqui

O gráfico resume muito bem o volume de despesas de depreciação e amortização das grandes empresas de tecnologia. 

A atração exercida pela IA

 

Parece tudo tão rápido. A adoção da tecnologia da IA nas tarefas corriqueiras é algo nunca visto. Se o Gmail demorou mais de 4 mil dias ou 12 anos para atingir 1 bilhão de usuários, a mídias sociais chegaram mais rápido, com algo em torno de um pouco mais da metade disso. O TikTok levou cerca de cinco anos e foi algo surpreendente.

Lançado em novembro, o GPT precisou de três anos para atrair a casa de um bilhão. É algo realmente espantoso. O Gemini, do Google, segue a mesma tendência. 

O poder da IA ocorre não somente nas empresas, mas também nos computadores pessoais e celulares das pessoas no mundo todo. 

14 dezembro 2025

Obras geradas por IA não podem ser protegidas por direitos autorais

E, de forma incrível, existe um modo realmente simples de fazer isso. Após mais de 20 anos sendo consistentemente equivocada e prejudicial aos direitos dos artistas, a Copyright Office dos Estados Unidos finalmente fez algo glorioso e absolutamente correto. Ao longo de toda essa bolha da IA, o órgão tem sustentado — corretamente — que obras geradas por IA não podem ser protegidas por direitos autorais, porque o copyright é exclusivo de seres humanos. É por isso que a famosa “selfie do macaco” está em domínio público. Os direitos autorais só são concedidos a obras de expressão criativa humana fixadas em um meio tangível.


E a Copyright Office não apenas adotou essa posição, como a defendeu vigorosamente nos tribunais, obtendo reiteradas decisões favoráveis que reafirmam esse princípio.

O fato de que toda obra criada por IA pertence ao domínio público significa que, se Getty, Disney, Universal ou os jornais Hearst utilizarem IA para gerar conteúdos, qualquer outra pessoa pode copiar essas obras, vendê-las ou distribuí-las gratuitamente. E a única coisa que essas empresas odeiam mais do que pagar trabalhadores criativos é ver outras pessoas usando seus conteúdos sem permissão.

A posição da Copyright Office implica que a única forma de essas empresas obterem direitos autorais é pagando humanos para realizar trabalho criativo. Isso é uma receita para a “centauridade”. Se você é um artista visual ou escritor que usa prompts para gerar ideias ou variações, não há problema algum, porque a obra final é sua. E se você é um editor de vídeo que utiliza deepfakes para ajustar o direcionamento do olhar de 200 figurantes em uma cena de multidão, tudo bem: esses olhos estão em domínio público, mas o filme continua protegido por direitos autorais.

Fonte: Cory Doctorow via Marginal Revolution

13 dezembro 2025

IA e Bolhas


Do colunista Tim Harford

(...) O economista e ganhador do Prêmio Nobel William Nordhaus certa vez tentou estimar qual fatia do valor das novas ideias ia para as corporações que as possuíam e quanto ia para todos os outros (principalmente consumidores). Ele concluiu que a resposta — nos EUA, entre 1948 e 2001 — era de 3,7% para as empresas inovadoras e 96,3% para todos os outros. 

Dito de outra forma, os benefícios indiretos (ou spillover benefits) eram 26 vezes maiores do que os lucros privados. Se os benefícios da IA forem distribuídos de forma semelhante, há uma grande margem para que os investimentos em IA sejam socialmente benéficos, ao mesmo tempo em que são apostas catastróficas para os investidores.

Foto: aqui

01 dezembro 2025

Viva a Inteligência Artificial


Da newsletter de  Noah Smith (1o. dezembro) 

Novas tecnologias quase sempre criam muitos problemas e desafios para a nossa sociedade. A invenção da agricultura causou a superpopulação local. A tecnologia industrial causou poluição. A tecnologia nuclear possibilitou superarmas capazes de destruir a civilização. As novas tecnologias de mídia, sem dúvida, causam agitação e tumulto social sempre que são introduzidas.

E, no entanto, de quantas dessas tecnologias você pode honestamente dizer que gostaria que nunca tivessem sido inventadas? Algumas pessoas romantizam caçadores-coletores e camponeses medievais, mas não vejo muitos deles correndo para viver esses estilos de vida. Eu mesmo concordo com o argumento de que as mídias sociais habilitadas por smartphones são em grande parte responsáveis por uma variedade de males sociais modernos, mas sempre defendi que, eventualmente, as nossas instituições sociais evoluirão de maneiras que minimizam os danos e maximizam os benefícios. Em geral, quando olhamos para o passado, entendemos que a tecnologia quase sempre melhorou as coisas para a humanidade, especialmente a longo prazo.

Mas quando pensamos sobre as tecnologias que estão sendo inventadas agora, muitas vezes esquecemos essa lição — ou, pelo menos, muitos de nós esquecemos. Nos EUA, recentemente houve movimentos contra vacinas de mRNA, carros elétricos, carros autônomos, smartphones, mídias sociais, energia nuclear e energia solar e eólica, com graus variados de sucesso.

A diferença entre as nossas visões sobre tecnologias antigas e novas não é necessariamente irracional. As tecnologias antigas apresentam menos risco — nós basicamente sabemos que efeito terão sobre a sociedade como um todo e sobre as nossas próprias oportunidades econômicas pessoais. As novas tecnologias são disruptivas de maneiras que não podemos prever, e é razoável estar preocupado com o risco de acabarmos pessoalmente no lado perdedor das próximas mudanças sociais e econômicas. (...)

É especialmente desanimador porque passei a maior parte da minha vida a sonhar em ter algo como a IA moderna. E agora que está aqui, eu (principalmente) adoro.

A mídia preparou-me toda a minha vida para a IA. Algumas das representações eram negativas, é claro — a Skynet, o computador da série O Exterminador do Futuro, tenta aniquilar a humanidade, e o HAL 9000 em 2001: Uma Odisseia no Espaço tenta matar o seu utilizador. Mas a maioria das IAs retratadas na ficção científica eram robôs e computadores amigáveis — embora muitas vezes imperfeitos.

C-3PO e R2-D2 de Star Wars são companheiros leais de Luke e salvam a Rebelião em inúmeras ocasiões — mesmo que C-3PO esteja frequentemente errado sobre as coisas. O computador da nave em Star Trek é uma presença útil e reconfortante, mesmo que ocasionalmente estrague as suas criações holográficas. O Comandante Data de Star Trek: A Nova Geração é uma figura heroica, provavelmente baseada num personagem da série Robot de Isaac Asimov — e é apenas uma de centenas de representações simpáticas de androides. Pequenos robôs rolantes amigáveis como Wall-E e Johnny 5 de O Curto-Circuito são praticamente personagens típicos, e computadores sencientes prestativos são protagonistas importantes em A Lua é uma Amante Cruel, nos romances Culture, no programa de TV Person of Interest, e assim por diante. O romance The Diamond Age apresenta um tutor de IA que ajuda crianças a sair da pobreza, enquanto a série Murderbot é sobre um robô de segurança que só quer viver em paz.

Nessas representações, robôs e computadores inteligentes são consistentemente retratados como assistentes, aliados e até amigos prestativos. A sua utilidade faz sentido, uma vez que são criados para serem as nossas ferramentas. Mas algum instinto empático profundo na nossa natureza humana torna difícil objetificar algo que parece tão inteligente como uma simples ferramenta. E assim é natural retratarmos IAs como amigos.

Avançando algumas décadas, e eu realmente tenho aquele pequeno robô amigo com que sempre sonhei. Não é exatamente como nenhuma das representações de IA da ficção científica, mas é reconhecidamente semelhante. À medida que passo pela minha vida diária, o GPT (ou Gemini, ou Claude) está sempre lá para me ajudar. Se o meu filtro de água precisar de ser substituído, posso perguntar ao meu robô amigo como fazê-lo. Se eu esquecer qual sociólogo alegou que o crescimento econômico cria o momento institucional para um maior crescimento, posso perguntar ao meu robô amigo quem foi. Se eu quiser saber alguns locais icónicos em Paris para tirar selfies, ele pode me dizer. Se eu não me conseguir lembrar do artigo que li sobre o ecossistema de inovação da China no ano passado, o meu amigo robô pode encontrá-lo para mim.

(...)
Não, a IA nem sempre acerta em tudo. Ela comete erros regularmente. Mas eu nunca esperei que os engenheiros fossem capazes de criar algum tipo de deus-oráculo infalível que soubesse todas as verdades do Universo. C-3PO erra coisas com confiança o tempo todo, assim como o computador em Star Trek. Já agora, o meu pai também. Assim como todos os seres humanos que já conheci, e todos os sites de notícias que já li, e todas as contas de mídia social que já segui. Assim como acontece com todas as outras fontes de informação e assistência que você já encontrou na sua vida, a IA precisa de ser verificada antes que você possa acreditar 100% no que ela lhe diz. A omnisciência infalível ainda está fora do alcance da engenharia moderna.

Quem se importa? Esta é uma tecnologia incrivelmente útil, e eu adoro usá-la. Ela expandiu os meus horizontes informacionais em quase tanto quanto a própria internet, e tornou a minha vida muito mais conveniente. Mesmo sem os impactos esperados na produtividade, inovação e assim por diante, apenas ter este pequeno robô amigo seria suficiente para eu dizer que a IA melhorou enormemente a minha vida. (...)

10 setembro 2025

Darwin e IA


Um site que documenta os maiores fracassos em tecnologia relacionados à Inteligência Artificial, destacando como a arrogância humana frequentemente colide com a ineficiência das máquinas. O portal lista os “desastres mais bobos” envolvendo IA no ano, incentivando leitores a enviar novas indicações. A ideia é transformar essas falhas em material educativo — como alerta: “A decisão de IA catastrófica de hoje pode bem ser a vencedora do Darwin Award de amanhã!”

Um dos nominados envolvendo o tema importante para contabilidade, a fraude:

A Inovação

Nosso visionário Superhost do Airbnb descobriu o que acreditava ser o casamento perfeito entre tecnologia moderna e espírito empreendedor: usar geração de imagens por IA para fabricar provas de danos à propriedade no valor de mais de £12.000. Para quê se preocupar com danos reais quando a inteligência artificial poderia criar destruição muito mais convincente?

A Catástrofe

O plano espetacular envolvia enviar imagens manipuladas digitalmente mostrando grandes danos a uma mesa de café, junto com alegações de colchões manchados de urina, eletrodomésticos destruídos e diversos outros reparos caros. A obra-prima do anfitrião incluía várias fotos da mesma mesa exibindo diferentes tipos e padrões de danos — um nível de inconsistência que faria até editores de fotos amadores chorarem.

As Consequências

Inicialmente, a equipe de investigação do Airbnb mostrou-se tão pouco criteriosa quanto o anfitrião foi criativo, ordenando que o hóspede acadêmico, baseado em Londres, pagasse £5.314 em indenização com base em sua “análise cuidadosa das fotos”. No entanto, quando o The Guardian entrou no caso e a vítima apontou as discrepâncias óbvias entre imagens do mesmo objeto, o Airbnb subitamente desenvolveu a capacidade de reconhecer que casos falsos não atendem a padrões mínimos de evidência.

Por que Foi Nomeado

Este caso representa a tempestade perfeita da má utilização da IA: um humano confiantemente usando IA para cometer fraude, combinado com sistemas de investigação assistidos por IA que não detectaram manipulações óbvias. Nosso indicado demonstrou que, com grande poder da IA, vem absolutamente nenhuma responsabilidade — enquanto os sistemas do Airbnb mostraram que a inteligência artificial é perfeitamente capaz de ser tão ingênua quanto os humanos, apenas mais cara.

19 agosto 2025

Testando a Teoria Contábil através da Inteligência Artificial


Do blog Marginal Revolution uma proposta de Tetlock para testar teorias sociais. Eis um resumo: 

Philip Tetlock, renomado cientista social, aponta uma nova abordagem para testar grandes teorias políticas e econômicas — tradicionalmente difíceis de validar devido às condições ceteris paribus raramente observáveis no mundo real. Em vez de depender de experiências complexas e demorada, ele sugere o uso de modelos de linguagem (LLMs). A proposta envolve instruir a IA a reconstruir as perspectivas de diferentes correntes de pensamento, como o neorrealismo de Mearsheimer dos anos 1990, e testar se a IA pode reproduzir os pressupostos, hipóteses e previsões condicionais dessas escolas. O processo inclui três etapas: (1) validar se os LLMs conseguem passar por um “teste de Turing ideológico”; (2) avaliar sua capacidade de raciocinar para frente e gerar previsões de 2025 a 2050; e (3) pedir que sintetizem os melhores pressupostos e previsões das diferentes escolas, criando um observador ideal capaz de superar cada corrente de forma isolada. Essa estratégia pode acelerar a validação teórica e representar um salto em direção à inteligência super-humana em análise social. 

Fiquei imaginando se isto poderia ser aplicável na contabilidade. Minha impressão era um grande Sim, já que é uma ciência social. Optei por perguntar a própria inteligência artificial se ela era capaz de fazer isso. Lógico que respondeu com um sim. 

Veja a resposta: 

Sim, seria possível aplicar esse tipo de abordagem da Tetlock também na contabilidade, especialmente para testar e comparar grandes teorias contábeis ou pressupostos normativos e positivos.

Como funcionaria

  • Passo 1 – Reconstrução das escolas contábeis
    Um modelo de linguagem poderia ser instruído a “pensar” como diferentes escolas de pensamento em contabilidade (ex.: teoria da entidade, teoria do comando, teoria da propriedade, abordagem normativa versus positiva). Ele teria que reproduzir seus conceitos, princípios e justificativas para decisões específicas.

  • Passo 2 – Teste prospectivo
    A IA poderia ser desafiada a aplicar essas teorias a cenários futuros — por exemplo, como reconhecer passivos climáticos em 2035, como mensurar ativos digitais ou como lidar com moedas digitais dos bancos centrais. Assim, poderíamos comparar como cada teoria geraria diferentes registros contábeis ou divulgações.

  • Passo 3 – Síntese entre correntes
    A etapa final seria pedir que a IA sintetize os melhores elementos de cada escola, construindo uma “contabilidade observador ideal”, capaz de oferecer soluções mais equilibradas para dilemas contemporâneos (como sustentabilidade, valor justo ou relatórios integrados).

Benefício

Esse processo poderia ajudar a identificar lacunas nas normas atuais, explorar impactos de novas práticas e até subsidiar debates em órgãos reguladores como IASB e CPC.

Uma situação proposta seria a seguinte: Crie um exemplo sobre: se tivessemos um crise ambiental, faria sentido reconhecer o Escopo 3 das empresas? A resposta que obtive:

Ótima provocação 👌 Vamos montar um exemplo aplicado, inspirado no método de Tetlock, mas dentro da contabilidade.


Cenário

Em 2030, uma crise ambiental global provoca protestos e pressões de investidores. O debate é: empresas deveriam reconhecer contabilmente o Escopo 3 (emissões indiretas da cadeia de valor)?


📌 Escola Normativa (Princípios da Utilidade e Relevância)

  • Defende que a contabilidade deve informar usuários externos com a máxima transparência.

  • Argumenta que, como o Escopo 3 representa a maior parte da pegada de carbono de várias empresas, não reconhecer seria omitir informação relevante.

  • Proposta: criar passivos ambientais provisionados com base em modelos de precificação de carbono para toda a cadeia.


📌 Escola Positiva (Watts & Zimmerman)

  • Foca em como as empresas realmente se comportam, não no que “deveriam” fazer.

  • Diria que empresas só reconheceriam o Escopo 3 se houvesse pressão regulatória ou incentivos econômicos claros (ex.: imposto sobre carbono transferido aos fornecedores).

  • Conclusão: na prática, as companhias tenderiam a divulgar em notas explicativas em vez de reconhecer no balanço.


📌 Escola Crítica/Sociológica

  • Enfatiza que a contabilidade é também um instrumento de poder e legitimação.

  • Reconhecer o Escopo 3 seria um avanço, mas também redistribui responsabilidades: quem decide como medir as emissões da cadeia? A empresa ou o regulador?

  • Conclusão: poderia haver risco de greenwashing contábil, já que métricas imprecisas podem ser usadas para mostrar compromissos sem efetiva responsabilização.


Síntese

Uma “contabilidade do observador ideal” poderia combinar:

  • A relevância normativa (Escopo 3 é crucial para transparência),

  • O realismo positivo (reconhecimento só se vinculado a políticas de precificação do carbono),

  • E a crítica sociológica (necessidade de mecanismos de auditoria e governança para evitar manipulação).

👉 Resultado: seria plausível reconhecer Escopo 3 como passivo contingente, vinculado a cenários regulatórios e preços de carbono, enquanto se fortalece a divulgação obrigatória padronizada.

Imagem: aqui 

04 agosto 2025

Qual emprego está salvo da IA?

Na nova coluna de Tim Harford sua resposta foi: jardineiro. É bem verdade que já existe máquinas que irriga, arranca erva daninha e faz outras tarefas de jardinagem. Mas há uma diferença entre emprego e tarefa: um emprego é composto de tarefas interligadas. 

O exemplo que Harford usa é da planilha. Essa ferramenta foi criada originalmente para ser uma ferramenta da contabilidade:

A planilha digital, lançada em 1979, passou a executar instantaneamente e com perfeição tarefas antes feitas por auxiliares de contabilidade. No entanto, a profissão contábil simplesmente evoluiu, passando a lidar com problemas mais estratégicos e criativos, como a modelagem de cenários e riscos. E quem não quer um contador criativo?

Ontem postamos sobre o aparecimento de micros no Brasil no início dos anos 80. E as propagandas eram voltadas para tarefas contábeis, como folha de pagamento. Mas a profissão continuou firme e forte. 

É importante destacar que isso não assegura que a profissão irá sobreviver, mas o passado traz esperança para nós.  (Imagem aqui)

31 julho 2025

Uma fraqueza dos modelos de IA

Veja a imagem abaixo. Um problema de matemática, com a mesma formulação, mas o texto de baixo tem uma informação desnecessária, que está em vermelho. Quando o problema é submetido a um ser humano, ele simplesmente desconsidera a parte em vermelho.

Mas uma pesquisa (via aqui) mostrou que a inserção dessa frase no problema prejudica a resposta dada pela IA. Em língua inglesa isso chama CatAttack. 

O estudo descobriu que a inserção de "gatilhos adversariais independentes da pergunta" — trechos curtos e irrelevantes que, ao serem adicionados a problemas matemáticos, induzem sistematicamente os modelos a respostas incorretas — confunde os modelos. Alguns ficaram até 700% mais propensos ao erro quando expostos ao chamado CatAttack. 

IA está influenciando a forma como falamos


Eis o resumo:

Desde a invenção da escrita e da imprensa, passando pela televisão até as redes sociais, a história humana é marcada por grandes inovações em tecnologias de comunicação que transformaram profundamente a forma como as ideias se espalham e moldam a cultura. Recentemente, chatbots movidos por inteligência artificial generativa passaram a constituir um novo meio de comunicação, capaz de codificar padrões culturais em suas representações neurais e disseminá-los em conversas com centenas de milhões de pessoas. Compreender se esses padrões se transferem para a linguagem humana — e, em última instância, moldam a cultura — é uma questão fundamental.

Embora quantificar totalmente o impacto causal de um chatbot como o ChatGPT sobre a cultura humana seja extremamente desafiador, mudanças lexicográficas na comunicação falada podem oferecer um primeiro indicativo desse fenômeno amplo. Neste estudo, aplicamos técnicas econométricas de inferência causal a 740.249 horas de discursos humanos provenientes de 360.445 palestras acadêmicas no YouTube e 771.591 episódios de podcasts conversacionais de diversas áreas. Detectamos um aumento abrupto e mensurável no uso de palavras preferencialmente geradas pelo ChatGPT — como delve (aprofundar), comprehend (compreender), boast (gabar-se), swift (rápido) e meticulous (meticuloso) — após seu lançamento.

Esses achados sugerem um cenário no qual máquinas, inicialmente treinadas com dados humanos e posteriormente exibindo traços culturais próprios, podem, por sua vez, moldar a cultura humana de forma mensurável. Isso marca o início de um ciclo fechado de retroalimentação cultural, em que traços culturais circulam bidirecionalmente entre humanos e máquinas. Nossos resultados incentivam novas pesquisas sobre a evolução da cultura humano-máquina e levantam preocupações quanto à erosão da diversidade linguística e cultural, além dos riscos de manipulação em larga escala.

Foto: aqui

Pensei aqui que a IA talvez ensine os humanos a serem educados e calmos, mesmo diante de questões idiotas.  

30 julho 2025

Efeito da IA na educação


Meta integrou bots de IA em aplicativos populares como WhatsApp e Instagram na Colômbia rural a partir de julho de 2024. Embora isso tenha ampliado o acesso à IA até nas áreas mais remotas, professores relatam que alunos passaram a depender dos bots para tarefas e redações inteiras, entregando trabalhos muito superiores ao nível real de aprendizagem.

O paradoxo é que, apesar da qualidade aparente das respostas, o desempenho em provas e exames caiu — professores veem dificuldades em avaliação de leitura, escrita e ciências, com muitos estudantes repetindo conteúdo sem analisá-lo.

Diante disso, educadores estão repensando métodos de avaliação: usam provas orais e manuscritas, detectores de texto gerado por IA, debates em sala e atividades que exigem análise crítica. Alguns professores eliminaram a lição de casa, exigindo que os alunos façam os exercícios presencialmente sob supervisão.

Agora uma situação particular: todo semestre peço trabalho escrito. Se no passado minha luta era contra o plágio, agora o problema é o uso de IA. Como o trabalho é bem específico, com uma limitação temporal e uso de base de dados escolhida, fica fácil perceber o uso de IA. Com casos engraçados, como o aparecimento de referências sem sentido e não encontradas nos periódicos. 

29 julho 2025

Profissões de risco, segundo a Microsoft


A Microsoft realizou um estudo com cerca de 200 mil interações anônimas do Bing Copilot e criou uma “pontuação de aplicabilidade de IA”, classificando 40 profissões mais e menos vulneráveis à automação. As mais afetadas incluem tradutores, historiadores, redatores, autores, agentes de vendas e atendimento ao cliente — ferramentas de IA já conseguem substituir grande parte de tarefas que envolvem informação e comunicação. 

Em contrapartida, funções que exigem trabalho físico ou contato humano direto — como operadores de máquinas, massagistas, faxineiros e lavadores de pratos — mostram-se menos suscetíveis a substituição pela IA. O estudo destaca que a automação não elimina completamente um cargo, mas impacta atividades específicas dentro dele.

O trabalho pode ser encontrado aqui . Não há nenhuma referência específica ao contador, mas profissões próximas estariam no meio da tabela. 

21 julho 2025

IA e Deus, segundo o Vaticano

Somente agora tive conhecimento desse documento. Eis um trecho: 


IA e Nossa Relação com Deus

104. A tecnologia oferece ferramentas notáveis para administrar e desenvolver os recursos do mundo. No entanto, em alguns casos, a humanidade está cedendo cada vez mais o controle desses recursos às máquinas. Em certos círculos de cientistas e futuristas, há otimismo quanto ao potencial da inteligência artificial geral (IAG), uma forma hipotética de IA que igualaria ou superaria a inteligência humana e traria avanços inimagináveis. Alguns até especulam que a IAG poderia alcançar capacidades sobre-humanas. Ao mesmo tempo, à medida que a sociedade se afasta de uma conexão com o transcendente, alguns são tentados a recorrer à IA em busca de significado ou realização — anseios que só podem ser verdadeiramente satisfeitos na comunhão com Deus.

105. No entanto, a presunção de substituir Deus por um artefato criado pelo ser humano é idolatria, prática contra a qual as Escrituras alertam explicitamente (por exemplo, Ex. 20:4; 32:1-5; 34:17). Além disso, a IA pode se mostrar ainda mais sedutora do que os ídolos tradicionais, pois, ao contrário dos ídolos que “têm boca e não falam; olhos, e não veem; ouvidos, e não ouvem” (Sl. 115:5-6), a IA pode “falar”, ou pelo menos dar a ilusão de fazê-lo (cf. Ap. 13:15). Contudo, é vital lembrar que a IA é apenas um pálido reflexo da humanidade — ela é criada por mentes humanas, treinada com material gerado por humanos, responde a estímulos humanos e é sustentada pelo trabalho humano. A IA não pode possuir muitas das capacidades específicas da vida humana e também é falível. Ao recorrer à IA como um suposto “Outro” maior que si mesma, com quem compartilhar a existência e as responsabilidades, a humanidade corre o risco de criar um substituto para Deus. Entretanto, não é a IA que acaba sendo deificada e adorada, mas o próprio ser humano — que, assim, torna-se escravo de sua própria obra.

106. Embora a IA tenha potencial para servir à humanidade e contribuir para o bem comum, ela continua sendo uma criação das mãos humanas, trazendo “a marca da arte e do engenho humano” (At. 17:29). Jamais deve ser atribuída a ela um valor indevido. Como afirma o Livro da Sabedoria: “Foi um homem quem os fez, e um ser cujo espírito é emprestado os formou; pois nenhum homem pode formar um deus à sua semelhança. Ele é mortal, e aquilo que fabrica com mãos ímpias é morto; ele é melhor do que os objetos que adora, pois ele tem vida, mas eles jamais têm” (Sb. 15:16-17).

107. Em contraste, os seres humanos, “por sua vida interior, transcendem todo o universo material; experimentam essa profunda interioridade quando entram em seu próprio coração, onde Deus, que sonda o coração, os aguarda, e onde decidem seu próprio destino diante de Deus.”É no coração, como nos recorda o Papa Francisco, que cada indivíduo descobre a “misteriosa conexão entre o autoconhecimento e a abertura aos outros, entre o encontro com a própria singularidade e a disposição de doar-se aos demais.” Portanto, é somente o coração que é “capaz de colocar nossas outras faculdades e paixões, e toda a nossa pessoa, numa atitude de reverência e obediência amorosa diante do Senhor,”que “se oferece para tratar cada um de nós como um ‘Tu’, sempre e para sempre.”

O texto é de janeiro, durante a gestão de Francisco, com mais de 200 citações.