Translate

31 julho 2025

Uma fraqueza dos modelos de IA

Veja a imagem abaixo. Um problema de matemática, com a mesma formulação, mas o texto de baixo tem uma informação desnecessária, que está em vermelho. Quando o problema é submetido a um ser humano, ele simplesmente desconsidera a parte em vermelho.

Mas uma pesquisa (via aqui) mostrou que a inserção dessa frase no problema prejudica a resposta dada pela IA. Em língua inglesa isso chama CatAttack. 

O estudo descobriu que a inserção de "gatilhos adversariais independentes da pergunta" — trechos curtos e irrelevantes que, ao serem adicionados a problemas matemáticos, induzem sistematicamente os modelos a respostas incorretas — confunde os modelos. Alguns ficaram até 700% mais propensos ao erro quando expostos ao chamado CatAttack. 

Helsinki completou um ano sem uma morte no trânsito


É uma notícia surpreendente. A capital da Finlândia, que possui 640 mil habitantes, completou um ano sem nenhum acidente fatal no trânsito dentro dos limites da cidade, com o último ocorrido em julho de 2024 no bairro Kontula. Autoridades atribuem o feito à redução do limite de velocidade — mais da metade das ruas agora é limitada a 30 km/h — e a um desenho urbano mais inteligente, com infraestrutura ampliada para pedestres e ciclistas, monitoramento reforçado e transporte público eficiente. Apesar de ainda ocorrerem acidentes com feridos (277 no ano passado), o número é bem inferior aos quase mil registrados nos anos 80. A estratégia de segurança da cidade, válida até 2026, prioriza a segurança de crianças, jovens e usuários vulneráveis. 

A redução de acidentes em Helsinki impacta a contabilidade pública ao diminuir gastos com saúde, seguros e infraestrutura de emergência. Além disso, reflete investimentos eficientes em mobilidade urbana, que podem ser analisados como indicadores de desempenho e retorno social, fundamentais para a contabilidade governamental e avaliação de políticas públicas. 

IA está influenciando a forma como falamos


Eis o resumo:

Desde a invenção da escrita e da imprensa, passando pela televisão até as redes sociais, a história humana é marcada por grandes inovações em tecnologias de comunicação que transformaram profundamente a forma como as ideias se espalham e moldam a cultura. Recentemente, chatbots movidos por inteligência artificial generativa passaram a constituir um novo meio de comunicação, capaz de codificar padrões culturais em suas representações neurais e disseminá-los em conversas com centenas de milhões de pessoas. Compreender se esses padrões se transferem para a linguagem humana — e, em última instância, moldam a cultura — é uma questão fundamental.

Embora quantificar totalmente o impacto causal de um chatbot como o ChatGPT sobre a cultura humana seja extremamente desafiador, mudanças lexicográficas na comunicação falada podem oferecer um primeiro indicativo desse fenômeno amplo. Neste estudo, aplicamos técnicas econométricas de inferência causal a 740.249 horas de discursos humanos provenientes de 360.445 palestras acadêmicas no YouTube e 771.591 episódios de podcasts conversacionais de diversas áreas. Detectamos um aumento abrupto e mensurável no uso de palavras preferencialmente geradas pelo ChatGPT — como delve (aprofundar), comprehend (compreender), boast (gabar-se), swift (rápido) e meticulous (meticuloso) — após seu lançamento.

Esses achados sugerem um cenário no qual máquinas, inicialmente treinadas com dados humanos e posteriormente exibindo traços culturais próprios, podem, por sua vez, moldar a cultura humana de forma mensurável. Isso marca o início de um ciclo fechado de retroalimentação cultural, em que traços culturais circulam bidirecionalmente entre humanos e máquinas. Nossos resultados incentivam novas pesquisas sobre a evolução da cultura humano-máquina e levantam preocupações quanto à erosão da diversidade linguística e cultural, além dos riscos de manipulação em larga escala.

Foto: aqui

Pensei aqui que a IA talvez ensine os humanos a serem educados e calmos, mesmo diante de questões idiotas.  

Netflix possui algumas marcas registradas


Stephen Follows descobriu algo interessante: a Netflix tem registrado como dela marcas associadas a memes, eventos, restaurantes, design de produtos e até slogans populares. Um exemplo: Strong Black Lead (algo como liderança negra forte) é marca registrada da empresa. 

É como se a empresa registrasse o slogan. Mas a empresa de streaming foi mais além, conduzindo experimentos. Além de Strong Black Lead, a empresa é dona de Qwikster (sem tradução literal), What a Joke (Que piada), Netflix bites (Netflix morde), Queue (fila), entre outras.

O processo de registro deve ter seu custo, mas pela quantidade de termos que Follows encontrou, deve valer a pena para a empresa fazer o processo. Seria um ativo? 

30 julho 2025

Efeito do escândalo PCAOB na KPMG


Este artigo examina o escândalo de inspeção de auditoria de 2017 envolvendo o PCAOB e a KPMG — uma das poucas violações publicamente divulgadas do “tom vindo do topo” em uma firma do Big 4. Tendo como pano de fundo uma grave infração à ética profissional por parte de líderes da KPMG, estudamos como o escândalo afetou a KPMG e seus clientes. Utilizando uma abordagem de diferenças em diferenças, constatamos que a qualidade da auditoria na KPMG aumentou após o escândalo em comparação com as demais firmas do Big 4. Também verificamos que a KPMG conseguiu evitar a perda de clientes. Os clientes mais diretamente ligados ao escândalo apresentaram uma queda nas taxas de auditoria e de serviços não relacionados à auditoria. No geral, documentamos melhorias operacionais na KPMG em resposta ao escândalo, embora acompanhadas de possíveis sacrifícios na geração de receita.

Texto ainda não publicado . (Imagem aqui)

Para lembrar, a KPMG contratou funcionários do fiscalizador PCAOB, que levaram informações confidenciais para o novo emprego, que ajudou a KPMG a "melhorar" sua auditoria. O caso resultou em acusações civis e criminais e uma multa de 50 milhões de dólares. 

Efeito da IA na educação


Meta integrou bots de IA em aplicativos populares como WhatsApp e Instagram na Colômbia rural a partir de julho de 2024. Embora isso tenha ampliado o acesso à IA até nas áreas mais remotas, professores relatam que alunos passaram a depender dos bots para tarefas e redações inteiras, entregando trabalhos muito superiores ao nível real de aprendizagem.

O paradoxo é que, apesar da qualidade aparente das respostas, o desempenho em provas e exames caiu — professores veem dificuldades em avaliação de leitura, escrita e ciências, com muitos estudantes repetindo conteúdo sem analisá-lo.

Diante disso, educadores estão repensando métodos de avaliação: usam provas orais e manuscritas, detectores de texto gerado por IA, debates em sala e atividades que exigem análise crítica. Alguns professores eliminaram a lição de casa, exigindo que os alunos façam os exercícios presencialmente sob supervisão.

Agora uma situação particular: todo semestre peço trabalho escrito. Se no passado minha luta era contra o plágio, agora o problema é o uso de IA. Como o trabalho é bem específico, com uma limitação temporal e uso de base de dados escolhida, fica fácil perceber o uso de IA. Com casos engraçados, como o aparecimento de referências sem sentido e não encontradas nos periódicos. 

Sobre a dificuldade de medir custos e benefícios da IA


A cidade de Pittsburgh (Pensilvânia, Estados Unidos) implementou em 2012 um sistema de controle de tráfego com IA chamado Surtrac, os resultados foram imediatos: o tempo de espera nos cruzamentos caiu em 40% e as emissões de carbono foram reduzidas em 21%. Hoje, os semáforos foram integrados à plataforma e respondem dinamicamente às mudanças, em vez de seguirem cronogramas desatualizados.
 

O texto completo está aqui. Imagem aqui