Translate

03 abril 2026

Análise custo-benefício de plantar árvore em São Paulo


E se o prefeito da cidade de São Paulo resolvesse plantar 3 milhões de árvores? Há um custo na tarefa e manutenção que pode atingir 5,4 bilhões de dólares, ou cerca de 1.800 dólares por árvore. Só que esse custo seria distribuído ao longo do tempo, tornando o investimento de aproximadamente 245 dólares por residente mais suportável para o contribuinte.  

Plantar árvores significa melhorar as condições de vida, combater as ilhas de calor que causam até 70% da mortalidade em ondas de calor na capital, melhorar a saúde e reduzir mortes. Temos um custo, mas precisamos entender o que significam, em termos numéricos, os benefícios. 

 Há uma métrica chamada Valor de uma Vida Estatística (VSL) para determinar se um investimento tão elevado vale a pena. Para São Paulo, o VSL é estimado em 2,035 milhões de dólares por vida. Considerando um horizonte de 20 anos, isso corresponde a um retorno econômico de 11,4 bilhões de dólares, baseado na estimativa de que 280 vidas seriam salvas anualmente com essa ação. Assim, embora o custo per capita seja relevante, os benefícios totais seriam superiores ao dobro do investimento.  

A lógica originou-se de uma análise comparativa global feita pelo Claude e os detalhes do cálculo para outras cidades do mundo estão documentados.


 

Alucinação de referência

Da Nature


Uma análise exclusiva realizada pela equipe de notícias da Nature sugere que pelo menos dezenas de milhares de publicações de 2025, incluindo jornais e livros, bem como anais de conferências, provavelmente contêm referências que foram “alucinadas” pela inteligência artificial. Vários editores acadêmicos estão explorando o uso de ferramentas de IA para detectar essas referências inválidas após o envio, mas alguns pesquisadores estão preocupados que o problema tenha atingido um ponto de inflexão. Com tantas referências falsas já por aí, os editores agora devem lutar com o problema do que fazer sobre isso.

Mega IPO da Space X terá banco brasileiro


A SpaceX está trabalhando com pelo menos 21 bancos em sua aguardada oferta pública inicial, disseram fontes familiarizadas com o assunto na terça-feira, formando um dos maiores consórcios de subscrição reunidos nos últimos anos.

A listagem, cujo codinome interno é Projeto Apex, deverá estar entre as estreias no mercado de ações mais observadas em Wall Street. Estima-se que a oferta pública, prevista para junho, avalie a empresa de foguetes controlada pelo fundador e presidente-executivo Elon Musk em US$1,75 trilhão.

O Morgan Stanley, o Goldman Sachs, o JPMorgan Chase, o Bank of America e o Citigroup estão atuando como ‘bookrunners’ ativos, ou seja, os principais bancos que administram o negócio, disseram as fontes, pedindo para não serem identificadas porque o processo não é público. Outros 16 bancos assinaram contrato em funções menores, acrescentaram.

Cerca de metade dos nomes dos bancos não haviam sido divulgados anteriormente. O tamanho do sindicato ressalta a escala e a complexidade da oferta planejada.

Os bancos, além dos bookrunners ativos, incluem: Allen & Co, Barclay, BTG Pactual do Brasil, Deutsche Bank, ING Groep, Macquarie, Mizuho, Needham & Co, Raymond James, Royal Bank of Canada, Société Générale, Banco Santander, Stifel, UBS, Wells Fargo e William Blair.

Espera-se que os bancos assumam funções nos canais de investidores institucionais, de alto patrimônio líquido e de varejo, bem como em diferentes regiões geográficas, informou a Reuters anteriormente. O plano está sujeito a mudanças e outros bancos ainda podem ser acrescentados, disseram as fontes.

Fonte aqui, grifo nosso.  

Como as pessoas usam o GPT?

U


m estudo da OpenAI, em parceria com a Duke e Harvard, tenta responder a questão. Abaixo o resumo: 

Apesar da rápida adoção de chatbots baseados em LLM, pouco se sabe sobre como eles são utilizados. Documentamos o crescimento do produto de consumo do ChatGPT desde seu lançamento em novembro de 2022 até julho de 2025, quando já havia sido adotado por cerca de 10% da população adulta mundial. Os primeiros usuários eram desproporcionalmente homens, mas essa diferença de gênero diminuiu significativamente, e observamos taxas de crescimento mais altas em países de menor renda. Utilizando um pipeline automatizado com preservação de privacidade, classificamos padrões de uso em uma amostra representativa de conversas do ChatGPT. Encontramos crescimento constante nas mensagens relacionadas ao trabalho, mas um crescimento ainda mais rápido nas mensagens não relacionadas ao trabalho, que passaram de 53% para mais de 70% do uso total. O uso profissional é mais comum entre usuários com maior escolaridade e em ocupações bem remuneradas. Classificamos as mensagens por tema e identificamos que “Orientação Prática”, “Busca de Informação” e “Escrita” são os três tópicos mais frequentes, somando quase 80% de todas as conversas. A escrita domina as tarefas relacionadas ao trabalho, destacando a capacidade única dos chatbots de gerar conteúdos digitais em comparação aos mecanismos de busca tradicionais. Programação e autoexpressão representam parcelas relativamente pequenas do uso. De modo geral, concluímos que o ChatGPT gera valor econômico por meio do suporte à tomada de decisões, especialmente em atividades intensivas em conhecimento.

A extração do texto a partir da imagem acima e sua tradução foram feitos com o GPT.  

Observe que o estudo foi publicado em setembro de 2025. Mas as conclusões parecem razoáveis.  

02 abril 2026

Óculos e a cola com IA

Eis alguns trechos 


O mercado de óculos com IA na China está crescendo, impulsionado por subsídios governamentais e por gigantes da tecnologia como Xiaomi e Alibaba, que estão integrando modelos de linguagem (LLMs) em óculos do dia a dia. (...)
  

Os óculos escaneiam as questões e exibem as respostas nas lentes. “Em qualquer matéria em que eu possa ir mal”, disse ela, pedindo para usar um pseudônimo para falar livremente. Alguns colegas já alugaram seus óculos para usar em exames.

Óculos inteligentes com IA se tornaram uma indústria multibilionária. Os dispositivos, com preços que variam de US$270 a mais de US$1.000, geralmente vêm equipados com câmeras e recursos de áudio, alimentados por grandes modelos de linguagem. Aqueles com telas conseguem exibir textos ou imagens com efeitos de realidade aumentada. (...)

Grandes exames na China, como o vestibular nacional e concursos públicos, já proibiram explicitamente o uso de óculos inteligentes. Ainda assim, estudantes afirmam que muitos professores não conseguem identificar esses dispositivos durante provas escolares regulares.

BRB adia publicação


Já vimos um roteiro parecido antes. O Banco BRB, controlado pelo governo do Distrito Federal, irá postergar a publicação das demonstrações financeiras do terceiro e do quarto trimestres de 2025. Partindo de um banco estatal, é um fato importante que deixa muito claro o momento difícil.

Segundo o comunicado, é necessária a conclusão dos trabalhos da auditoria forense e a avaliação, pela administração e pelo auditor, dos impactos. Durante anos, a instituição tomou decisões inadequadas e arriscadas, sem que fosse possível notar a existência de uma governança corporativa mínima. A instituição financeira começou a abrir agências fora do Distrito Federal, muitas delas, “coincidentemente”, no estado de origem do ex-governador. Passou também a investir muito dinheiro em um clube de futebol, onde teve prejuízos elevados em razão de valores incobráveis.

E, mais recentemente, fez transações nebulosas com o Master, uma instituição de elevado risco no mercado financeiro. Dois futuros esperam o BRB: ser absorvido por uma instituição federal ou receber aporte do governo do Distrito Federal. Obviamente, os políticos que comandam e comandaram a política local desejam o segundo, mas está difícil encontrar os recursos.

Redes sociais x Chatbots e posição política


As redes sociais recompensam a indignação porque a indignação gera engajamento. Essa tem sido a lógica dos últimos quinze anos, e produziu resultados previsíveis: mais extremismo, mais crença em teorias da conspiração, mais polarização. Isso deu origem, como argumento, a empreendedores da raiva. 

A nova análise de John Burn-Murdoch, do FT, sugere que chatbots de IA fazem o oposto. Ele testou os quatro principais LLMs com base em 61 questões sobre políticas e valores, utilizando usuários simulados ao longo de todo o espectro ideológico. Todos os modelos tenderam a deslocar as respostas em direção ao centro. 

O Grok puxou para o centro-direita; GPT, Gemini e DeepSeek puxaram para o centro-esquerda. Os quatro afastaram as respostas de posições extremas, independentemente do ponto de partida dos usuários. Crenças conspiratórias, que são super-representadas entre usuários de redes sociais, estão praticamente ausentes nas respostas de IA. A razão é estrutural. As empresas de redes sociais lucram com engajamento, atenção e cliques, de modo que conteúdos inflamatórios são amplificados. Já os modelos de IA são treinados com grandes volumes de dados que tendem a privilegiar textos publicados, editados e inteligíveis para especialistas — o que os leva, inevitavelmente, a se aproximarem do consenso dominante, independentemente da intenção de qualquer empresa. 

Há ressalvas. Trata-se de apenas um estudo, os modelos vão mudar, e direcionar as pessoas ao consenso especializado só é claramente positivo quando esse consenso realmente vale a pena. Além disso, nada impede que modelos sejam treinados com conteúdos absurdos e inflamatórios, passando, assim, a produzir mais do mesmo.

Fonte: aqui 

Provisão da EY no Reino Unido sinaliza


Quando uma empresa aumenta os valores provisionados para processos judiciais, está informando ao usuário que espera mais ações judiciais e mais derrotas nesses processos.

Isso aconteceu agora com a EY do Reino Unido. Essa grande empresa de auditoria reservou 188 milhões de libras esterlinas para disputas legais, bem acima dos 44 milhões do ano anterior.

Sua rival KPMG chegou a destinar 179 milhões em 2022, quando foi questionada sobre seu trabalho na empresa Carillion, um grande escândalo contábil na terra do Rei Carlos III.

No caso da EY, o aumento decorre de problemas com a empresa de saúde NMC Health. Não foi feita uma ligação direta entre o caso da NMC e o aumento para 188 milhões, mas tudo leva a crer que exista uma relação. Outro fator é o aumento do risco jurídico das empresas de auditoria. Antigamente, a alegação — hoje considerada absurda — de que uma auditoria não investigava a existência de fraude era aceita, algo que se torna cada vez mais difícil de imaginar nos dias atuais.

Wikipedia somente por humanos


A Wikipedia proibiu o uso de modelos de linguagem LLM para produzir conteúdo para a enciclopedia, mas irá permitir que a IA possa ser usada para a tradução de um artigo completo, mas existindo supervisão humana. 

A medida decorre da confiabilidade das informações, já que as ferramentas de IA podem alucinar ou alterar o conteúdo ou cometer outros erros. E a quantidade de lixo gerado por IA estaria sobrecarregando os editores. 

De certa forma, os gestores da Wikipedia atenderam os editores, que reclamaram quando a organização sinalizou um possível uso de IA.  

01 abril 2026

Clonagem e a necessidade de correção

Eis a notícia


Em 2005, uma dupla de marido e mulher do instituto japonês RIKEN realizou um experimento com um camundongo: cloná-lo, depois clonar o clone, depois clonar esse novo clone — e assim sucessivamente. Teruhiko Wakayama e Sayaka Wakayama mantiveram o experimento por 20 anos — atravessando mudanças de laboratório, o terremoto de 2011 e a pandemia — exigindo 30.947 tentativas de clonagem para produzir 58 gerações sucessivas, conforme resumido pela Metacelsus.

Por um tempo, tudo correu bem. Um relatório intermediário de 2013 mostrou 25 gerações saudáveis, sem queda na eficiência da clonagem ou na saúde dos animais. No entanto, mutações estavam se acumulando silenciosamente. Na geração 57, os camundongos apresentavam mais de 3.400 alterações pontuais no DNA em comparação com o original — uma taxa de mutação 3,1 vezes maior do que na reprodução natural da mesma linhagem. Animais que se reproduzem sexualmente conseguem eliminar mutações prejudiciais por meio da recombinação, quando os cromossomos se reorganizam e cópias defeituosas são descartadas. Clones não possuem esse mecanismo, então cada erro permanece.

Os problemas mais graves foram estruturais. Entre as gerações 25 e 45, um cromossomo X inteiro desapareceu e nunca foi recuperado. Deleções, inversões e translocações cromossômicas se acumularam junto às mutações pontuais. Na geração 58, as células já não conseguiam produzir clones viáveis, e o projeto foi encerrado. Os camundongos nascidos em cada etapa tiveram vidas normais — o processo não gerou animais doentes, mas sim um DNA progressivamente mais frágil, que acabou incapaz de suportar o próprio processo de clonagem. 

Que diabos isso tem relação com a contabilidade? Veja, a natureza é sábia e criou um mecanismo que ajusta as mutações, o que não temos na clonagem. A nossa sobrevivência depende do mecanismo de correção, como governança corporativa, alterações nos sistemas contábeis, entre outras coisas. 

Sistemas que apenas replicam o passado, sem mecanismos de correção e confronto externo, inevitavelmente acumulam distorções até colapsarem. 

O refrescante poder da discordia

Eis mais uma reflexão de Harford


Um dos experimentos mais famosos da psicologia social ocorreu no início dos anos 1950. Solomon Asch, professor do Swarthmore College, reuniu grupos de jovens para o que lhes disse ser um experimento de “julgamento visual”. Não era nada disso.

O que aconteceu ficou conhecido como o “experimento de conformidade”, mas esse rótulo é enganoso para um estudo frequentemente mal compreendido. Asch conduziu várias variações do experimento, e a lição mais surpreendente e poderosa não é sobre o poder da conformidade, mas sobre o poder do desacordo. A abordagem básica de Asch consistia em mostrar dois cartões a um grupo de cerca de oito pessoas. Um cartão tinha uma única linha: a linha de referência. O outro mostrava três linhas de comprimentos diferentes. A tarefa era simples, de múltipla escolha: identificar qual linha tinha o mesmo comprimento da linha de referência. Isso não era difícil; quando as pessoas faziam essa tarefa sozinhas, quase nunca erravam.

No entanto, Asch não pedia que realizassem a tarefa isoladamente, mas como membros de um grupo. Os participantes eram solicitados, um a um, a dizer sua resposta para o restante do grupo. Isso abria espaço para que os indivíduos fossem guiados não pelos próprios olhos, mas pelas opiniões dos outros. Os grupos repetiam a tarefa 18 vezes, mas Asch tinha um truque. Todos no grupo eram cúmplices trabalhando para ele, exceto um único participante real e desavisado. Esse participante ficava perto do final da fila. Os cúmplices tinham instruções para acertar as duas primeiras perguntas e, em seguida, concordar unanimemente em respostas erradas na maioria das rodadas seguintes. Imagine o choque e a ansiedade do participante ao ver uma pessoa após a outra contradizer a evidência dos próprios olhos. As pessoas sentiam uma pressão real para se conformar, com mais de um terço das respostas coincidindo com a ilusão do grupo, e não com a verdade evidente.

Por quê? Quando questionadas após o experimento, algumas pessoas disseram que haviam mudado de ideia, concluindo que o grupo devia estar certo. Outras afirmaram que não mudaram de opinião, mas mudaram suas respostas, por não quererem atrapalhar o experimento. Ainda outras foram firmemente independentes, dizendo que presumiam que o grupo estivesse certo e elas erradas, mas sentiam o dever de responder conforme viam.

O que mais me fascina no experimento de Asch é o que aconteceu quando um dos cúmplices foi instruído a discordar do grupo e dar a resposta correta. O resultado: o feitiço da conformidade foi quebrado. As pessoas cometeram apenas um quarto dos erros, com a taxa caindo para menos de 10%. A pressão do grupo perdeu grande parte de sua força.

Ainda mais brilhante foi outra variação, em que Asch novamente instruiu um cúmplice a discordar do grupo. Desta vez, porém, ele era um “dissidente extremista”, dando uma resposta ainda mais errada que o consenso da maioria. O resultado? Os participantes, em geral, deram a resposta correta; a taxa de erro permaneceu abaixo de 10%.

Asch demonstrou três coisas. Primeiro, as pessoas podem ir contra a evidência dos próprios olhos quando confrontadas por um grupo unânime. Segundo, a pressão do grupo é muito mais fraca quando ao menos uma pessoa ousa discordar. Terceiro, e mais notável: não importa se o dissidente está errado; o simples ato de discordar rompe a pressão do grupo. As pessoas se sentem livres para dizer o que pensam, não porque o dissidente diga a verdade, mas porque ele mostra que discordar é possível.

Pensei em Solomon Asch ao conhecer um livro de receitas de Julia Child e Jacques Pépin, Julia and Jacques Cooking at Home. Ele reúne pratos clássicos, mas apresenta duas versões diferentes de cada receita — uma de Julia e outra de Jacques. Nas margens, cada um oferece explicações bem-humoradas sobre o que o outro fez “errado”, por que tomou decisões diferentes e quais os efeitos disso no prato final. Como escreve o filósofo C. Thi Nguyen, é “o registro de uma discussão — uma conversa animada entre amigos”.

Isso importa porque, assim como no experimento engenhoso de Asch, mostra que a discordância é possível. Os dois casos parecem muito diferentes — até porque há apenas uma resposta correta no teste visual de Asch, enquanto existem várias formas de preparar um peixe. Ainda assim, a discordância é valiosa em ambos os casos, pois nos dá permissão para pensar por conta própria. Muitos anos atrás, estive envolvido em um processo de planejamento de cenários para a empresa de petróleo Shell. Sempre foi um exercício fascinante, mas hoje percebo que uma de suas forças mais importantes raramente era discutida: sempre havia pelo menos dois cenários, e todos tinham o mesmo status. Era como Cooking at Home aplicado à estratégia corporativa: a premissa fundamental era que existia mais de um futuro plausível, e uma conversa animada sobre essas possibilidades abria espaço para novas formas de pensar.

Charlan Nemeth, psicóloga e autora de No! The Power of Disagreement in a World that Wants to Get Along, alerta contra a dissidência “artificial” — como a tradição católica do “advogado do diabo”, que argumenta contra a canonização de um possível santo. Em teoria, isso parece útil, mas, na prática, há pouco ganho quando a discordância é apenas encenada. Todos sabem que o papel é performático, o que reduz o esforço real de persuasão. Como escreve Nemeth, “encenar papéis não produz os efeitos estimulantes da dissidência autêntica”.

Ainda assim, algumas formas de “artificialidade” são melhores que outras. Nemeth elogia uma firma de investimentos que só toma decisões após considerar argumentos sólidos tanto a favor quanto contra uma posição. O diferencial talvez esteja no fato de que esses argumentos contrários não são um jogo, mas apresentados com seriedade genuína.

Outra prática é o chamado red teaming — atribuir a um grupo a tarefa de criticar profundamente uma ideia antes de sua adoção. Isso pode ser um ritual vazio ou uma prática rigorosa, dependendo da intenção de quem participa.

A dissidência encenada é melhor do que nenhuma, especialmente quando levada a sério. Mas a forma mais valiosa de discordância é a autêntica — mesmo que seja teimosa e corajosa. Não há substituto para pessoas que sentem o dever de dizer o que realmente veem.

Na contabilidade queremos tanto a "comparabilidade" que não admitimos uma segunda abordagem. Esperamos que os reguladores indiquem a alternativa permitida. Há algumas exceções notáveis, como a avaliação dos estoques, mas no geral buscamos a harmonização ou padronização, palavras que exprimem nosso desejo de não ter caminhos alternativos.  

Imagem: Diego Rivera 

IFRS 20 e a data de implementação


A EFRAG solicitou ao IASB o adiamento de um ano na vigência da futura IFRS 20 sobre regulação tarifária, de 1º de janeiro de 2029 para 2030, citando dificuldades de preparação por parte das empresas. O IASB havia debatido datas entre 2028 e 2029, equilibrando urgência e qualidade de implementação. Com divisão igual entre os membros, o presidente decidiu por mais prazo, visando garantir adoção adequada e consistente entre jurisdições. 

Recentemente a norma foi discutida em um webcast, mas a solicitação do Efrag tem grande chance de ser aprovada. 

Aprimoramento das normas SASB


Ontem, ao comentar sobre o relatório de 2025 da Fundação IFRS, afirmei que o ISSB fez pouco desde que foi criado. É bem verdade que a entidade está "aprimorando" as normas SASB para ajudar na aplicação da IFRS S1. Anteriormente, nove normas SASB tiveram a minuta divulgada em julho de 2025. E há poucos dias, mais três normas SASB foram disponibilizadas para discussão: ‘Agricultural Products’, ‘Meat, Poultry & Dairy’ e ‘Electric Utilities & Power Generators’. O período para comentários se encerra em 24 de julho de 2026.

Imagem aqui 

Todos modelos são (estão) errados, mas alguns são uteis

 


Uma das citações de um dos meus estatísticos favoritos é a observação do estatístico britânico George Box de que:

“Todos os modelos estão errados, mas alguns são úteis.”

— George Box

O ponto dele, como eu entendo, é simplesmente que qualquer modelo é, por natureza, uma simplificação e uma aproximação da realidade. Ele nunca conseguirá capturar a realidade em sua totalidade.

Isso se aplica à sua fórmula de receitas e despesas esperadas que você arrasta pelas células de uma planilha. E se aplica também aos nossos maiores e extremamente complexos modelos meteorológicos e climáticos, com milhões de variáveis e pontos de dados. Eles nunca podem ser completos. E, embora devamos ter isso em mente ao considerar as limitações de todos os nossos modelos, previsões, estimativas e explicações, isso não impede que eles sejam, muitas vezes, úteis.

Embora seja possível — e muitas pessoas o fazem — argumentar contra a ideia de que modelos são “errados”, eu gosto dessa citação porque ela me lembra de ser humilde e devidamente cético em relação a qualquer modelo que eu leia ou construa. Embora sua precisão varie enormemente, todos são falíveis.

Ela também me lembra que todo modelo tem um propósito — enfatizando certos aspectos da realidade e ignorando outros.

Sobre Mapas

Embora um mapa não seja um modelo no sentido estatístico que George Box provavelmente tinha em mente ao formular essa frase, considero que mapas são um ótimo exemplo de foco seletivo.

No esboço, é possível ver a complexidade caótica do mundo, o mapa tradicional em que edifícios e ruas se tornam marcas no papel, e a simplificação das paradas sequenciais de uma linha de ônibus.

Em outros casos, os mapas podem focar em:

  • Geografia humana: ruas, edifícios, lojas

  • Atrações turísticas

  • Relevo, elevação e características geográficas

  • Cursos d’água e bacias hidrográficas

  • Trânsito e tempos de deslocamento

  • Fronteiras políticas

E muitos outros aspectos. Todos são modelos que representam alguns elementos com mais precisão em detrimento de outros. Como diz o ditado: “O mapa não é o território.”

Outros Exemplos

Alguns outros exemplos de modelos simplificados, mas ainda assim úteis:

  • Clima: imagine tentar condensar toda a complexidade do clima de um dia no Reino Unido em um único ícone. Não é simples. Ainda assim, isso pode ajudar você a decidir se deve levar um guarda-chuva ou adiar um passeio de barco.
  • Projeção de Mercator: útil para navegadores, mas altamente distorcida em altas latitudes.
  • Regra de Naismith: para estimar o tempo de caminhada em montanhas com base na distância e na elevação.
  • Desenho ortográfico de uma casa ou produto: pode destacar aspectos relevantes para a construção — fiação, encanamento, integridade estrutural — enquanto ignora texturas, cores, imperfeições ou custo.
  • Modelo atômico de Bohr: elétrons orbitando como planetas ao redor do núcleo. Imperfeito, mas útil.
  • Distribuições normais: como as observadas na altura das pessoas, raramente são perfeitamente normais, mas ainda assim podem ser aproximações úteis.
  • Curvas de oferta e demanda: aproximam o comportamento de compradores e fornecedores, assumindo racionalidade e disponibilidade de informação.
  • Mapa do metrô de Londres: simplificado em linhas perpendiculares e angulares, facilita a navegação no metrô, mas pode distorcer a percepção das distâncias a pé.

Um modelo é uma ferramenta, e sua utilidade depende do que você está tentando fazer. Se você está traçando rotas em um mapa plano, a projeção de Mercator é extremamente útil. Se quer entender o tamanho da Groenlândia em comparação com outros países, ela pode ser enganosa.

Box defende o uso de modelos econômicos (no sentido de simples), que nos permitam analisar a prática mantendo a consciência de onde eles podem estar significativamente errados.

Não me escapa que eu apresento muitos modelos mais simples do que a realidade no Sketchplanations. Acho que isso acontece porque, quando reconhecemos conscientemente suas imperfeições e limitações, um bom modelo — assim como um bom framework — pode ser extremamente útil. Como disse Larry Keeley: “Construir um bom framework é como cortar cubos a partir da névoa.”

Uma pequena nota: o GPT traduziu "todos modelos estão" mas confesso que fiquei na dúvida se o melhor não seria "são".  O texto original pode ser obtido aqui, no Sketchplanations.

9% do New York Times foram gerados pela IA

Eis um trecho:

A autora da coluna [Modern Love, do New York Times], Kate Gilgan, disse à revista que não havia copiado e colado trechos de um modelo de IA, mas que “utilizou IA como ferramenta”, incluindo chatbots como ChatGPT, Claude e Gemini, para buscar “inspiração, orientação e correção”.

“Usei a IA como um editor colaborativo, e não como um gerador de conteúdo”, insistiu Gilgan.

(...) E a escala pode ser significativa. Controvérsias como a envolvendo a coluna de Gilgan levaram vários pesquisadores de IA a investigar quanto conteúdo gerado por IA já se infiltrou nos jornais americanos.

Utilizando uma ferramenta de detecção de IA da startup Pangram Labs, seus achados, publicados como um estudo preliminar em outubro, são preocupantes. Eles sugerem que 9% dos artigos recém-publicados são parcial ou totalmente gerados por IA, principalmente em veículos menores e locais.
 

É preciso tomar muito cuidado com a estimativa, uma vez que as ferramentas de detecção de uso de IA cometem falhas. Mas o fato da famosa coluna Modern Love ser escrita com ajuda já é uma reconhecimento importante.