Translate

03 abril 2026

Como as pessoas usam o GPT?

U


m estudo da OpenAI, em parceria com a Duke e Harvard, tenta responder a questão. Abaixo o resumo: 

Apesar da rápida adoção de chatbots baseados em LLM, pouco se sabe sobre como eles são utilizados. Documentamos o crescimento do produto de consumo do ChatGPT desde seu lançamento em novembro de 2022 até julho de 2025, quando já havia sido adotado por cerca de 10% da população adulta mundial. Os primeiros usuários eram desproporcionalmente homens, mas essa diferença de gênero diminuiu significativamente, e observamos taxas de crescimento mais altas em países de menor renda. Utilizando um pipeline automatizado com preservação de privacidade, classificamos padrões de uso em uma amostra representativa de conversas do ChatGPT. Encontramos crescimento constante nas mensagens relacionadas ao trabalho, mas um crescimento ainda mais rápido nas mensagens não relacionadas ao trabalho, que passaram de 53% para mais de 70% do uso total. O uso profissional é mais comum entre usuários com maior escolaridade e em ocupações bem remuneradas. Classificamos as mensagens por tema e identificamos que “Orientação Prática”, “Busca de Informação” e “Escrita” são os três tópicos mais frequentes, somando quase 80% de todas as conversas. A escrita domina as tarefas relacionadas ao trabalho, destacando a capacidade única dos chatbots de gerar conteúdos digitais em comparação aos mecanismos de busca tradicionais. Programação e autoexpressão representam parcelas relativamente pequenas do uso. De modo geral, concluímos que o ChatGPT gera valor econômico por meio do suporte à tomada de decisões, especialmente em atividades intensivas em conhecimento.

A extração do texto a partir da imagem acima e sua tradução foram feitos com o GPT.  

Observe que o estudo foi publicado em setembro de 2025. Mas as conclusões parecem razoáveis.  

02 abril 2026

Óculos e a cola com IA

Eis alguns trechos 


O mercado de óculos com IA na China está crescendo, impulsionado por subsídios governamentais e por gigantes da tecnologia como Xiaomi e Alibaba, que estão integrando modelos de linguagem (LLMs) em óculos do dia a dia. (...)
  

Os óculos escaneiam as questões e exibem as respostas nas lentes. “Em qualquer matéria em que eu possa ir mal”, disse ela, pedindo para usar um pseudônimo para falar livremente. Alguns colegas já alugaram seus óculos para usar em exames.

Óculos inteligentes com IA se tornaram uma indústria multibilionária. Os dispositivos, com preços que variam de US$270 a mais de US$1.000, geralmente vêm equipados com câmeras e recursos de áudio, alimentados por grandes modelos de linguagem. Aqueles com telas conseguem exibir textos ou imagens com efeitos de realidade aumentada. (...)

Grandes exames na China, como o vestibular nacional e concursos públicos, já proibiram explicitamente o uso de óculos inteligentes. Ainda assim, estudantes afirmam que muitos professores não conseguem identificar esses dispositivos durante provas escolares regulares.

BRB adia publicação


Já vimos um roteiro parecido antes. O Banco BRB, controlado pelo governo do Distrito Federal, irá postergar a publicação das demonstrações financeiras do terceiro e do quarto trimestres de 2025. Partindo de um banco estatal, é um fato importante que deixa muito claro o momento difícil.

Segundo o comunicado, é necessária a conclusão dos trabalhos da auditoria forense e a avaliação, pela administração e pelo auditor, dos impactos. Durante anos, a instituição tomou decisões inadequadas e arriscadas, sem que fosse possível notar a existência de uma governança corporativa mínima. A instituição financeira começou a abrir agências fora do Distrito Federal, muitas delas, “coincidentemente”, no estado de origem do ex-governador. Passou também a investir muito dinheiro em um clube de futebol, onde teve prejuízos elevados em razão de valores incobráveis.

E, mais recentemente, fez transações nebulosas com o Master, uma instituição de elevado risco no mercado financeiro. Dois futuros esperam o BRB: ser absorvido por uma instituição federal ou receber aporte do governo do Distrito Federal. Obviamente, os políticos que comandam e comandaram a política local desejam o segundo, mas está difícil encontrar os recursos.

Redes sociais x Chatbots e posição política


As redes sociais recompensam a indignação porque a indignação gera engajamento. Essa tem sido a lógica dos últimos quinze anos, e produziu resultados previsíveis: mais extremismo, mais crença em teorias da conspiração, mais polarização. Isso deu origem, como argumento, a empreendedores da raiva. 

A nova análise de John Burn-Murdoch, do FT, sugere que chatbots de IA fazem o oposto. Ele testou os quatro principais LLMs com base em 61 questões sobre políticas e valores, utilizando usuários simulados ao longo de todo o espectro ideológico. Todos os modelos tenderam a deslocar as respostas em direção ao centro. 

O Grok puxou para o centro-direita; GPT, Gemini e DeepSeek puxaram para o centro-esquerda. Os quatro afastaram as respostas de posições extremas, independentemente do ponto de partida dos usuários. Crenças conspiratórias, que são super-representadas entre usuários de redes sociais, estão praticamente ausentes nas respostas de IA. A razão é estrutural. As empresas de redes sociais lucram com engajamento, atenção e cliques, de modo que conteúdos inflamatórios são amplificados. Já os modelos de IA são treinados com grandes volumes de dados que tendem a privilegiar textos publicados, editados e inteligíveis para especialistas — o que os leva, inevitavelmente, a se aproximarem do consenso dominante, independentemente da intenção de qualquer empresa. 

Há ressalvas. Trata-se de apenas um estudo, os modelos vão mudar, e direcionar as pessoas ao consenso especializado só é claramente positivo quando esse consenso realmente vale a pena. Além disso, nada impede que modelos sejam treinados com conteúdos absurdos e inflamatórios, passando, assim, a produzir mais do mesmo.

Fonte: aqui 

Provisão da EY no Reino Unido sinaliza


Quando uma empresa aumenta os valores provisionados para processos judiciais, está informando ao usuário que espera mais ações judiciais e mais derrotas nesses processos.

Isso aconteceu agora com a EY do Reino Unido. Essa grande empresa de auditoria reservou 188 milhões de libras esterlinas para disputas legais, bem acima dos 44 milhões do ano anterior.

Sua rival KPMG chegou a destinar 179 milhões em 2022, quando foi questionada sobre seu trabalho na empresa Carillion, um grande escândalo contábil na terra do Rei Carlos III.

No caso da EY, o aumento decorre de problemas com a empresa de saúde NMC Health. Não foi feita uma ligação direta entre o caso da NMC e o aumento para 188 milhões, mas tudo leva a crer que exista uma relação. Outro fator é o aumento do risco jurídico das empresas de auditoria. Antigamente, a alegação — hoje considerada absurda — de que uma auditoria não investigava a existência de fraude era aceita, algo que se torna cada vez mais difícil de imaginar nos dias atuais.

Wikipedia somente por humanos


A Wikipedia proibiu o uso de modelos de linguagem LLM para produzir conteúdo para a enciclopedia, mas irá permitir que a IA possa ser usada para a tradução de um artigo completo, mas existindo supervisão humana. 

A medida decorre da confiabilidade das informações, já que as ferramentas de IA podem alucinar ou alterar o conteúdo ou cometer outros erros. E a quantidade de lixo gerado por IA estaria sobrecarregando os editores. 

De certa forma, os gestores da Wikipedia atenderam os editores, que reclamaram quando a organização sinalizou um possível uso de IA.  

01 abril 2026

Clonagem e a necessidade de correção

Eis a notícia


Em 2005, uma dupla de marido e mulher do instituto japonês RIKEN realizou um experimento com um camundongo: cloná-lo, depois clonar o clone, depois clonar esse novo clone — e assim sucessivamente. Teruhiko Wakayama e Sayaka Wakayama mantiveram o experimento por 20 anos — atravessando mudanças de laboratório, o terremoto de 2011 e a pandemia — exigindo 30.947 tentativas de clonagem para produzir 58 gerações sucessivas, conforme resumido pela Metacelsus.

Por um tempo, tudo correu bem. Um relatório intermediário de 2013 mostrou 25 gerações saudáveis, sem queda na eficiência da clonagem ou na saúde dos animais. No entanto, mutações estavam se acumulando silenciosamente. Na geração 57, os camundongos apresentavam mais de 3.400 alterações pontuais no DNA em comparação com o original — uma taxa de mutação 3,1 vezes maior do que na reprodução natural da mesma linhagem. Animais que se reproduzem sexualmente conseguem eliminar mutações prejudiciais por meio da recombinação, quando os cromossomos se reorganizam e cópias defeituosas são descartadas. Clones não possuem esse mecanismo, então cada erro permanece.

Os problemas mais graves foram estruturais. Entre as gerações 25 e 45, um cromossomo X inteiro desapareceu e nunca foi recuperado. Deleções, inversões e translocações cromossômicas se acumularam junto às mutações pontuais. Na geração 58, as células já não conseguiam produzir clones viáveis, e o projeto foi encerrado. Os camundongos nascidos em cada etapa tiveram vidas normais — o processo não gerou animais doentes, mas sim um DNA progressivamente mais frágil, que acabou incapaz de suportar o próprio processo de clonagem. 

Que diabos isso tem relação com a contabilidade? Veja, a natureza é sábia e criou um mecanismo que ajusta as mutações, o que não temos na clonagem. A nossa sobrevivência depende do mecanismo de correção, como governança corporativa, alterações nos sistemas contábeis, entre outras coisas. 

Sistemas que apenas replicam o passado, sem mecanismos de correção e confronto externo, inevitavelmente acumulam distorções até colapsarem.