Translate

08 agosto 2025

OpenAI

Uma semana de grandes notícias para a OpenAI — incluindo nosso furo sobre sua mais recente rodada de captação de recursos e a introdução de seus modelos de inteligência artificial de código aberto — terminou ontem com a revelação do GPT-5, o modelo de IA principal da empresa.

Tudo indica que a OpenAI, que pode em breve se tornar a startup privada mais valiosa do mundo, está alcançando um sucesso extraordinário. Mas até mesmo esses avanços ressaltam os enormes desafios que o gigante da IA enfrenta.

Ponto nº 1: GPT-5. A OpenAI afirma que o software, que dará suporte às versões gratuita e paga do ChatGPT, é melhor que seus antecessores em tarefas complexas, como programação, e transmite uma sensação “mais humana”. Esses avanços provavelmente consolidarão a liderança do ChatGPT entre os consumidores.

Mas a grande questão é se eles ajudarão a OpenAI a conquistar assinaturas corporativas pagas, um setor em que a empresa enfrenta forte concorrência da Anthropic e do Google — e no qual as companhias tendem a utilizar uma combinação de provedores de IA.

Ponto nº 2: novo software de código aberto. No início desta semana, a OpenAI anunciou dois modelos de IA disponíveis gratuitamente para uso público. Eles foram projetados para competir com ofertas de código aberto rivais da Meta e da chinesa DeepSeek.

Os novos modelos da OpenAI não são tão bons quanto o GPT-5. Mas o risco é que sejam bons o suficiente para muitas empresas utilizarem, dispensando assinaturas corporativas caras — mesmo enquanto a OpenAI espera que os usuários de alto desempenho continuem pagando pelo que há de mais avançado.

Ponto nº 3: valorização em disparada da OpenAI. A startup está em negociações com a empresa de capital de risco Thrive Capital e outros investidores para permitir que eles comprem ações de atuais e ex-funcionários da OpenAI, avaliando a empresa em cerca de US$ 500 bilhões, segundo o DealBook. (As negociações foram noticiadas anteriormente pela Bloomberg.)

Um gráfico de linha mostra a valorização em alta da OpenAI desde o início de 2023.


Isso representa um salto significativo em relação à avaliação de US$ 300 bilhões que a OpenAI negociou com a SoftBank e outros investidores no início deste ano. Mas a valorização em constante alta também aumenta a pressão sobre a OpenAI para reformular sua estrutura corporativa e se tornar uma empresa com fins lucrativos — um processo que requer a aprovação da Microsoft, um parceiro tecnológico-chave — já que isso abriria o caminho para, eventualmente, abrir seu capital.

Notícias relacionadas: a SoftBank admitiu que precisará de mais tempo para colocar em operação seu gigantesco projeto de data center Stargate, embora, segundo relatos, esteja comprando uma fábrica de veículos elétricos em Ohio como parte do empreendimento. A Tesla está dissolvendo a equipe do supercomputador Dojo, que vinha trabalhando em seus sistemas de veículos autônomos. E Elon Musk afirmou que o X passará a incluir anúncios nas respostas dadas por seu chatbot Grok.

(Fonte: New York Times, traduzido pelo GPT5) 

 

07 agosto 2025

Rir é o melhor remédio


 Conflito de interesse

GPT 5 chegou


A espera finalmente acabou. Hoje, agora, a OpenAI está lançando seu mais recente e avançado modelo de linguagem, o GPT-5, e tornando-o disponível através da interface do ChatGPT. De acordo com os líderes da OpenAI, o modelo traz poderes de raciocínio sem precedentes, eleva o conceito de "vibe coding" a um novo nível, está melhor do que nunca em tarefas de IA agente e vem com uma série de novos recursos de segurança. "É um passo significativo no caminho para a AGI", disse o CEO da OpenAI, Sam Altman, em uma coletiva de imprensa ontem, referindo-se ao objetivo da empresa de criar inteligência artificial geral.

O texto é daqui . Aqui também uma breve resenha positiva. Imagem aqui

Consumo excedente de IA


Nossa pesquisa, realizada com Felix Eggers, amplia a perspectiva e revela que os americanos já desfrutaram de cerca de 97 bilhões de dólares em "excedente do consumidor" provenientes de ferramentas de IA generativa apenas em 2024. O excedente do consumidor — a diferença entre o valor máximo que um consumidor está disposto a pagar por um bem ou serviço e seu preço real — é uma medida mais direta do bem-estar econômico do que o PIB. O excedente do consumidor de 97 bilhões de dólares da IA generativa supera os cerca de 7 bilhões de dólares em receita nos EUA registrados por OpenAI, Microsoft, Anthropic e Google com suas ofertas de IA generativa no ano passado. Isso não aparece no PIB porque a maior parte do benefício vai para os usuários, e não para as empresas.

(Via aqui) Imagem aqui. Isto faz lembrar o debate sobre o impacto do computador na produtividade, nos anos oitenta.

Informação, segundo Harari


De Pedro Demo:

Harari não consegue arquitetar uma teoria coerente minimamente da informação. Primeiro mistura conceitos (verdade, realidade, informação); segundo, expele a relação de poder para sempre ser surpreendido por ela, precisamente na ideia em si interessante da informação como nexo (é o título do livro – Nexus); terceiro, age como oráculo, típico argumento de autoridade, no contexto positivista rígido, ignorando que a realidade não cabe em nossos esquemas mentais. Toda abordagem é aproximativa, também uma prisão conceitual. Desinformação é forma de informação. Para negar isso, precisa propor que há só uma informação verdadeira, embora reconheça informação errônea honesta! Aquele Harari do Sapiens e Homo deus  parece ter evaporado ou desaprendido.  

Imagem aqui 

Modelos de IA e decisões morais

Eis o resumo


A medida que os modelos de linguagem grandes (LLMs) se tornam mais amplamente utilizados, as pessoas passaram a depender cada vez mais deles para tomar decisões morais ou aconselhar sobre elas. Alguns pesquisadores até propõem usar os LLMs como participantes em experimentos de psicologia. Portanto, é importante entender como os LLMs tomam decisões morais e como elas se comparam às humanas. Investigamos essas questões pedindo a uma variedade de LLMs para emular ou aconselhar sobre decisões de pessoas em dilemas morais realistas. No Estudo 1, comparamos as respostas dos LLMs às de uma amostra representativa dos EUA (N = 285) para 22 dilemas, incluindo tanto problemas de ação coletiva que colocavam o interesse próprio contra o bem maior quanto dilemas morais que confrontavam o raciocínio utilitário de custo-benefício com regras deontológicas. Em problemas de ação coletiva, os LLMs foram mais altruístas que os participantes. Em dilemas morais, os LLMs exibiram um viés de omissão mais forte que os participantes: normalmente endossaram a inação em vez da ação. No Estudo 2 (N = 474, pré-registrado), replicamos esse viés de omissão e documentamos um viés adicional: ao contrário dos humanos, a maioria dos LLMs tendia a responder "não" em dilemas morais, invertendo sua decisão/aconselhamento dependendo de como a pergunta era formulada. No Estudo 3 (N = 491, pré-registrado), replicamos esses vieses nos LLMs usando dilemas morais cotidianos adaptados de postagens em fóruns no Reddit. No Estudo 4, investigamos as fontes desses vieses comparando modelos com e sem ajuste fino, mostrando que eles provavelmente surgem do ajuste fino dos modelos para aplicativos de chatbot. Nossos resultados sugerem que a dependência irrestrita nas decisões morais e conselhos dos LLMs pode amplificar os vieses humanos e introduzir vieses potencialmente problemáticos.

Imagem aqui 

Rir é o melhor remédio

Godzilla. Muito adaptado daqui