O poderoso modelo R1 da DeepSeek passou por revisão por pares — um dos primeiros grandes LLMs a passar por esse processo. Agora temos respostas para várias questões que ficaram em aberto desde que o modelo encantou o mundo da IA em janeiro: ele custou apenas US$ 294.000 para treinar (além do valor de US$ 6 milhões do modelo subjacente) e não aprendeu copiando exemplos de raciocínio gerados por modelos da OpenAI (embora tenha sido treinado na web, o que significa que pode ter absorvido conteúdos já disponíveis online gerados por IA).
A fonte é a Nature . Existia uma desconfiança que o custo da DeepSeek era bem menor que o ChatGPT, mas que parte da redução era decorrente do fato de que o modelo usado a OpenAI. A boa notícia é que o desenvolvimento da IA pode ser bem menor do que acreditava antes.

Nenhum comentário:
Postar um comentário