Translate

29 abril 2025

Pesquisadores encontraram uma falha de segurança grave nas ferramentas de IA

Os investigadores da empresa IA HiddenLayer descobriram que existe uma maneira de fazer com que os modelos de IA, como Gemini, Claude e OpenAI, possam ser induzidos a gerar resultados prejudiciais ao ser humano. A estrategia combina técnicas que termina por induzir a ferramenta a gerar conteúdo perigoso. 

Em um dos prompts, as ferramentas de inteligência artificial geraram um roteiro para House, uma série de TV, onde existiam instruções sobre como enriquecer urânio ou cultivar amostras de neurotoxina. Obviamente os riscos são grandes aqui.

Fonte: aqui

Nenhum comentário:

Postar um comentário