Um artigo publicado em abril continha pelo menos 19 referências fabricadas que não existem em bases acadêmicas, de um total de 29, conforme descobriu a pesquisadora independente Erja Moore ao tentar localizar os trabalhos citados. Muitas ligações no Google Scholar retornaram vazias, e algumas supostas obras referenciadas não correspondiam aos títulos ou autores reais. Os autores admitiram ter usado ChatGPT para gerar as referências, embora afirmem que os dados reais da pesquisa sejam legítimos. O caso evidencia um problema mais amplo de “alucinações” em que grandes modelos de linguagem inventam citações falsas, levantando preocupações sobre a integridade da literatura científica.
O fato de ser interessante é o nome do periódico: Journal of Academic Ethics
