O fato de alguém utilizar uma IA para elaborar uma pesquisa ou um trabalho não significa que os erros cometidos pelos algoritmos sejam automaticamente desculpados. Afinal, trata-se de falhas da própria pessoa que recorreu à IA sem realizar a necessária análise crítica.
Um exemplo recente demonstra bem isso: a tarefa pode até ser delegada a uma IA, mas a responsabilidade nunca é. Esse é um princípio antigo da administração que não deve ser esquecido. No ano passado, o governo australiano contratou a Deloitte para elaborar um estudo na área do mercado de trabalho. Vale lembrar que, anteriormente, o mesmo governo já havia enfrentado problemas com outra das chamadas big four, contratada para atuar na área tributária e que usava informações obtidas em seus serviços para ajudar clientes a reduzir o pagamento de impostos.
Menos de um ano depois, a Deloitte entregou o relatório, que foi disponibilizado publicamente pelo Department of Employment and Workplace Relations (DEWR). Um mês mais tarde, um pesquisador identificou problemas graves: citações de trabalhos acadêmicos inexistentes, referências falsas e até decisões judiciais que jamais ocorreram.
No início deste mês, uma nova versão do relatório foi publicada. Mas o estrago já estava feito. Afinal, a Deloitte havia recebido cerca de 290 mil dólares pelo serviço. Para conter o impacto em sua reputação, a empresa anunciou que restituiria parte do valor recebido. A Deloitte admitiu ter utilizado um modelo de IA, mas afirmou que as correções não alteram o conteúdo substancial do documento, nem suas conclusões e recomendações.
O episódio ganhou ampla repercussão na imprensa, com destaque para a cobertura do Australian Financial Review (AFR).

Nenhum comentário:
Postar um comentário