Pesquisadores descobriram que robôs como o Chat GPT podem dar respostas falsas a partir de informações verdadeiras, fenômeno descrito como uma alucinação. Na Inteligência Artificial (IA), uma alucinação ou alucinação artificial é uma resposta confiante por parte da IA que não parece ser justificada pelos dados de treinamento.
Uma matéria do The New York Times, de maio de 2023 investigou o fenômeno. Os autores questionaram o ChatGPT (chatbot online desenvolvido pela OpenAI) sobre a primeira vez que o jornal estadunidense mencionou o termo “inteligência artificial”. Segundo o ChatGPT, foi em 10 de julho de 1956, em um artigo intitulado “Máquinas Serão Capazes de Aprender, Resolver Problemas, Cientistas Preveem”, sobre uma conferência seminal no Dartmouth College – universidade de Hanover, no estado de New Hampshire. No entanto, o Times esclareceu que a conferência de 1956 é real, mas o artigo em questão não existe. O ChatGPT simplesmente inventou a resposta.
A boa notícia é que as empresas que desenvolvem essas tecnologias estão trabalhando para reduzir o fenômeno. No entanto, as organizações que utilizam IA não devem depender apenas dessas iniciativas e devem avaliar rigorosamente os resultados gerados pela tecnologia em suas aplicações de negócio. A mitigação desse risco envolve a aplicação de técnicas como o uso de dados diversos e de alta qualidade, a adoção de modelos interpretáveis e a integração da supervisão humana.
Fontes: https://exame.com/lideres-extraordinarios/tecnologia-lideres-extraordinarios/ferramentas-de-inteligencia-artificial-podem-alucinar-e-criar-fatos/; https://pt.wikipedia.org/wiki/Alucina%C3%A7%C3%A3o_(intelig%C3%AAncia_artificial); https://www.bbc.com/portuguese/articles/cv24066nkpqo.