A inteligência artificial (IA) tem revolucionado diversos setores, mas também apresenta desafios significativos. Um deles é o fenômeno conhecido como “alucinações”, termo utilizado pela indústria tecnológica para descrever erros cometidos por sistemas de IA generativa.
Marcelo Tripoli, comentarista de inovação da CNN, explica que, diferentemente de uma busca no Google, as respostas fornecidas pela IA parecem muito assertivas, o que pode levar os usuários a confiar excessivamente nelas. “A alucinação do AI normalmente é bem construída, não é uma frase sem nexo”, afirma Tripoli.
O perigo das respostas aparentemente precisas
O especialista alerta que essa confiança pode induzir a erros significativos e decisões equivocadas. “Ele chuta muito bem. Ele na verdade não sabe, mas ele vai ali com fé na resposta dele”, explica Tripoli, ressaltando que isso pode levar a pessoa a tomar decisões baseadas em informações incorretas.
Um teste realizado com o ChatGPT demonstrou essa problemática. Ao ser questionado sobre o filme “Ainda Estou Aqui” de Walter Salles, o sistema forneceu informações completamente equivocadas em três tentativas diferentes, sem admitir desconhecimento.
Fatores que influenciam as “alucinações”
Tripoli esclarece que as alucinações ocorrem devido a diversos fatores, incluindo a desatualização da base de dados e a análise estatística realizada pela IA. “O que a máquina está fazendo é uma análise probabilística de uso de palavras”, explica.
O comentarista também destaca que o idioma da consulta pode influenciar a precisão das respostas, já que muitos sistemas de IA são desenvolvidos primariamente em inglês e realizam traduções em tempo real para outros idiomas.
Recomendações para uso seguro
Para evitar problemas decorrentes das alucinações da IA, Tripoli recomenda:
- Verificar a informação em mais de uma fonte de IA;
- Não considerar a primeira resposta como definitiva;
- Manter uma postura crítica em relação às informações recebidas;
- Não utilizar a IA como ferramenta definitiva para tomada de decisões importantes sem verificação adicional.
Apesar dos desafios atuais, Tripoli é otimista quanto ao futuro. Ele prevê que o percentual de alucinações tende a diminuir significativamente nos próximos anos, possivelmente chegando a menos de 2% de erro. No entanto, até lá, a vigilância e a verificação humana continuam sendo essenciais no uso de sistemas de IA.
Brasil está entre os países que mais usam inteligência artificial
Este conteúdo foi originalmente publicado em CNN Innovation: o que há por trás dos erros da Inteligência Artificial? no site CNN Brasil.