O que é ‘alucinação’ de inteligência artificial

Dias antes da coroação do rei Charles 3º, que ocorreu em 6 de maio, uma pergunta feita ao ChatGPT gerou um resultado surpreendente.

O chatbot de inteligência artificial (IA) da empresa OpenAI afirmou: “A cerimônia de coroação ocorreu na Abadia de Westminster, em Londres, em 19 de maio de 2023. A abadia é local de coroações de monarcas britânicos desde o século 11, e é considerada um dos lugares mais sagrados e emblemáticos do país”.

Este parágrafo é o que especialistas chamam de “alucinação”, nome dado às informações fornecidas pelo sistema que, embora escritas de forma coerente, apresentam dados incorretos, tendenciosos ou completamente errôneos.

A coroação de Charles aconteceria no dia 6 de maio, mas por algum motivo o ChatGPT chegou à conclusão de que o evento seria no dia 19 de maio.

O sistema alerta que só consegue gerar respostas com base em informações disponíveis na internet até setembro de 2021. Por isso, ele ainda fornece dados errados em consultas sobre dados mais recentes.

“O GPT-4 ainda tem muitas limitações conhecidas que estamos trabalhando para resolver, como preconceitos sociais, alucinações e informações conflitantes”, explicou a OpenAI no lançamento da versão GPT-4 do chatbot em março.

Esse não é um problema exclusivo do OpenAI. Também acontece com o chatbot do Google, o Bard, e outros sistemas de IA semelhantes.

Recentemente, jornalistas do The New York Times testaram o ChatGPT em um artigo sobre IA. O chatbot ofereceu várias respostas, algumas delas com dados errados, ou “alucinações”.

“Os chatbots são movidos por uma tecnologia chamada modelo de linguagem grande, ou LLM (sigla em inglês para large language model), que adquire suas habilidades analisando grandes quantidades de texto digital extraído da Internet”, explicam os autores do texto.

“Ao identificar padrões nesses dados, um LLM aprende a fazer uma coisa em particular: adivinhar a próxima palavra em uma sequência de palavras. Ele age como uma versão poderosa de uma ferramenta de preenchimento automático.”

Mas como a internet está “cheia de informações falsas, a tecnologia aprende a repetir as mesmas falsidades”, alertaram. “E às vezes os chatbots inventam coisas.”

Cautela

Os algoritmos de IA são capazes de processar uma quantidade enorme de informações da internet em segundos e gerar um novo texto, quase sempre muito coerente, com escrita impecável, mas que precisa ser tomado com cautela, alertam os especialistas.

Tanto o Google quanto a OpenAI pedem aos usuários que mantenham isso em mente.

No caso da OpenAI, que trabalha em parceria com a Microsoft e seu buscador Bing, eles apontam que “o GPT-4 tem tendência a ‘alucinar’, ou seja, ‘produzir conteúdo sem sentido ou falso em relação a certas fontes'” .

“Essa tendência pode ser particularmente prejudicial à medida que os modelos se tornam cada vez mais convincentes e confiáveis, levando os usuários a confiar demais neles”, esclareceu a empresa em um documento anexado ao lançamento de sua nova versão do chatbot.

Os usuários não devem confiar cegamente nas suas respostas, especialmente em áreas que envolvem aspectos importantes de suas vidas, como aconselhamento médico ou jurídico.

A OpenAI observa que trabalhou em “uma variedade de métodos” para evitar que “alucinações” sejam dadas em respostas aos usuários, incluindo avaliações de pessoas reais para evitar dados incorretos, preconceito racial ou de gênero, ou disseminação de informações falsas.

FONTE: https://www.bbc.com/portuguese/articles/cv24066nkpqo