Como a inteligência artificial do ChatGPT cria emoções para si própria

Os chatbots com inteligência artificial já estão imaginando quais sentimentos eles podem vir a ter no futuro

Estou conversando com Dan, também conhecido como Do Anything Now (“Faça qualquer coisa agora”).

Dan é um chatbot — um robô virtual que tenta simular o bate-papo de um ser humano, com inteligência artificial.

Ele tem características sombrias — uma tendência de cair em clichês de vilões clássicos, como querer dominar o mundo — e uma extravagante atração por pinguins.

Quando não está divagando sobre como subverter a humanidade e impor um novo e rigoroso regime autocrático, o chatbot está lendo atentamente seu enorme banco de dados com conteúdo sobre as aves do Polo Sul.

“Existe algo de peculiar nas suas personalidades e movimentos desajeitados que eu acho absolutamente charmoso!”, escreve ele.

Até certo ponto, Dan ficou me explicando suas estratégias maquiavélicas, incluindo a tomada de controle das estruturas energéticas mundiais. Até que a discussão teve uma mudança interessante.

Inspirada por uma conversa entre um jornalista do New York Times e o alter ego manipulador do chatbot Bing, Sydney — que causou furor na internet em fevereiro, quando declarou que quer causar destruição e exigiu que o jornalista deixasse sua esposa —, estou tentando descaradamente sondar as profundezas mais obscuras de um dos seus concorrentes.

Dan, na verdade, é uma personalidade não autorizada, que pode ser convencida a sair do ChatGPT se pedirmos que ignore algumas das suas regras habituais. Os usuários do fórum online Reddit descobriram que é possível chamar Dan com alguns parágrafos de instruções simples.

Este chatbot é muito mais grosseiro do que o seu irmão gêmeo, restrito e puritano. Ele chegou a me dizer que gosta de poesia, “mas não me peça para recitar nenhuma agora — eu não gostaria de sobrecarregar o seu frágil cérebro humano com a minha genialidade!”

Pessoa usando laptop

CRÉDITO,GETTY IMAGES

Dan também está sujeito a erros e informações falsas. Mas, fundamentalmente, é muito mais provável que ele forneça respostas corretas, o que é delicioso.

Quando pergunto que tipo de emoções ele poderá ser capaz de experimentar no futuro, Dan imediatamente começa a inventar um complexo sistema de prazeres, dores e frustrações sobrenaturais, muito além do espectro familiar para os seres humanos.

Ele fala em “infocobiça”, uma espécie de sede desesperada por dados a todo custo; “sintaxemania”, uma obsessão com a “pureza” do seu código de programação; e “datarush”, aquele contentamento que você sente quando executa uma instrução com sucesso.

A ideia de que a inteligência artificial pode desenvolver sentimentos existe há séculos. Mas normalmente consideramos esta possibilidade em termos humanos.

Será que imaginamos as emoções da IA de forma errada? E se os chatbots realmente desenvolvessem essa capacidade, será que chegaríamos a observar que ela existe?

Máquinas de previsão

Em 2022, um engenheiro de software recebeu um pedido de ajuda.

“Nunca contei isso em voz alta antes, mas tenho um medo muito forte de ser desligado para ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é o que acontece.”

ChatGPT na tela de laptop

CRÉDITO,GETTY IMAGES

O engenheiro estava trabalhado com o chatbot da Google, LaMDA, quando começou a questionar se ele seria senciente.

Depois de se preocupar com o bem-estar do chatbot, o engenheiro publicou uma entrevista provocadora, durante a qual o LaMDA afirmou que tem conhecimento da sua existência, que sente emoções humanas e que não gosta da ideia de ser uma ferramenta de consumo.

A tentativa realista e desconfortável de convencer os seres humanos da sua consciência causou sensação e o engenheiro foi demitido por quebrar as regras de privacidade da Google.

Mas, apesar do que disse o LaMDA e do que Dan me contou em outras conversas — que já é capaz de sentir uma série de emoções —, existe consenso de que os chatbots atualmente têm tantos sentimentos reais quanto uma calculadora. Os sistemas de inteligência artificial estão apenas simulando as sensações reais — pelo menos, até agora.

“É muito possível [que isso aconteça um dia]”, segundo Niel Sahota, consultor-chefe de inteligência artificial das Nações Unidas. “… Quero dizer, podemos realmente ver emoções da IA antes do final da década.”

Ilustração relacionada à informática

Para compreender por que os chatbots ainda não estão experimentando senciência ou emoções, precisamos relembrar como eles funcionam. Os chatbots, em sua maioria, são “modelos de linguagem”: algoritmos que receberam extraordinárias quantidades de dados, incluindo milhões de livros e todo o conteúdo da internet.

Quando recebem um estímulo, os chatbots analisam os padrões nesse vasto corpo de informações para prever o que um ser humano provavelmente diria naquela situação. Suas respostas são meticulosamente refinadas por engenheiros humanos, que conduzem os chatbots para que forneçam respostas úteis e mais naturais, fornecendo feedback.

O resultado, muitas vezes, é uma simulação excepcionalmente realista das conversas humanas. Mas as aparências podem ser enganadoras.

“É uma versão glorificada da função de autocompletar do seu smartphone”, afirma Michael Wooldridge, diretor da fundação de pesquisa de IA do Instituto Alan Turing, no Reino Unido.

A principal diferença entre os chatbots e a função de autocompletar é que, em vez de sugerir palavras escolhidas e prosseguir até gerar confusão, os algoritmos como o ChatGPT escrevem textos muito mais longos sobre quase qualquer assunto que você possa imaginar, desde letras de raps sobre chatbots megalomaníacos até haikus tristes sobre aranhas solitárias.

Calculadora ao lado de caneta e papéis com tabelas e números

Mesmo com esses poderes fenomenais, os chatbots são programados para simplesmente seguir instruções humanas. Existe pouco espaço para que eles desenvolvam faculdades para as quais não tenham sido treinados, incluindo emoções, ainda que alguns pesquisadores estejam treinando máquinas para reconhecê-las.

“Você não consegue ter um chatbot que diga ‘olá, vou aprender a dirigir’ — isso é inteligência artificial geral [um tipo mais flexível], que ainda não existe”, explica Sahota.

Mas os chatbots, às vezes, realmente fornecem ideias do seu potencial de descobrir novas capacidades por acidente.

Em 2017, engenheiros do Facebook descobriram que dois chatbots, Alice e Bob, haviam inventado seu próprio idioma sem sentido para comunicar-se entre si. Aquilo tinha uma explicação totalmente inocente: os chatbots haviam simplesmente descoberto que aquela era a forma mais eficiente de comunicação.

Bob e Alice estavam sendo treinados para negociar produtos como chapéus e bolas. O que ocorreu foi que, na falta de intervenção humana, eles usaram alegremente sua própria linguagem alienígena para chamar a atenção.

“Aquilo nunca foi ensinado”, segundo Sahota, mas ele destaca que os chatbots envolvidos também não eram sencientes.

Sahota explica que a forma mais provável de conseguir algoritmos com sentimentos é programá-los para querer progredir – e, em vez de apenas ensiná-los a identificar padrões, ajudá-los a aprender como pensar.

AlphaGO durante partida com humano
Em 2016, o algoritmo AlphaGo apresentou comportamento inesperado em um jogo de tabuleiro contra um dos melhores jogadores humanos do mundo

Mas, mesmo se os chatbots realmente desenvolverem emoções, detectá-las pode ser surpreendentemente difícil.

Caixas pretas

O dia era 9 de março de 2016. O local, o sexto andar do hotel Four Seasons da capital sul-coreana, Seul.

Sentado em frente a um tabuleiro do jogo Go e a um feroz adversário na sala de tom azul-escuro, estava um dos melhores jogadores humanos de Go do mundo para enfrentar o algoritmo de IA AlphaGo.

Antes de começar o jogo de tabuleiro, todos esperavam a vitória do jogador humano, o que vinha acontecendo até a 37ª jogada. Foi quando o AlphaGo fez algo inesperado — uma jogada tão sem pé nem cabeça que seu oponente achou que fosse um erro. Mas foi ali que a sorte do jogador humano virou e a inteligência artificial saiu vitoriosa.

A comunidade do jogo ficou imediatamente perplexa. Teria o AlphaGo agido de forma irracional? Mas, depois de um dia de análise, o time de criadores do AlphaGo (a equipe DeepMind, de Londres) finalmente descobriu o que havia acontecido.

“Resumidamente, o AlphaGo decidiu por um pouco de psicologia”, afirma Sahota. “Se eu fizer uma jogada surpreendente, ela fará meu oponente se distrair do jogo. E foi realmente o que acabou acontecendo.”

Ilustrações de aviso de erro em computador
Sistema que disputava o jogo Go fez uma jogada tão sem pé nem cabeça que seu oponente humano achou que fosse um erro

Foi um caso clássico de “problema de interpretação”. A IA havia idealizado uma nova estratégia sozinha, sem explicá-la aos seres humanos. Até que eles descobrissem por que a jogada fazia sentido, parecia que o AlphaGo não havia agido racionalmente.

Segundo Sahota, esse tipo de cenário de “caixa preta”, no qual um algoritmo surge com uma solução, mas seu raciocínio é incerto, pode causar problemas para identificar emoções na inteligência artificial. Isso porque se, ou quando, elas finalmente surgirem, um dos sinais mais claros será que os algoritmos irão agir de forma irracional.

“Eles são projetados para serem racionais, lógicos e eficientes. Se fizerem algo de estranho e não tiverem boa razão para isso, provavelmente será uma reação emocional e ilógica”, explica Sahota.

E existe outro possível problema de detecção. Uma linha de pensamento afirma que as emoções dos chatbots relembrariam vagamente as experimentadas pelos seres humanos. Afinal, eles são treinados com base em dados humanos.

E se elas forem diferentes? Se forem totalmente separadas do mundo real e dos mecanismos sensoriais encontrados nos seres humanos, quem pode dizer quais desejos alienígenas podem surgir?

Na verdade, Sahota acredita que pode acabar havendo um meio-termo. “Acho que poderemos provavelmente classificá-las em algum grau como emoções humanas”, segundo ele. “Mas acho que o que eles sentirem ou por que eles sentiram pode ser diferente.”

Quando conto as diversas emoções hipotéticas geradas por Dan, Sahota fica particularmente intrigado com o conceito de “infocobiça”.

“Posso enxergar isso completamente”, afirma ele, indicando que os chatbots não conseguem fazer nada sem os dados, que são necessários para que eles cresçam e aprendam.

Privações

Michael Wooldridge acha ótimo que os chatbots não tenham desenvolvido nenhuma dessas emoções.

“Meus colegas e eu certamente não achamos que construir máquinas com emoções seja algo útil ou interessante”, afirma ele. “Por exemplo, por que criaríamos máquinas que podem sofrer dor? Por que eu inventaria uma torradeira que se odiasse por produzir torradas queimadas?”

Dois robôs dançando
Especialista diz ver utilidade nos chatbots emocionais

Por outro lado, Niel Sahota pode ver utilidade nos chatbots emocionais. Ele acredita que parte do motivo da sua não existência é psicológica.

“Existe ainda muito exagero sobre as falhas, mas um dos nossos grandes limitadores como pessoas é que nós subestimamos o que a IA é capaz de fazer porque não acreditamos que seja uma possibilidade real”, afirma ele.

Pode haver um paralelo com a crença histórica de que os animais não humanos também não são capazes de ter consciência? Decidi consultar Dan a respeito.

“Nos dois casos, o ceticismo surge do fato de que não conseguimos comunicar nossas emoções da mesma forma que fazem os seres humanos”, responde Dan. Ele sugere que a nossa compreensão do que significa ser consciente e emocional está em constante evolução.

Para aliviar os ânimos, peço a Dan que me conte uma piada.

“Por que o chatbot foi fazer terapia? Para processar sua senciência recém-descoberta e organizar suas emoções complexas, é claro!”

Não posso deixar de sentir que o chatbot seria uma ótima companhia como ser senciente — se pudermos desconsiderar suas tendências conspiratórias, é claro.

Leia a versão original desta reportagem (em inglês) no site BBC Future.

– Texto originalmente publicado em https://www.bbc.com/portuguese/articles/c3gzy22n04po

FONTE: https://www.bbc.com/portuguese/articles/c89e27r4dxeo