Em estudo, inteligência artificial dá feedback aleatório sobre personalidade; entenda

A equipe de pesquisa ficou surpresa porque nenhum participante questionou as escolhas da máquina.

Pesquisadores ficaram surpresos porque quando os participantes receberam os feedbacks falsos, a maioria concordou com eles
Foto: Seleções

Quando se trata de saber com qual personagem do seu filme preferido você se parece ou que tipo de livro de determinado autor você escolheria, os testes de personalidade disponíveis na internet, como os do Buzzfeed, baseados em escolhas pessoais como cor, comida e lugares, são sempre bem-vindos.

O problema é que nem sempre esses testes, que usam inteligência artificial (AI), podem aprender seus gostos. Às vezes eles só escolhem o que você gosta ou pensa de forma aleatória. Isso foi o que descobriu um estudo publicado na revista Consciousness and Cognition.

Para testar a eficácia com que esses programas poderiam induzir os indivíduos a se identificarem com determinada personalidade, uma equipe internacional de pesquisadores canadenses e suecos, do Conselho de Ética em Pesquisa da Universidade McGill, usou uma mídia social para recrutar 62 participantes.

A inteligência artificial interfere nas escolhas

Os voluntários acharam que estariam testando um novo tipo de neurotecnologia que, segundo o estudo, “poderia ler com precisão seus pensamentos e atitudes”.

O simulação incluía um falso scanner de ressonância magnética e um sistema de Eletroencefalografia (EEG), que supostamente usava decodificação neural impulsionada por inteligência artificial. O sistema falso era relativamente elaborado, com o procedimento apresentando três fases principais: leitura cerebral básica, detecção de erro humano e feedback de atitude.

Durante cada “fase”, os voluntários precisavam avaliar o quanto concordavam com comandos relacionados à personalidade e à opinião no teste, e o falso sistema estaria “descobrindo” a partir da atividade neural, o que os participantes tinham no “inconsciente”.

Em outras palavras, os participantes foram levados a acreditar que, usando a neurociência avançada, a máquina poderia dizer o que eles pensavam, e não apenas como pensavam.

Os resultados mostraram que os participantes aceitaram o feedback, convencidos de que a máquina os conhecia melhor do que eles próprios.

Alerta

Segundo os cientistas, o fato de ninguém ter expressado qualquer suspeita sobre a eficácia da máquina – isto é, como ela funcionava, ou se era realmente capaz de ler mentes – é o que de fato assustou os cientistas.

“Em suma, acreditamos que nosso sistema reconhecidamente incomum e elaborado pode ajudar a produzir reações realistas a futuras neurotecnologias”, disseram.

Eles também alertaram para possíveis implicações do que tal máquina pode ser capaz no futuro, sugerindo que ela oferece promessas de emular essas neurotecnologias para entendê-las melhor e se preparar para suas eventuais consequências.

FONTE: https://www.terra.com.br/byte/em-estudo-inteligencia-artificial-da-feedback-aleatorio-sobre-personalidade-entenda,7593673c193a41d52588f6a875432f4e4zc077kt.html