Estudo propõe sistema de Inteligência Artificial capaz de reconhecer os estados emocionais do usuário

Campo em rápido e constante desenvolvimento, a tecnologia de reconhecimento de fala e linguagem levou, por exemplo, ao surgimento de dispositivos como as assistentes virtuais Alexa e Siri. Um passo importante na evolução de sistemas de Inteligência Artificial (IA) de diálogo, como esses, é a adição de “inteligência emocional”, ou seja, a capacidade de reconhecer os estados psicológicos de quem os acessa.

Sistemas de Inteligência Artificial (IA) com capacidade para reconhecer estados emocionais dos usuários podem ajudar a detectar doenças e a mudar abordagem de ensino. Imagem: fizkes – Shutterstock

Um sistema com essa característica, além de entender a linguagem, geraria uma resposta mais empática, proporcionando uma experiência mais imersiva para o usuário. Conhecido como “análise de sentimento multimodal”, um grupo de métodos que constituem o padrão-ouro para um sistema de diálogo de IA pode conseguir detectar as emoções.

Esses métodos são capazes de analisar automaticamente o estado psicológico de uma pessoa a partir de sua fala, tom de voz, expressão facial e postura e são cruciais para sistemas de IA centrados no ser humano.

De acordo com o site Techxplore, a técnica poderia potencialmente criar uma IA emocionalmente inteligente com capacidades além do ser humano, que entende o sentimento do usuário e gera uma resposta de acordo.

No entanto, os métodos atuais de estimativa de emoções se concentram apenas em informações observáveis e não explicam as informações presentes em sinais não observáveis, como os fisiológicos. Tais sinais são uma potencial mina de ouro de emoções que poderiam melhorar imensamente o desempenho de estimação de sentimentos.

Pesquisadores japoneses testam sistema de IA capaz de identificar sinais fisiológicos

Em um novo estudo, publicado este mês na revista IEEE Transactions on Affective Computing, sinais fisiológicos foram adicionados à análise de sentimento multimodal pela primeira vez por pesquisadores do Japão. A equipe colaborativa responsável pela nova abordagem é composta por Shogo Okada, professor associado do Instituto Avançado de Ciência e Tecnologia do Japão (JAIST), e Kazunori Komatani, professor do Instituto de Pesquisa Científica e Industrial da Universidade de Osaka.

“Os humanos são muito bons em esconder seus sentimentos. O estado emocional interno de um usuário nem sempre é refletido com precisão pelo conteúdo do diálogo, mas como é difícil para uma pessoa controlar conscientemente seus sinais biológicos, como a frequência cardíaca, pode ser útil usá-los para estimar seu estado emocional. Isso poderia fazer uma IA com capacidades de estimativa de sentimento que estão além do ser humano”, explica Okada.

A equipe analisou 2.468 trocas com uma IA de diálogo obtida de 26 participantes para estimar o nível de prazer experimentado pelo usuário durante a conversa. O usuário foi então solicitado a avaliar o quão agradável ou entediante eles acharam a conversa. A equipe usou o conjunto de dados de diálogo multimodal chamado “Hazumi1911”, que combinou exclusivamente reconhecimento de fala, sensores de tom de voz, expressão facial e detecção de postura com potencial de pele, uma forma de sensoriamento de resposta fisiológica.

“Ao comparar todas as fontes separadas de dados, as informações do sinal biológico mostraram-se mais eficazes do que a expressão de voz e facial”, disse Okada. “Quando combinamos as informações da linguagem com informações de sinais biológicos para estimar o estado interno autoavaliado enquanto conversamos com o sistema, o desempenho da IA tornou-se comparável ao de um humano”.

Essas descobertas sugerem que a detecção de sinais fisiológicos em humanos, que normalmente permanecem escondidos de nossa visão, poderia abrir caminho para sistemas de diálogo altamente sensíveis baseados em IA, tornando mais naturais e satisfatórias interações homem-máquina.

Além disso, sistemas de IA emocionalmente inteligentes poderiam ajudar a identificar e monitorar transtornos mentais, sentindo uma mudança nos estados emocionais diários. Eles também poderiam ser úteis na educação, ao avaliar se o aluno está interessado e animado com um tema de discussão, ou entediado, levando a mudanças na estratégia de ensino e serviços educacionais mais eficientes.

FONTE: https://olhardigital.com.br/2022/03/31/ciencia-e-espaco/estudo-propoe-sistema-de-inteligencia-artificial-capaz-de-reconhecer-os-estados-emocionais-do-usuario/