Por que esta cientista acha que a inteligência artificial precisa entender emoções humanas

“As pessoas pensam em QI como uma forma de medir a inteligência cognitiva, mas grande parte da inteligência humana é a inteligência emocional”, afirma Rana El Kaliouby, cofundadora da Affectiva

RANA EL KALIOUBY, COFUNDADORA DA AFFECTIVA (FOTO: DIVULGAÇÃO)

Quem já usou um assistente de voz, como Alexa ou Siri, provavelmente já passou por alguma situação irritante em que a tecnologia não conseguia entender o seu pedido. E como o sistema não entende que você está ficando sem paciência ou irritado, continua repetindo a mesma resposta. A cientista da computação, Rana El Kaliouby, está trabalhando para mudar isso. Ela trabalha na criação de uma inteligência artificial capaz de entender a comunicação não verbal dos humanos – segundo ela, as palavras que usamos representam apenas 7% da comunicação. Os outros 93% vêm de sinais como tom de voz, expressões faciais, velocidade da fala e gestos. Nesta semana, Rana participa do HSM Expo, que acontece em São Paulo.

“As pessoas pensam em QI como uma forma de medir a inteligência cognitiva, mas grande parte da inteligência humana é a inteligência emocional”, diz ela. “As pessoas com mais inteligência emocional normalmente são mais bem-sucedidas em suas carreiras e na vida pessoal, são persuasivas, fazem com que outras pessoas gostem dela e são mais felizes em suas vidas.”

A ideia de ensinar a tecnologia a entender emoções humanas surgiu quando Rana fazia seu Phd em Cambridge, no Reino Unido. Assim como muitos estudantes, ela passava horas e horas do seu dia na frente do computador. E começou a pensar que o seu notebook sabia muito sobre ela: sabia quem era ela, sabia sua localização, sua agenda, sabia o que ela estava estudando e até quem eram seus amigos mais próximos. “Isso foi há 20 anos, nem existiam os smartphones, hoje isso é até pior, meu celular é a primeira coisa que vejo quando acordo e a última que vejo antes de dormir”, afirma. Porém, a tecnologia não fazia ideia de como ela estava se sentindo. “Eu poderia estar no meio de um paper e o computador pedia para fazer uma atualização. Ele sabia que eu estava no meio de algo importante, sabia que eu tinha um prazo apertado, e mesmo assim pedia a atualização.”

Atualmente, o convívio dos humanos com a tecnologia é ainda mais próximo – e esse quadro só tende a se agravar. Rana lembra que além dos assistentes por voz, a inteligência artificial tem nos ajudado a contratar colegas de trabalho e até mesmo no cuidado com pacientes na área da saúde. “Esses sistemas estão muito próximos de nós, e precisam nos entender, expressões faciais, tom de voz, gestos.”

Pensando nisso, Rana criou a Affectiva e passou a ensinar a inteligência artificial a entender emoções. “Como usamos machine learning e deep learning, os dados são muito importantes, então temos mais de 4 bilhões expressões faciais coletadas em 87 países em todo o mundo.”

A primeira expressão ensinada foi o sorriso. Para isso, foi necessário alimentar o sistema com centenas de milhares de imagens de pessoas sorrindo ao redor do mundo, de diferentes gêneros, diferentes idades. Depois, a expressão de surpresa e raiva – mas aquela cara de raiva em que as pessoas franzem o cenho e arqueiam as sobrancelhas, quase como um “grrr”, brinca Rana. Hoje, o sistema reconhece 20 expressões faciais diferentes e 7 estados emocionais, como distração, fatiga, tensão.

A aplicação comercial é incipiente, porém promissora, segundo Rana. A área que atualmente mais tem usado a tecnologia é o marketing, que busca a entender as reações dos consumidores a uma embalagem ou a uma propaganda. Mas a cientista cita também o uso em carros, em sistemas que podem reconhecer quando o motorista está sonolento demais para dirigir, por exemplo.

FONTE: ÉPOCA