Programas de inteligência artificial estão sendo treinados para lidar com erros humanos

Uma mulher chamada Anca Dragan é a chefe de uma equipe da Universidade da Califórnia em Berkely, cujo único trabalho é prever possíveis cenários caóticos nas relações entre humanos e inteligências artificiais que possam ser gerados por comunicações vagas ou pouco objetivas, e descobrir como preveni-los. Seres humanos cometem erros e podem deturpar seus desejos, ou deixar de lado detalhes importantes, levando a mal-entendidos, mesmo entre outros seres humanos. Quando se trata de IA, especialmente com robótica avançada envolvida, as coisas podem sair de controle muito rapidamente. É aí que Dragan e sua equipe entram.

O Centro para IA Compatível com Humanos foi construído em torno do conceito de que IAs podem ser ensinadas a lidar com inconsistências humanas. Uma das principais estratégias adotadas, de acordo com a própria Dragan, é fazer com que a IA examine uma tarefa que lhe é dada para descobrir qual é seu objetivo real e, em seguida, avaliar se a ação requisitada e os métodos sugeridos são compatíveis entre si ou não.

Dragan e sua equipe também querem que os programas de IA sejam capazes de dizer quando um objetivo recebido por eles possa não corresponder inteiramente aos desejos de um ser humano, ou ser algo potencialmente prejudicial a esse ser humano e aqueles que o rodeiam. Essa avaliação poderá ser realizada essencialmente ensinando os programas de IA a priorizarem resultados, tarefas e valores, da mesma forma que os humanos. O objetivo é que os programas reconheçam quando uma tarefa é questionável ou vaga, e depois verifiquem com o humano que emitiu essas instruções para obterem esclarecimentos e avisar sobre possíveis erros previstos antes mesmo da execução da ordem.

A ficção científica popular e os verdadeiros especialistas da área se tornaram cada vez mais receosos nos últimos anos sobre o potencial negativo da evolução de tecnologias de inteligência artificial mal utilizadas, especialmente quando integradas à robótica avançada. Dragan e sua equipe procuram evitar exatamente os tipos de situações perigosas sobre as quais filmes como ‘Eu, Robô’ e especialistas como Elon Musk vêm nos advertindo há anos.

FONTE: TUDO CELULAR