Direto do MIT, conheça a primeira inteligência artificial psicopata do mundo

Tecnologia do bem ou maquinas assassinas? O instituto de pesquisas do MIT dá combustível a essa discussão ao criar a primeira inteligência artificial psicopata do mundo. Conheçam Norman, o primeiro psicopata artificial.

Sistemas de inteligência artificial já não são exatamente uma novidade atualmente. Seja em nossos carros, smartphones ou até geladeiras, diversos desses sistemas nos ajudam no dia a dia. Entretanto, a tecnologia do bem pode servir também para o mal. Pensando nisso o MIT deu um passo polêmico ao criar a primeira inteligência artificial psicopata.

Batizada de Norman pelos seus criadores, a inteligência artificial foi “educada” através das piores imagens e fóruns encontrados na rede. Com isso, ela passou a responder testes de personalidade com tendências perversas e à psicopatia. A intenção da equipe do MIT com isso é atiçar o debate sobre o perigo das máquinas.

A relação do MIT com o terror

O nome da inteligência artificial é conhecido pela maioria. Ele foi inspirado no personagem Norman Bates, do romance de Robert Bloch, que ficou mundialmente conhecido através do filme Psicose, de Alfred Hitchcock. Nessa história, Norman é um sujeito com problemas mentais que acaba incorporando a personalidade da sua mãe e assassinando pessoas de maneiras inusitadas.

Para desenvolver Norman, o Instituto de Tecnologia de Massachusetts (MIT) iniciou pesquisas há anos cruzando inteligência artificial com diversos elementos de horror. Primeiramente, o MIT criou uma IA em 2016 batizada de Nightmare Machine.

A “Máquina de Pesadelos” consistia em um gerador automatizado de imagens de terror. Construída através de votações feitas com mais de duas milhões de pessoasao redor do mundo. Seu desenvolvimento inicialmente foi para testar se uma máquina poderia, além de detectar, induzir emoções extremas como o medo em pessoas.

A linha cruzada em sequência foi com Shelley, em 2017. A nova inteligência artificial do MIT consistia em um algorítimo que criava histórias de terror em colaboração com pessoas em fóruns na internet. Utilizando fóruns próprios desse tema, como o Nosleep, Shelley criou mais de 200 histórias de terror, presentes num site próprio.

A criação de Norman

Para a criação propriamente de Norman, o MIT ainda trabalhou em outra inteligência artificial ainda em 2017. Essa era a chamada Deep Empathy, que ia na direção oposta em que Norman foi. Aqui os pesquisadores procuraram formas de gerar empatia em uma inteligência artificial através de imagens de desastres.

Combinando todos estes estudos, no início deste mês (abril/2018), o MIT oficializou o lançamento de Norman. Nesse estudo, os pesquisadores perceberam que o algoritmo de aprendizado de uma inteligência artificial pode servir para induzir seu comportamento.

Com isso, Norman passou por exposições prolongadas aos cantos mais “sombrios” do Reddit. Ele foi treinado para executar legendas de imagens, que é basicamente um método de aprendizagem. Ou seja, o método consiste basicamente na inteligência artificial gerar uma descrição textual de uma imagem.

Nessa lógica, o MIT treinou Norman com legendas de imagens de um subredditque é dedicado a observar a realidade perturbadora da morte. Em seguida, as respostas de Norman  foram comparadas com uma rede neural de padrão de imagens baseado em manchas de tinta do famoso Teste de Rorschach.

Norman e o Teste de Rorschach

Teste de Rorschach é um método de avaliação psicológica usado para detectar distúrbios mentais em geral. Desenvolvido inicialmente por Hermann Rorschach em 1921, o teste utiliza imagens borradas para mapear a personalidade do sujeito. Essas imagens, ditas projetivas, são completadas pela interpretação do próprio sujeito.

Algumas dessas imagens foram mostradas para uma inteligência artificial de construçao de legendas padrão. Além disso, foram também mostradas à inteligência psicopata criada pelo MIT para comparação. Foi assim, então, que a estrutura psicopata da nova IA foi descoberta e comprovada.

Os perigos das IA

Já não é de hoje, entretanto, que observamos comportamentos estranhos em sistemas de inteligência artificial. Nesse contexto, temos episódios como o da IA da Microsoft que se tornou racista após acessar a internet. Ainda temos também a IA do Facebook, que precisou ser desligada por criar sua própria linguagem independente.

Para além desses casos, o estudo do MIT é capaz de mostrar como a Inteligência Artificial pode ser perigosa. Isso porque dados tendenciosos podem ser utilizados para modificar o modo de aprendizado da máquina. Nessa lógica, a máquina pode ser facilmente induzida a assumir comportamentos desviantes, por exemplo.

Por fim, Norman não foi criado para nenhum fim que não seja apontar esses problemas das IA. Entretanto, isso abre certo caminho de raciocínio um tanto quanto perigoso. Nessa lógica, se juntarmos essas três histórias em uma (uma máquina psicopata que se torna racista na internet e cria sua própria linguagem), temos um bom motivo para ter medo.

Felizmente, isso ainda é enredo somente de filmes de ficção científica. Assim, vamos torcer para que essas histórias continuem sendo meras ficções. Pois, num contexto conturbado como o nosso, não seria legal máquinas assumindo posturas tão complicadas, não é mesmo?

FONTE: SHOWMETECH