Robôs estão aprendendo táticas com games e isso está preocupando as autoridades

Em StarCraft, é necessário defender a sua base, sempre angariando recursos para ela, ao mesmo tempo em que é preciso derrotar os inimigos que ameaçam o seu território (Imagem: Blizzard)

Esse método provém de uma pesquisa de inteligência artificial da Google, que usa StarCraft II para treinar programas para pensar por si mesmos. A DeepMind, sediada em Londres, que havia prometido tornar o mundo em um lugar melhor através do uso de IA, se comprometendo a resolver problemas complexos como a mudança climática, por exemplo, também já utilizou jogos de Atari e Go para treinar seus sistemas.

Os pesquisadores da DeepMind também passaram a adotar este método de aprendizado, e alegou que era crucial testar o desenvolvimento de seus seus agentes de inteligência artificial em jogos que não são exatamente voltados para a pesquisa de IA, além de serem um campo onde os humanos geralmente se saem bem (jogando). Em StarCraft, os jogadores precisam construir bases e reunir recursos para fortalecer seus centros de comando ao mesmo tempo em que buscam destruir seus oponentes em um campo.

E colocar robôs para jogar games de estratégia em tempo real não é exatamente uma novidade, uma vez que outras empresas de tecnologia já testaram o método.

Perigo distante, mas a vista

O pesquisador de segurança da informação do University College London, Steven Murdoch, comentou que bots de inteligência artificial com capacidade para realizar ataques cibernéticos sofisticados sozinhos ainda estão longe de existirem. E mesmo os sistemas que conseguem jogar Go (uma espécie de xadrez japonês) ou o game StarCraftcontra humanos não são muito criativos. Para ele, esses softwares confiavam apenas em seguir as regras, e nada além disso.

Em sua entrevista à BBC, o pesquisador disse que o avanço da tecnologia e disponibilização da automação são constantes na evolução, mas em se tratando de ataques e desenvolvimento de softwares maliciosos, existe uma preparação de táticas que exige experiência humana. Isso significa que, embora o MoD alegue em seu artigo que os programas de inteligência artificial possam ser roubados e mal utilizados, ainda assim eles são bastante metódicos, seguindo tarefas específicas, de modo que “são necessárias habilidades e consideráveis conhecimentos para adaptar um sistema para uma nova execução”.

Além disso, o ministério aponta para a liderança do setor privado no setor de pesquisas com inteligência artificial e comenta da relutância desse grupo em se aproximar muito das agências de defesa ou de segurança. Por tabela, isso vai criando um vácuo nas habilidades das forças armadas, o que pode prejudicar as autoridades de proteção do país em seus desafios.

Essas declarações públicas das empresas de tecnologia criam um “contraste com outros estados, que consagraram os direitos de acesso a conhecimentos, tecnologia e dados em sua legislação nacional”. Para resolver essa questão, o artigo do MoD propõe a criação de um registro “de segurança habilitado para cidadãos do Reino Unido com habilidades em inteligência artificial e em robótica”, os quais serão convocados quando houverem tempos de crise.

O artigo completo do Ministério de Defesa pode ser lido no site do Governo do Reino Unido.

Fonte: BBC