Especialistas alertam que IA militar pode ser facilmente enganada

Segundo cientistas ouvidos pelo MIT Technology Review, IA é é surpreendentemente fácil de enganar quando se encontra seus pontos fracos

A equipe do laboratório de segurança da gigante chinesa Tencent demonstrou diversas maneiras de enganar os algoritmos de Inteligência Artificial de um carro da Tesla, reporta o MIT Technology Review. Ao alterar os dados fornecidos aos sensores do veículo, os pesquisadores conseguiram enganar o sistema responsável pela condução autônoma.

Segundo os cientistas, a inteligência artificial é surpreendentemente fácil de enganar quando se encontra seus pontos fracos. De fato, manipular um carro da Tesla pode não parecer uma grande ameaça estratégica para os Estados Unidos. Mas e se técnicas semelhantes fossem usadas para confundir drones ou o software que analisa imagens de satélite?

Em todo o mundo, a IA já é vista como a próxima grande vantagem militar. No início deste ano, os EUA anunciaram uma grande estratégia para aproveitar a inteligência artificial em muitas áreas militares, incluindo análises de inteligência, tomada de decisões, autonomia de veículos, logística e armamento. O orçamento proposto pelo Departamento de Defesa de US$ 718 bilhões para 2020 aloca US$ 927 milhões em IA e aprendizado de máquina. O impulsionamento da tecnologia pelas autoridades norte-americanas é parcialmente motivado pelo medo de como os rivais poderão usar a IA. No ano passado, Jim Mattis, então secretário de Defesa, enviou um memorando ao presidente Donald Trump alertando que os EUA já estão ficando para trás no que diz respeito à inteligência artificial – e a sua preocupação é compreensível.

A ambição de construir as armas mais inteligentes e mortais é real, mas, como mostra o hack da Tesla, um inimigo que sabe como funciona um algoritmo de IA pode torná-lo inútil ou até mesmo utilizá-lo contra seus próprios desenvolvedores. Dessa forma, o segredo para vencer as guerras de IA pode não estar na fabricação das armas mais impressionantes, mas no domínio do software.

Para Michael Kanaan, um dos responsáveis pelo uso da inteligência artificial para modernizar as forças armadas dos EUA, é fundamental contar com a ajuda dos melhores pesquisadores de IA do mundo, mas nem todos estão dispostos a contribuir. Diversas gigantes da tecnologia evitam contratos militares e estão se mobilizando para a proibição global do desenvolvimento de armas autônomas.

Apesar das resistências das empresas, Kanaan segue otimista em relação à IA, principalmente pela utilidade da tecnologia para as tropas. Seis anos atrás, como oficial de inteligência da Força Aérea no Afeganistão, ele era responsável por implantar um novo tipo de ferramenta de coleta de informações: um gerador de imagens hiperespectrais. O instrumento pode detectar objetos que normalmente estão escondidos, como tanques camuflados ou emissões de bombas de fábricas improvisadas. Kanaan explica que o sistema ajudou as tropas americanas a remover toneladas de explosivos do campo de batalha. Mesmo assim, muitas vezes era impraticável para os analistas processarem a grande quantidade de dados coletados pelo gerador de imagens. “Passamos muito tempo olhando os dados e pouco tempo tomando decisões”, diz. “Às vezes, demorava tanto que você se perguntava se poderia salvar mais vidas.”

Uma solução para o problema poderia estar em uma inovação na visão computacional de uma equipe liderada por Geoffrey Hinton na Universidade de Toronto. Ele mostrou que um algoritmo inspirado em uma rede neural de várias camadas seria capaz de reconhecer objetos em imagens de maneira sem precedentes ao receber dados suficientes.

Treinar uma rede neural envolve dados. Com o tempo, essas redes de deep learning aprendem a reconhecer os padrões, o que despertou a atenção de Kanaan para as operações militares. Depois de começar a investir na tecnologia, a IA recebeu grande impulso no Pentágono.

O problema é que, logo depois do deep learning entrar em cena, pesquisadores descobriram que as propriedades que tornam a tecnologia tão poderosa também são o seu calcanhar de Aquiles.

Assim como é possível calcular como ajustar uma rede para classificar um objeto corretamente, é possível calcular como alterações mínimas na imagem podem fazer com que a rede a classifique incorretamente. Em tais “exemplos contraditórios”, apenas alguns pixels da imagem são alterados, deixando a mesma aparência para uma pessoa, mas muito diferente para um algoritmo de IA. Assim, as ameaças podem surgir em qualquer aplicação de deep learning, como, por exemplo, na orientação de veículos autônomos, no planejamento de missões ou na detecção de invasões de rede.

As aplicações militares parecem óbvias (e perigosas). Usando camuflagem algorítmica, tanques ou aviões podem se esconder de satélites e drones equipados com inteligência artificial. Os mísseis guiados por IA podem ser cegados por dados alterados e talvez até recuar em direção a alvos aliados. As informações inseridas nos algoritmos de inteligência podem ser manipuladas para disfarçar uma ameaça terrorista ou criar uma armadilha para as tropas.

Mesmo com as ameaças, ainda há pouco preocupação em relação ao assunto. Saindo na frente, em agosto deste ano, a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) anunciou projetos de pesquisa de IA. Entre eles está o GARD, programa focado no aprendizado de máquina adversário. Hava Siegelmann, professora da Universidade de Massachusetts e gerente de programa do GARD, afirma que esses ataques podem ser devastadores em situações militares. “É como se fôssemos cegos. É isso que o torna realmente muito perigoso.”

Os desafios apresentados pelo aprendizado de máquina manipulado também explicam por que o Pentágono está tão interessado em trabalhar com gigantes como Google e Amazon, além de instituições acadêmicas como o MIT. A tecnologia está evoluindo rapidamente, e os últimos avanços estão ocorrendo em laboratórios administrados por empresas do Vale do Silício e pelas principais universidades, e não por empresas de defesa convencionais.

Outro ponto é que essas descobertas também estão acontecendo fora dos EUA, principalmente na China. “Eu acho que um mundo diferente está chegando”, declara Kanaan. “E é um que temos que combater com IA.”

FONTE: CW