Humanidade em perigo? Militares dos EUA estão criando drones capazes de decidir quem matar

As forças armadas dos EUA anunciou que está desenvolvendo os primeiros drones capazes de identificar e atingir veículos e pessoas através da inteligência artificial. Em outras palavras, a nova tecnologia decidirá quem matar quase sem nenhum envolvimento humano.

Essa notícia veio um pouco antes da decisão do Google em colaborar com as forças militares norte-americanas desenvolvendo inteligência artificial para drones.

Quando estiverem prontos, esses drones devem levantar intensos debates sobre a legalidade e a ética dessa tecnologia, já que as máquinas serão capazes de combater e exterminar sem a participação humana no campo. Ao mesmo tempo, a indústria da guerra chegaria até empresas mais tecnológicas, engenheiros e cientistas capazes de desenvolver tais ferramentas.

Atualmente, existem drones que ainda necessitam da operação de humanos, que por sua vez têm responsabilidade ética, legal e operacional sobre as decisões de disparar ou não em um alvo. Porém, máquinas que tomam essa decisão por si mesmas mudariam completamente o debate. Quem poderia ser responsabilizado por exterminar civis inocentes em um “erro operacional”?

Também entra em debate as emoções humanas relacionadas aos julgamentos e ética. Os traumas mentais e transtornos de estresse pós-traumático (TEPT) entre operadores de drones revela o impacto psicológico do abate remoto. Ronald Arkin argumenta que com máquinas capazes de disparar sozinhas, esse risco poderia ser eliminado.

Mas a que custo? Mesmo profissionais responsáveis por analisar imagens gráficas de ataques com drones podem sofrer danos psicológicos por se exporem a esse tipo de violência, de acordo com pesquisa publicada no JRSM.

Outro custo é, obviamente, a guerra desumanizada. Colocar máquinas sem operadores humanos para exterminar alvos pode, inclusive, alterar radicalmente os complexos processos de decisões para se disparar contra um alvo. Em última instância, a responsabilidade legal, moral e ética pode acabar recaindo sobre os pesquisadores e cientistas que desenvolvem essas inteligências artificiais.

MQ-9 Reaper, da Força Aérea norte-americana.

Os problemas não param por aí. Algoritmos de autoaprendizagem que essa tecnologia usa se tornam melhores com o tempo, em qualquer tarefa que lhes seja dada. No caso de drones letais, alguém precisará decidir qual será o estágio aceitável de desenvolvimento, ou seja, o quanto ele ainda precisará aprender, o qual serão os limites. Políticos, militares e líderes do setor terão que especificar quantas mortes de civis serão consideradas aceitáveis, conforme a tecnologia for aperfeiçoada.

Já faz algum tempo que alguns dos grandes nomes da tecnologia nos alertam sobre os perigos da inteligência artificial aplicadas em armas militares. Elon Musk, por exemplo, já afirmou que AIs são uma ameaça maior do que a Coreia do Norte:

A 3º Guerra Mundial pode ser iniciada não pelos líderes dos países, mas por uma IA que decida que um ataque preventivo seja o caminho mais provável para a vitória em caso de conflito.

A não ser que a gente aprenda como se preparar para, e evitar, os riscos em potencial, a IA pode ser o pior evento da história da nossa civilização. Ela traz perigos, como poderosas armas autônomas ou novas maneiras de poucos oprimirem muitos. Ela pode trazer uma grande ruptura para nossa economia.

Funcionários do Google já se manifestaram contra a participação da companhia em projetos militares, mas parece que isso não adiantou muito, já que a empresa ainda se esforça em conseguir o contrato com o exército norte-americano.

E você, acha que essa tecnologia trará todos esses problemas para a humanidade?

FONTE:  TECH TUDO