Google desiste de painel de ética de inteligência artificial uma semana depois de ser criado

A escolha dos membros não correu bem ao Google. Milhares de empregados da empresa assinaram uma petição a queixarem-se da nomeação de Kay Coles James, conhecida por ter políticas anti-imigração e anti-LGBTQ.

O grupo de reflexão acabou por ser desmantelado uma semana após a criação REUTERS/HANNIBAL HANSCHKE

O recém-formado Conselho de Ética para inteligência artificial do Google foi dissolvido depois da escolha de alguns membros ter dado azo a fortes críticas, tanto dentro como fora da empresa. O grupo – criado com a missão de juntar pontos de vista distintos – durou pouco mais de uma semana.

O painel foi apresentado a 26 de Março: o objectivo era guiar o desenvolvimento responsável da inteligência artificial na empresa, com oito membros que se iriam reunir quatro vezes por ano para avaliar os projectos do Google naquela área.

Na altura, o vice-presidente de assuntos globais da empresa, Kent Walker, tinha explicado que o grupo deveria reflectir sobre desafios complexos, como o reconhecimento facial e a justiça em decisões feitas por máquinas. É uma área com que a empresa se debate há anos.

A inclusão de James pretendia garantir um ponto de vista mais conservador, depois de o partido Republicano acusar o Google de enviesamento político. Em Agosto, a Casa Branca disse que ia analisar os resultados do Google, depois de o Presidente americano ter acusado o motor de busca de manipular resultados, dando prioridade a notícias que lhe eram desfavoráveis (algo que o Google nega).

A escolha de James não foi popular entre trabalhadores do Google. Uma petição online, que diz contar com o apoio de perto de 2500 empregados da empresa (até à hora de publicação desta noticia) foi publicada a pedir a remoção de Kay Coles James do grupo. Descreviam as opiniões de James como “anti-transgénero, anti-LGBTQ, e anti-imigrante”. Para os signatários, manter Coles James no grupo poderia permitir a criação de políticas intolerantes para os sistemas de inteligência artificial.

Somaram-se críticas à inclusão da fundadora e presidente da empresa de drones Trumbull, por receios de que a empresa – que cria “soluções inovadoras” para o Departamento de Defesa dos EUA – levasse o Google a utilizar a sua investigação para a criação de armas inteligentes.

“Tornou-se claro que, no ambiente actual, o grupo não pode funcionar como nós queríamos. Vamos então acabar com o conselho”, lê-se num comunicado do Google, enviado ao PÚBLICO.

Apesar de ter dissolvido o grupo, o Google frisa que não está a desistir de procurar opiniões informadas sobre inteligência artificial e ética.

A empresa é, por vezes, alvo de controvérsia pela forma como os seus algoritmos são programados, e o facto de o seu funcionamento não ser público. Para os algoritmos do Google, pesquisar “gorilas” já foi sinónimo de pesquisar negros, e procurar “crimes de negros contra brancos” no motor de busca ainda leva a páginas extremistas contra a população negra e judeus.

“Vamos a continuar a ser responsáveis no nosso trabalho e nos assuntos importantes que são levantados pela inteligência artificial, e vamos encontrar outras formas de obter opiniões de fora da empresa sobre estes tópicos”, escreveu o Google.

FONTE: PT