Como garantir que a inteligência artificial não discrimine seres humanos?

Novo Instituto dedicado a pesquisa e coinovação em AI tem como objetivo criar um mundo onde todos os sistemas se comportam eticamente

Garantir que os modelos de aprendizado de máquina sejam éticos e imparciais é uma tarefa complexa. Em outubro deste ano, veio à tona a história de que a Amazon.com havia cancelado um projeto de quatro anos que conseguia automatizar seu processo de recrutamento.

A empresa, de acordo com uma reportagem da Reuters, descobriu que o sistema não classificava os candidatos para papéis técnicos e desenvolvedores de maneira neutra em termos de gênero. Em resumo, ele discriminava mulheres.

A questão é que os métodos para tornar os modelos de aprendizado de máquina mais justos nem sempre são intuitivos. Em um cenário de ferramenta de recrutamento, um cientista de dados pode acreditar, compreensivelmente, que a remoção de classificadores de gênero do modelo resultaria em um resultado mais justo.

Mas, como descreve um post no blog do Gradient Institute, isso pode resultar em resultados muito piores para as mulheres.

“Algumas pessoas acham que, ao reter dados deliberadamente, você pode obter resultados mais justos. Mas você pode obter um resultado negativo. Esse é um dos muitos exemplos em que uma intuição humana intuitiva e razoável não está correta ”, explica Bill Simpson-Young, diretor do instituto.

“Em vez de basear-se em intuições ingênuas, os cientistas de dados precisam se basear na compreensão de como o viés pode penetrar na inteligência artificial e como o viés pode ser reduzido”, acrescentou Simpson-Young.

O Gradient Institute – o nome vindo de um termo de aprendizado de máquina que significa “propensão à otimização” – foi lançado na última semana com o objetivo de criar um “mundo onde todos os sistemas se comportam eticamente”.

O viés é apenas uma das muitas armadilhas na construção de máquinas éticas. O instituto também considerará o valor da supervisão humana dos modelos de aprendizado de máquina e sua explicabilidade.

“Também vemos alguns erros sendo cometidos por pessoas que pensam que o fato de ter havido más decisões tomadas por máquinas é um sinal de que os humanos deveriam tomar decisões”, disse Simpson-Young.

O Gradient Institute é uma organização sem fins lucrativos com sede em Sidney, Austrália, composta por cerca de 10 matemáticos e especialistas em aprendizado de máquina, e aumentará seu quadro de funcionários ao longo do tempo. Simpson-Young, ex-diretor de engenharia e design da Data61 da CSIRO, é CEO junto com Dr. Tiberio Caetano, co-fundador da subsidiária IAG, da Ambiata, no papel de cientista-chefe.

O instituto realizará pesquisas no campo emergente de justiça quantitativa e trabalhará com os setores público e privado para colocar a pesquisa em prática. Ele lançará ferramentas de inteligência artificial de código aberto que podem ser adotadas e adaptadas, disse Simpson-Young.

Embora o trabalho seja principalmente “profundamente técnico”, o grupo treinará tanto os codificadores quanto os tomadores de decisão sobre como construir e executar sistemas de IA ética.

“Não é suficiente que apenas os cientistas de dados e os desenvolvedores entendam isso, é fundamental que as pessoas que operam um sistema de aprendizado de máquina o compreendam. Agora, muitas vezes as coisas que estão causando as implicações éticas estão sendo feitas no nível do código, mas na verdade elas também devem ser feitas no nível de gerência sênior”, disse Simpson-Young. “Essas pessoas devem tomar as decisões sobre onde as compensações estão sendo feitas”, disse ele.

Ética

A seguradora IAG, parceira fundadora do instituto, juntamente com a Data61 da CSIRO e a Universidade de Sydney, será uma das primeiras a adotar suas ferramentas. Assegurar que a inteligência artificial (AI) ética é a coisa certa a fazer, e há valor comercial nela.

“A AI ética aumentará a confiança em como as máquinas automatizadas tomam decisões. O IAG espera ser um dos primeiros a adotar as técnicas e ferramentas que o Instituto desenvolve para que possamos oferecer melhores experiências para nossos clientes ”, disse Julie Batch, diretora de clientes da IAG.

“Apoiar-se nos desafios e oportunidades da AI ​​exige pensar em justiça e igualdade. Nenhum governo ou empresa pode fazer isso sozinho. Precisamos trabalhar juntos em todo o setor e precisamos fazer isso com urgência ”, acrescentou.

Essa urgência foi repetida por Simpson-Young.

“As pessoas se preocupam com a AI no futuro dominando o mundo, mas na verdade existem muitas decisões consequentes sendo feitas hoje pelo aprendizado de máquina – seja em decisões de recrutamento ou em empréstimos imobiliários – todas essas decisões estão sendo mediadas pelo aprendizado de máquina, Simpson-Young disse.

“O aprendizado de máquina é muito bom em fazer o que ele tenta fazer, mas as pessoas geralmente especificam e restringem o aprendizado de máquina de maneiras que não são muito sofisticadas. Eles estão desenvolvendo o que humanos estão projetando, mas não estão considerando todas as considerações éticas do que estão fazendo “, finalizou.

FONTE: IT FORUM 360