Racismo algorítmico e os desafios da inteligência artificial

O reconhecimento facial mostra racismo algorítmico, e não só na identificação falha de suspeitos.

O crescimento no uso de tecnologias para segurança e vigilância é um dos impulsionadores no avanço do mercado de reconhecimento facial. Com estimativa de crescimento em 18% até 2026 – segundo relatório da Global Market Insights, o reconhecimento facial tem sido utilizado por apps e empresas como recurso de segurança e pela polícia como mais um mecanismo de identificação para suspeitos e criminosos.

Acontece que, segundo dados da Rede de Observatório de Segurança, em 2019 cerca de 90,5% das pessoas detidas erroneamente por reconhecimento facial no Brasil foram negros. Formado pela união entre a Inteligência Artificial (AI) e algoritmos criados para identificar padrões, o reconhecimento facial continua sendo alvo de críticas ao evidenciar um racismo algorítmico, uma vez que é comum relatos de pessoas negras que não conseguiram acessar aplicativos de reconhecimento facial devido a sua cor, assim como na identificação falha de suspeitos.

Implementado em cerca de 20 estados brasileiros, a tecnologia associada à segurança pública já deu sinais da sua ineficácia. No Rio de Janeiro, 83% dos suspeitos reconhecidos via reconhecimento facial são inocentes. Em Londres, entre 2016 e 2018, a média de falsos positivos foi de 96%, mesmo número alcançado em Feira de Santana – município baiano, no ano de 2019.

Cada vez mais emergentes como forma de aceleração dos processos, desenvolvimento tecnológico, avanço na proteção das massas e segurança em ambientes digitais, o reconhecimento facial – se não resolvido, valida o racismo institucionalizado e ainda aumenta a insegurança do negro nas ruas.

Mas onde nascem os problemas dos algoritmos?

Incialmente vale entender que os algoritmos são gerados por um(a) programador(a), por meio de instruções inseridas para que o sistema realize uma ação ou alcance um objetivo.

E é aí onde aparentemente nasce o problema.

Segundo especialistas, grande parte dos programadores são pessoas brancas, que utilizam o seu próprio repertório, assim como experiências pessoais e banco de dados de pessoas semelhantes, para testes e validações de sistema.

Um grande exemplo desse efeito algorítmico é a massiva presença de filtros que geram embranquecimento da pele, afilamento de nariz e redução de traços mais largos, comprovando o perfil de quem está “por trás” dessa geração tecnológica.

Diante esse cenário, é mister a necessidade de diversidade e inclusão nestes espaços, como forma de contemplação a pluralidade e transformação do ecossistema tecnológico, criando ambientes mais heterogêneos e assim promovendo mudanças de dentro para fora.

É emergente a promoção de capacitações e acessos às pessoas negras, asiáticas, indígenas e diversas de uma forma geral, por meio de incentivos, abertura de espaços e consciência sobre o problema e a sua tomada de soluções. Precisamos entender que o sucesso de uma tecnologia depende diretamente do quanto ela contempla a pluralidade, uma vez que sendo feita para todos e todas, deve atender a diversidade de forma imparcial, isonômica e igual. Isso é avanço e é assim que alcançaremos futuros.

FONTE: https://olhardigital.com.br/2022/12/22/colunistas/racismo-algoritmico-e-os-desafios-da-inteligencia-artificial/