Inteligência artificial ajuda polícia britânica a analisar celulares apreendidos, mas causa polêmica

 

Software de reconhecimento facial preocupa sobre privacidade e preconceito.

Softwares de inteligência artificial (AI) são capazes de interpretar imagens, combinar rostos e analisar padrões de comunicação. Popular em redes sociais para marcas fotos de amigos, o recurso que parece inofensivo está sendo testado pelas forças policiais do Reino Unido para acelerar a análise de celulares apreendidos em investigações criminais, diz o jornal local The Guardian.

A Cellebrite, empresa fundada em Israel e agora em adquirida por japoneses, afirma que uma implantação mais ampla resolveria problemas e falhas. No entanto, o movimento da polícia provocou preocupações sobre a privacidade e o potencial do software para introduzir preconceito na análise de provas criminais, já que a AI é programada por humanos.

De um lado, a polícia luta para lidar com o aumento exponencial dos volumes de dados gerados por telefones e laptops e busca por uma solução tecnológica para lidar com cargas de trabalho cada vez maiores. Algumas forças policiais no país consideram atrasos de até seis meses para examinar o conteúdo baixado de um celular em uma investigação.

Os dados de redes sociais e localização ajudam a polícia a saber se um suspeito estava em determinado local e em determinado momento. Os algoritmos de IA incorporados permitem que imagens e vídeos sejam marcados, conforme o conteúdo inclua armas, rostos, carros, nudez, drogas, bandeiras e outras categorias. A polícia é a favor das mudanças e disse entender a preocupação com preconceito, confiabilidade e privacidade, e argumenta que sempre haverá um controle humano dos sistemas investigativos de inteligência artificial policial no Reino Unido.

Uma grande preocupação sobre privacidade é com a forma como esses dados serão usados, divulgados e relacionados a pessoas que têm seus nomes conectados a criminosos ou vítimas de um caso de algumas forma. Já sobre preconceito, não está claro que fatores do sistema de IA está usando para avaliar o que é importante ou não em uma investigação.

Há também preocupações sobre a precisão da tecnologia, com testes de reconhecimento facial falhando em grande volume. Há, ainda, evidências de viés racial em alguns sistemas de reconhecimento de imagem existentes, que mostraram corresponder corretamente as faces brancas com mais frequência do que as faces de negros (causando erros graves).

FONTE: TEC TUDO