Startups apostam em inteligência artificial para proteger crianças de atiradores

EMPRESAS QUEREM UTILIZAR IA PARA IDENTIFICAR ATIRADORES NAS ESCOLAS (FOTO: PIXABAY)

Empresas desenvolvem softwares para detectar automaticamente armas nas escolas, mas especialistas dizem que ainda é difícil avaliar a precisão dos sistemas

Em fevereiro, Tim Button recebeu uma das piores notícias de sua vida: seu sobrinho de 15 anos, Luke Hoyer, tinha sido assassinado dentro da escola em meio a um tiroteio que aconteceu em fevereiro, na Marjory Stoneman Douglas High School, em Parkland nos Estados Unidos. Desde aquele fatídico dia, muitos dos colegas de Luke que sobreviveram ao ataque lutam para que o estado adote leis mais severas quanto ao porte de armas. Junto de um amigo, Button decidiu abrir uma empresa para aproveitar os mais recentes sistemas de segurança de alta tecnologia para detectar atiradores em potencial antes que uma tragédia ocorra.

Até agora, a startup de Tim Button e Rick Crane, a Shielded Students, entrou em contato com três empresas de segurança: uma de serviço de coordenação de respostas a emergências e duas que fazem sistemas de detecção de armas. Um desses sistemas, desenvolvido pelo Patriot One Tecnologies no Canadá, tem uma tecnologia de inteligência artificial (IA) que é treinada para identificar armas escondidas. A startup pretende combinar essa e outras soluções que podem ajudar a prevenir um outro massacre nas escolas como o que matou Luke e outras 16 pessoas. “Eu posso dizer com toda convicção que se a escola tivesse essa tecnologia as 17 pessoas teriam sido salvas naquele dia”, disse Button à Fast Company.

Enquanto ativistas lutam pela aprovação de leis mais restritivas quanto ao porte de armas, uma lista crescente de empresas estão se unindo à Shielded Students para levar mais segurança às escolas. Assim como o sistema Patriot One, muitas empresas alegam usar a IA para detectar armas, seja por rastreamento de alta tecnologia, seja escaneando imagens de vigilância.

O que soa promissor preocupa alguns especialistas. O medo é transformar as dependências de escolas em zonas de vigilância pesada, nas quais a IA passe a ajudar empresas privadas a coletar e analisar dados de alunos. Eles ainda reiteram que são escassos ou inexistentes os dados disponíveis para avaliar como esses sistemas de detecção de armas acionados pela inteligência artificial funcionam em um ambiente escolar.

Embora o número de tiroteios em escolas venha caindo nos Estados Unidos desde 1990, os massacres recentes ressuscitaram o debate sobre a segurança escolar. O país tem em média 57 vezes mais tiroteios do que todos os outros países industrializados juntos. Desde o massacre na Columbine High School, em 1999, mais de 187 mil estudantes presenciaram algum ataque à mão armada nas escolas.

A Shielded Students já iniciou conversas com escolas para poder testar seu sistema. Embora Button ressalte que a tecnologia não será capaz de identificar todo e qualquer atirador, ele está convencido que o impacto desse sistema será benéfico para as escolas. “Isso certamente irá impedir que uma grande porcentagem desses massacres ocorram”, diz.

Em Seattle, Leo Liu, assim como Button, tornou-se cofundador de uma startup chamada Virtual e-Force, que visa usar alta tecnologia para detectar futuros atiradores nas escolas. Ele pretende, com o auxílio da IA, detectar automaticamente armas em imagens de vídeos de vigilância.

Uma vez que o sistema flagre o que potencialmente poderia ser uma arma, ele poderá alertar a equipe de segurança. Dessa forma, será possível confirmar ou descartar a suspeita antes de o tiroteio acontecer. Segundo Liu, o sistema também pode seguir o atirador pelas câmeras e mandar um alerta da sua localização, por meio de mensagem ou aplicativo, para a polícia. Segundo a Virtual eForce, o sistema já está funcionando em um prédio de escritórios de saúde e a empresa espera implementá-lo nas escolas.

Segundo reportagem do Washington Post, pelo menos mais duas outras empresas estão desenvolvendo uma tecnologia de IA para detectar possíveis atiradores, incluindo a AnyVision, de Israel, e a SN Technologies, do Canadá.

Por meio do treinamento de algoritmos em milhões de imagens, é possível criar um software que reconhece rostos humanos, assim como de gatos e de cachorros, e objetos. A mesma ideia pode ser aplicada para as armas.

No entanto, o treinamento desses algoritmos depende do material fornecido. Por exemplo, um sistema que foi treinado para reconhecer armas com base em cenas iluminadas de programas de televisão e filmes de Hollywood, pode não apresentar um bom desempenho em filmagens de segurança. “Do ponto de vista visual, uma arma pode parecer nada mais do que uma mancha escura na tela das câmeras de vídeos de segurança”, afirma Tim Hwang, diretor de Ética e Governança de IA no Harvard Berkman-Klein Center e no MIT Media Lab.

Enquanto algumas empresas que dependem da vigilância de vídeo só conseguem identificar armas que estejam mais expostas, a tecnologia da Patriot One desenvolveu um sistema que é capaz de identificar as armas mesmo que estejam escondidas por baixo da roupa ou nas mochilas e malas.

Para aumentar a precisão, o Virtual eForce treinou seus algoritmos a reconhecer diferentes tipos de armas, desde as mais longas até as pistolas. A startup também filmou seus próprios vídeos de pessoas segurando diferentes tipos de armas em anglos distintos e minimizou a resolução para parecer um vídeo de câmera de segurança.

Ainda assim, Liu reconhece que nenhum algoritmo terá um desempenho impecável no mundo real. Os erros mais comuns dos sistemas são as falsas suspeitas, quando ele identifica erroneamente um objeto relativamente inócuo como uma arma. Por isso, é necessário a presença humana para confirmar ou descartar a suspeita e dar o veredito final, diz Liu.

O treinamento para que essas pessoas que supervisionam o sistema de IA possam reconhecer uma possível ameaça é fundamental, segundo Douglas Yeung, psicólogo na RAND Corporation e especialista nos impactos sociais desse tipo de tecnologia.

Com toda essa discussão, o debate acerca da privacidade volta à mesa. Tanto a AnyVision quanto a SN Technologies combinaram a detecção das armas com o reconhecimento facial de potenciais atiradores. A Virtual eForce também alegou que pretende incorporar essa tecnologia de reconhecimento facial, caso o cliente deseje mais uma camada de proteção. Mas usar esse tipo de tecnologia nas escolas ainda é muito arriscado. A privacidade dos alunos é uma preocupação das escolas, o que pode fazer com que as instituições prefiram não incorporar o sistema em suas dependências. “Pode haver um efeito assustador de vigilância”, diz Hwang.

FONTE:  ÉPOCA