Senado propõe regular inteligência artificial e restringir uso de reconhecimento facial

Texto elaborado por grupo de especialistas também veta ‘ranqueamento social’ usado na China.

BRASÍLIA – No momento em que o uso de ferramentas digitais como o ChatGPT — um robô capaz de criar textos complexos em formatos variados — ganham notoriedade, uma comissão de especialistas criada pelo Senado apresentou uma nova proposta para regular, pela primeira vez, a inteligência artificial (IA) no País.

Entre os principais pontos, o texto restringe o uso de câmeras instaladas pelas secretarias de segurança pública para reconhecimento facial indiscriminado de pessoas que circulam nas ruas. Também veda a implementação de modelos de “ranqueamento social“, usado pela China, em que cada cidadão recebe uma pontuação de acordo com seu comportamento nas redes sociais e a nota serve para assegurar ou não acesso a recursos públicos.

O Senado convidou uma comissão de 18 juristas para elaborar a proposta de regulação, que tem 45 artigos. O grupo, liderado pelo ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, elaborou um relatório de mais de 900 páginas, com a colaboração de membros da academia, da sociedade civil e de empresas ouvidos em audiências públicas realizadas entre abril e maio do ano passado.

Também participaram juristas e especialistas da advocacia sobre direito digital e membros da Autoridade Nacional de Proteção de Dados (ANPD) que estiveram na concepção da Lei Geral de Proteção de Dados, que regula o tratamento de dados pessoais e altera a legislação sobre internet no Brasil. Um dos convidados era Danilo Doneda, uma das principais referências sobre o tema no País, morto em dezembro do ano passado.

O texto define graus de risco para sistemas de IA e estabelece que fornecedores ou operadores respondam pelos danos causados por sistemas de alto risco (como carros automatizados) e de risco excessivo (como câmeras de vigilância). A classificação pode passar por atualizações.

Há também disposições de transparência. Empresas que usem sistemas de IA de alto risco precisam adotar medidas de governança que registrem o funcionamento da inteligência e métodos para corrigir vieses. As sanções administrativas aos que infringirem a lei variam entre advertência, multa simples de até 2% do faturamento, indo de no máximo de R$ 50 milhões por infração até a suspensão parcial ou total do sistema.

O senador Eduardo Gomes (PL-TO), que apresentará a proposta, afirmou que novos temas serão incluídos no texto. “Temos consciência que é um assunto muito dinâmico. Assim não teremos prejuízos por falta de diálogo”, disse. Segundo ele, um dos caminhos possíveis é o texto seja apresentado para a Comissão de Constituição e Justiça (CCJ) e depois levado ao plenário. “É um tema muito urgente”, disse.

Experiência internacional

O texto lista ainda diversos “níveis de risco” para o uso de sistemas informatizados e estabelece direitos, entre eles o de uma empresa ter que explicar uma decisão tomada por uma inteligência artificial, de usuários questionarem judicialmente decisões, solicitarem intervenção humana, e de não serem discriminados por um vieses de uma IA, como racismo ou misoginia.

A proposta para regulação analisou legislações aprovadas entre os países da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), grupo do qual o Brasil quer fazer parte.

A maioria dos mecanismos de controle à IA nos países da OCDE foi elaborada há pouco mais de três anos e varia em relação ao papel interventor do Estado. Alguns países que compõem a União Europeia preferem diretrizes do bloco, que pretende chegar a um consenso do projeto regulador final em março deste ano.

Ainda não há também nos Estados Unidos uma legislação reguladora própria. O Comitê Consultivo Nacional de Inteligência Artificial do país foi lançado em abril de 2022 e espera-se que a lei seja apresentada neste ano.

O relatório conclui que a Coreia do Sul (que desenvolveu uma estratégia nacional em 2019) é o que apresenta o maior número de medidas para eliminar barreiras legais ou regulatórias enquanto a Alemanha (que publicou sua estratégia em 2018 e atualizou em 2020) se destaca pela quantidade de iniciativas de regulação.

O modelo sul-coreano, por exemplo, diz que o quadro regulatório “deve ser transformado em um sistema regulatório negativo”, como medida para estimular a inovação e determina o estabelecimento de um sistema jurídico que “apoie a era da IA o mais rápido possível” em um comitê com diferentes ministérios para tratar do tema.

Ponto de partida

Para o ministro do STJ Ricardo Villas Bôas Cueva, presidente da comissão, a regulação proposta é um bom ponto de partida. “Certamente, a IA tem um enorme potencial de tornar mais eficientes variados produtos e serviços, mas também pode ameaçar direitos. Daí a importância de normas de caráter geral que protejam os cidadãos”, disse . “Recentemente, por exemplo, foi anunciado que o ChatGPT foi utilizado para produzir uma sentença judicial na Colômbia, o que gerou grande perplexidade na comunidade jurídica por causa da necessária interação humana em uma análise judicial.”

Criadora do ChatGPT, Mita Murati afirmou, em entrevista à revista Time, que acredita que o momento é propício para a regulação de inteligências artificiais.

“É importante para a OpenAI (empresa criadora do ChatGPT) e empresas como a nossa trazer isso (inteligências artificiais) ao público de uma forma controlada e responsável. Mas somos um pequeno grupo de pessoas e precisamos de muito mais informações neste sistema e muito mais informações que vão além das tecnologias”, estão inclusos aqui, segundo ela, reguladores estatais, por exemplo.

O ChatGPT se tornou o aplicativo de crescimento mais veloz da história quando alcançou 100 milhões de usuários em janeiro. A tecnologia causa preocupações a reguladores pelo mundo. O receio de plágio levou a universidade francesa Sciences Po a banir o uso do recurso.

Consequências graves

Para Mariana Valente, diretora associada do InternetLab, que fez parte da comissão de juristas do Senado, a falta de regulação abre margem para erros, alguns de consequências graves e comuns na realidade brasileira. “Hoje não há uma legislação que faça com que uma pessoa que seja afetada pelo sistema possa exigir a revisão dessa decisão. Além disso, essa pessoa não tem direito de exigir transparência, não existem deveres do Estado, critérios que utiliza, como que a pessoa pode recorrer”.

No Rio de Janeiro, uma mulher negra foi detida equivocadamente em Copacabana após ter seu rosto identificado num sistema de reconhecimento facial instalado na cidade. Ela foi confundida com uma mulher que estaria foragida da Justiça — na verdade, a pessoa já estava presa desde 2015. Um estudo da pesquisadora Joy Buolamwini, do Massachussets Institute of Technology, mostrou que câmeras de reconhecimento facial tinham uma margem de 60% de erro, e, para pessoas negras, o sistema em algumas vezes sequer identificava os rostos.

“Se não houver atenção à questão de ética, de vieses, haverá uma reprodução até mais intensa e, contraditoriamente, mais oculta do racismo e discriminações de gênero e classe”, disse Paulo Rená, doutorando em Direito na Universidade de Brasília. “Você não pode impedir que sistemas errem, discriminem. Mas você pode pensar em uma série de medidas preventivas para que esse erro seja evitado”, adicionou Valente.

A proposta classifica como de alto risco a automatização de carros pelas consequências que pode ter os erros. Um relatório da Administração Nacional de Segurança no Tráfego Rodoviário dos Estados Unidos apontou que os carros da Tesla estiveram envolvidos em 70% dos acidentes de trânsito no país entre junho de 2021 e maio de 2022. A empresa possui um sistema de condução semiautônoma. Em julho, o piloto automático de um veículo da empresa gerou um acidente com oito automóveis nos EUA. Nove pessoas ficaram feridas, incluindo um bebê de 2 anos de idade.

Principais pontos da proposta

Riscos

Fornecedores ou operadores responderão diretamente por danos causados por inteligências artificiais classificadas como de risco excessivo, os quais têm o uso proibido, ou alto risco.

Risco alto

14 diferentes finalidades estão enquadradas como sistemas de alto risco, por exemplo sistemas que avaliem aptidão para participar de programas sociais ou serviços privados de seguro ou carros automáticos.

Risco excessivo

Três critérios contemplam os de risco excessivo: técnicas ocultas que manipulem o comportamento de usuários de modo que afete a segurança ou saúde, que explorem vulnerabilidades de pessoas (como deficiência física ou mental), o uso do poder público de ranquear pessoas por seu comportamento.

Segurança pública

Está também restrito uso de câmeras de reconhecimento facial nas atividades de segurança pública a menos que haja previsão em lei federal específica que deverá prever alguns critérios.

Valores

Usuários, desenvolvedores e implementadores de IA precisam aderir a princípios de transparência, não-discriminação, boa fé, autodeterminação e legalidade.

Direitos

Cidadãos têm o direito de questionar decisões tomadas por inteligência artificial e solicitar intervenção humana. Provedores de IA de alto risco precisam fazer avaliação de risco de seus algoritmos.

Penas

As sanções são administrativas em forma de multa que pode chegar a R$ 50 milhões ou 2% do faturamento da empresa. O governo precisa indicar uma autoridade que realize a regulação e aplique as leis.

FONTE: https://www.terra.com.br/byte/senado-propoe-regular-inteligencia-artificial-e-restringir-uso-de-reconhecimento-facial,ca1b2c1234b75125b8678ca10ec17e780vyad299.html