OCDE cria princípios para desenvolvimento de IA; Brasil é um dos 42 signatários

O primeiro dos princípios é: inteligência artificial deve beneficiar as pessoas e o planeta proporcionando crescimento inclusivo, desenvolvimento sustentável e bem-estar

INTELIGÊNCIA ARTIFICIAL: BRASIL É UM DOS SIGNATÁRIOS DE DOCUMENTO DA OCDE COM PRINCÍPIOS PARA DESENVOLVIMENTO DA TECNOLOGIA (FOTO: ARKADIUSZ WARGUŁA VIA GETTY IMAGES)

O OCDE (Organização para a Cooperação e Desenvolvimento Econômico), entidade que inclui os países mais ricos do mundo e na qual o Brasil pleiteia ingresso, anunciou princípios para o desenvolvimento de inteligência artificial (IA). Ao todo, 42 países são signatários do documento — e o Brasil é um deles.

O primeiro dos princípios é: inteligência artificial deve beneficiar as pessoas e o planeta para crescimento inclusivo, desenvolvimento sustentável e bem-estar. O documento ainda pede que a tecnologia respeite as leis, direitos humanos e valores democráticos.

“A inteligência artificial está revolucionando como vivemos e trabalhamos, e oferecendo extraordinários benefícios para sociedades e economias”, afirmou o secretário geral da OCDE Angel Gurría. “Porém, traz novos desafios e está alimentando anseios e preocupações éticas.”

O documento da OCDE não tem valor legal. Mas serve como um norte para países que fazem parte da organização e pretendem trabalhar no desenvolvimento da tecnologia. O texto foi divulgado no dia 22 de maio e conta com assinatura dos 36 países que fazem parte da organização, além de Argentina, Brasil, Colômbia, Costa Rica, Peru e Romênia.

Riscos da IA
A inteligência artificial tem despertado preocupações ao redor do mundo. A expectativa é que o avanço da tecnologia acabe com uma porção de empregos. O investidor e especialista em IA chinês Kai-Fu Lee afirmou recentemente que a tecnologia poderia acabar com 40% dos empregos nos próximos 15 anos.

Outras discussões éticas tmabém estão em alta, como o combate a vieses involuntários presentes em algoritmos de IA. Especialistas argumentam que a tecnologia, treinada com base em grandes quantidades de dados, pode reproduzir preconceitos presentes nessas informações — como um algoritmo dizendo que um criminoso negro tem maior probabilidade de infringir de novo a lei, por exemplo.

FONTE: ÉPOCA