dez 13

Limite da IA frente aos dilemas éticos e morais

Atuação das máquinas na sociedade deve obedecer a critérios rígidos de transparência.

  1. Introdução

O avanço da pesquisa e desenvolvimento atinge neste momento da história do homem patamares que antes eram relegados a clássicos da literatura de ficção científica como em Azimov. Apesar de pesquisas constatarem o crescimento exponencial da tecnologia1, basta uma observação empírica para constatar este fato: A ARPANET, predecessora da internet, surgiu em 1969; a worldwide web, em 19922; o primeiro disquete, de 1971, possuía capacidade de armazenamento de 80 Kb3; o primeiro CD-ROM, desenvolvido em 1985, possui capacidade de armazenamento de 184.6 MB4; o primeiro USB drive, desenvolvido em 2000, tinha capacidade de armazenamento de 8MB5, em 1975 a Microsoft lança o primeiro computador pessoal; hoje, fala-se em computação em nuvem6.

O homem já convive, há algum tempo, com aquilo que se convencionou chamar de inteligência artificial, em que máquinas dotadas de uma programação complexa, por meio de algoritmos, desempenham as mais diferentes funções quotidianas como por exemplo jogar xadrez. Este conceito, entretanto, sofre uma transformação com o aumento da capacidade dos equipamentos de armazenar e processar dados em grandes quantidades, ou o chamado big data.

É com o desenvolvimento do conceito de big data que engenheiros e cientistas de forma geral passaram a desenvolver uma capacidade aprimorada de inteligência artificial. Isto porque, a partir da grande quantidade de dados que esta plataforma permite, uma máquina pode processar dados que humanos demorariam anos para analisar.-los.

Outra tecnologia que foi proporcionada pelo advento do big data foi o conceito e a aplicação de aprendizado de máquina (machine learning)Machine learning é uma forma de incorporar algoritmos de aprendizado em máquinas, que permitem que o computador transforme essas informações em experiêencias novas dentro dos seus limites estruturais e a incorporem ao seu já imenso conjunto de dados, fazendo com que esses dados sejam processados e sua reação, para aquilo que foi programado para fazer, seja aprimorada a cada interação7. Em termos simples, seria o equivalente a um ser humano ter uma experiência no mundo real e realizar um julgamento baseado em experiências passadas na qual tem acesso em sua memória. Ou seja, ter uma experiência, comparar com dados passados, analisar, agir e incorporar a experiência em seus conhecimentos para julgamentos futuros.

Nesta etapa do desenvolvimento tecnológico, cabe a nós adotar uma postura reflexiva frente a um avanço disruptivo comparável ao impacto da internet. Diversas implicações surgem do maior potencial das máquinas, dentre elas questões de responsabilidade jurídica, propriedade intelectual, regulação governamental, impacto no mercado de trabalho, bem como as questões ideológicas. Neste artigo, contudo, daremos um passo atrás e questionaremos as implicações morais e éticas do funcionamento de máquinas capazes de aprendizado aumentado.

Com efeito, a ética e a moral são inegavelmente temas complexos por sua própria natureza. Incapaz de encontrar uma resposta absoluta, o homem debate desde o conceito até o limite da moral, em debates memoráveis que remontam à Grécia antiga até a contemporaneidade. Afinal, se o homem não chegou a uma resposta concreta, capaz de satisfazer a todos, como uma máquina poderia fazê-la?

  1. Um novo ser pensante?

A inteligência artificial, da forma como a conhecemos atualmente, é gerada a partir de um algoritmo, dos mais simples ao mais complexo. O algoritmo consiste em uma fórmula matemática que, a partir de uma quantidade limitada de instruções, produz um resultado.8

Assim, é possível dizer que o algoritmo é a base de toda a revolução tecnológica que ocorre no momento. Ao comandarmos uma máquina a tomar certa decisão, ela analisará os dados disponíveis a partir dos algoritmos carregados nela e produzirá um output.

Isto pode ser observado quando iniciamos uma partida de xadrez com o computador, onde a máquina possui em seu sistema um algoritmo capaz de determinar os possíveis movimentos de cada peça, estando condicionada ao resultado final de eliminar o rei do jogador. À primeira vista, isto poderia ser visto como simples, mas há exatos 20 anos um processador da IBM denominado Deep Blue, capaz de memorizar todas as jogadas de um adversário e calcular milhões de jogadas por segundo, vencia o campeão mundial de xadrez da época.9

Este era um dos primeiros sinais de que a tecnologia avançava a passos largos para se assemelhar àquilo que antes era considerado exclusivo do homem, a capacidade de raciocínio lógico. De 1997 até os dias atuais, a capacidade de processamento e armazenamento de computadores aumentou exponencialmente, a preços acessíveis, conforme previa a famosa lei de Moore10.

A informatização de dados e o ambiente altamente tecnológico em que vivemos possibilitou ao homem criar bancos de dados sobre diversas informações de maneira mais fluida, amigável e ampla. Informações sobre diversos aspectos da vida pessoal e profissional podem ser acessados ilimitadamente, muitas vezes com esta informação sendo provida diretamente por pessoas físicas: dados de trabalhos e publicações por meio de redes sociais direcionadas para o trabalho, anuência ao armazenamento das pesquisas feitas em um site de buscas. O homem fornece database, e a máquina com suficiente capacidade tecnológica pode trabalhar estes dados, se seu algoritmo lhe permitir esta operação.

A título de comparação, para notarmos o avanço da inteligência artificial, recentemente uma plataforma desenvolvida por uma subsidiária da Alphabet foi alimentada tão somente com as regras de um complexo jogo chinês chamado Go. A partir daí a inteligência artificial aprendeu, sozinha a jogar, sem dado prévio de qualquer partida, criando, por si mesma, estratégias que virtualmente venceriam qualquer oponente, humano ou máquina11.

A evolução da inteligência artificial em jogos de tabuleiro apenas demonstra sua capacidade de produzir raciocínios complexos e estratégias, mas já é possível notar sua aplicação em diversas esferas do quotidiano que antes eram relegadas ao domínio humano. A IBM já vem há algum tempo realizando parcerias de sua primorosa ferramenta de inteligência artificial, denominada Watson, com empresas em variados ramos de atuação, de modo a incorporar os benefícios (e os desafios) do machine learning nestas áreas. Tais situações podem ser vistas a partir do Watson Health, com aplicação na área de saúde, cujo computador pode realizar diagnósticos12, além da recentíssima ferramenta LIT, resultado da parceria da IBM com a escola de negócios Saint Paul, que promete revolucionar a aprendizagem na educação13. Este último exemplo impulsiona o que o CEO da escola de negócios chama de Educação Disruptiva, que, em sua acertada visão, mudará a maneira que o mundo vê a educação, tornando-a mais acessível e efetiva14.

Como podemos notar, a utilização de uma alta quantidade de dados como input em computadores de alta performance possibilitou ao ser humano uma capacidade de otimização no processamento e, mais especificamente, tratamento destes dados. Basicamente, empresas dos mais variados ramos, além da sociedade civil e o próprio governo descobriram que havia uma quantidade de informação disponível, sendo possível utilizáa-la para diversos objetivos, tanto para fins humanitários quanto para fins comerciais e militares. É neste ambiente que se populariza outro termo em inglês, a business intelligence. A partir deste processo ocorre “coleta, organização e análise de informações com o objetivo de fornecer subsídios para tomadas de decisões em negócios” 15.

Notoriamente, a grande questão que se chega na evolução da Inteligência Artificial é como haver um controle de qualidade a respeito daquilo que o algoritmo considera importante e necessário, e de que forma ele chegou a determinada resposta. Assim, poderemos saber, por exemplo, por que uma inteligência artificial projetada para lançar bombas antiaéreas em determinados locais considerou uma localidade específica para deflagrar o ataque.

A evolução da inteligência artificial pressupõe, então, mais controle sobre a transparência dos seus atos e dos seus dados. HAMMOND, em um artigo claro e preciso, explicita que a inteligência artificial somente deve ser lançada se seu criador puder explicar seu processo decisório e, em uma escala de requisitos mínimos para melhores padrões, as máquinas devem ser: auditáveis, terem capacidade de articulação dos dados para extrair as informações mais relevantes e, na melhor das práticas, explicar suas razões de decisão bem como considerar novos outputs caso seja fornecido um novo dado sobre a mesma questão16. BOSTROM e YUDKOWSKY entendem da mesma forma, apontando que máquinas que ocupam postos de dimensões sociais devem ter níveis de parâmetros básicos de “responsabilidade, transparência, auditabilidade, incorruptibilidade e tendência para não fazer vítimas inocentes gritarem em desamparada frustração”17.

Embora entendamos que a questão da responsabilidade necessita de uma análise mais minuciosa, concordamos com a ideia geral, sendo certo que a inteligência artificial precisa ter um padrão de transparência auditável. Em uma análise breve e concisa, entendemos que a responsabilização jurídica por atos de máquinas programadas com inteligência artificial avançada deve ser direcionada a seus programadores ou àqueles responsáveis por operar e colocar no mercado o objeto. Muito embora a ação jurídica que enseje responsabilidade civil não seja diretamente proveniente destas empresas, estas devem ser responsáveis por seus produtos. Ademais, uma inteligência artificial não possui discernimento, senso comum, zelo ou até mesmo prudência. Ou seja, são particularidades inerentes ao ser humano que irão lhe conferir compressão das coisas para proceder as escolhas acertadas, bem como o cuidado com algo que lhe incumbia. Tais particularidades são fundamentais e levadas em consideração para a caracterização de uma responsabilidade civil por ato ilícito. Com efeito, o artigo 186 do Código Civil disciplina que comete ato ilícito aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem. O aprendizado por machine learning poderia ser considerado ação ou omissão voluntária, ou mesmo ser considerado negligente ou imprudente? Ou seria um caso de responsabilidade objetiva dos fabricantes por responsabilidade do fato do produto nos moldes do Código de Defesa do Consumidor? Esta questão enseja mais reflexão, já que o ordenamento jurídico nos moldes atuais não foi concebido em uma realidade em que a inteligência artificial atua diretamente em importantes áreas do cotidiano humano.

O dilema moral e ético passa a tomar forma quando, a partir do input de diversos dados em uma máquina programada com algoritmo de aprendizado em setores distintos e sem qualquer discernimento ético previamente programado, a máquina é capaz de realizar um cruzamento de dados, calcular índices estatísticos e fornecer um output que pode ser a fronteira entre aprovar ou não um empréstimo, criticar ou não um texto, prescrever ou não um medicamento ou, pior, atirar ou não em um cidadão.

  1. Machine Learning: uma máquina pode ser ética e moral?

machine learning em si faz com que as máquinas possuam, por um lado, uma capacidade de aprimoramento quase-humana, e, por outro, passíveis de tomar decisões que seriam minimamente questionáveis por humanos, mesmo consideradas antiéticas, imorais ou ofensivas de alguma forma.

Isto porque, basicamente, conforme já citado, o ser humano ainda não atingiu um parâmetro mínimo de ética e moral, havendo diversas interpretações possíveis.

Dentre as diversas teorias filosóficas que cuidam do campo da moral, uma das que sobressaem como aquelas de maior influência é o utilitarismo de Jeremy Bentham, segundo o qual a coisa moralmente correta a se fazer seria aquela que maximizasse a felicidade, tanto em situações do dia -a dia quanto em questões governamentais, assegurando a máxima felicidade da comunidade.18

Em uma outra perspectiva, talvez uma das teorias morais mais complexas e estudadas na filosofia, encontra-se as ideias de Emmanuel Kant. Para Kant, a coisa moralmente certa a se fazer não deve ser medida de acordo com suas consequências, mas sim de acordo com os motivos, de forma que há valor moral na ação que se pratica, e esta deve ser sempre balizada pelo motivo correto19.

Independente da opinião do leitor sobre cada uma destas teorias, ou mesmo de sua percepção pessoal sobre ética e moral, é importante constatar que, inequivocamente, há diversas respostas diferentes para as mais diversas situações que envolvam estes tipos de julgamento, com os quais não há uma concordância majoritária sobre o tema.

Não obstante, ainda que o consenso seja algo praticamente impossível nesta seara, o ser humano não deve se furtar deste debate, em termos de como a inteligência artificial se interliga com os campos que são próprios da filosofia de maneira geral. Com efeito, a inteligência artificial carece de discernimento humano para alcançar um senso comum, uma vez que a capacidade de produzir qualquer discernimento sobre questões morais já é complexa por si só para o ser humano, tornando-se ainda mais intrincada para máquinas, programadas dentro de determinados limites e propósitos.

Ainda assim, as máquinas estão, aos poucos, assumindo posições em que situações análogas ou outras que envolvam questões moralmente desafiadoras ocorrem na vida real.

Uma plataforma da Microsoft, denominada Simply, realiza atualmente funções na área financeira que variam entre abertura de contas, venda de cartões, contratações de seguros automotivos e até mesmo contratação de empréstimos, entre outros, a partir de um processo de automação. O dispositivo, além de realizar a consulta de documentos de forma digital, o que eleva imensamente a capacidade de otimização do tempo dos funcionários, também executa uma fase posterior, qual seja, “processos que envolvem comparação de informações, consultas a sites externos e validação de regras de negócios”20

Por exemplo, a aplicação de machine learning no ambiente corporativo desenvolvida pela startup brasileira Gupy21. Esta empresa fornece ao departamento de Recursos Humanos de empresas uma plataforma de tratamento e gestão de dados para a contratação de profissionais, funcionando basicamente em duas etapas: primeiramente a empresa seleciona pessoas contratadas que sejam funcionários modelos, que responderão a um questionário que servirá de parâmetro de análise dos candidatos (input); posteriormente, o algoritmos aplica estes dados nos currículos dos candidatos, gerando um relatórios com as potenciais melhores escolhas para o cargo (output), sendo certo que a empresa possuirá meios de gerenciar as métricas.22

Contudo, torna-se necessário questionar constantemente de que forma está sendo realizado o tratamento dos dados para gerar o output. Que dados estão sendo analisados? De que forma esta comparação está sendo feita? Por exemplo, nem todas informações extraídas dos currículos dos candidatos refletem o real perfil dos mesmos, o que poderá incorrer em escolhas inadequadas para o cargo proposto. O que se sabe é que respostas humanas a um questionário, ou um cruzamento de dados, com base em informações extremamente objetivas, que não leve em conta critérios subjetivos e traços da personalidade do candidato, pode gerar resultados falsos.

Como podemos ver, os algoritmos responsáveis por esta análise realizam paralelismos de informações as quais o ser humano muitas vezes não tem nenhum acesso, o que pode significar uma relação incorreta de dados, produzindo assim um output de alguma forma imoral, antiético ou mesmo discriminatório.23

Não se trata, de forma alguma, pela não utilização da tecnologia nos mais variados processos do quotidiano das pessoas. Pelo contrário, a tecnologia surge e se desenvolve, desde os primórdios, para facilitar o trabalho do homem e o seu desenvolvimento. Contudo, não é possível descartar o componente humano como avaliador dos resultados oferecidos por um componente não-humano, especialmente em áreas que sejam especialmente sensíveis e subjetivas.

Esta preocupação é altamente justificável tendo em vista infelizes e desastrosos exemplos de erros de inteligência artificial que já ocorreram. Em 2015, a Google introduziu uma ferramenta inteligente que realiza o reconhecimento de formatos em fotos para agrupar em pastas distintas, o que ocasionou no triste incidente de reconhecer uma pessoa negra como gorila, gerando um grave incidente tecnológico24.

Em outro triste exemplo, mais recente, um palestino que trabalha em um assentamento judeu em Israel publicou em uma rede social uma foto com uma escavadeira, junto à frase “bom dia”, em árabe. Ocorre que o algoritmo deste website traduziu esta expressão para o hebraico e para o inglês como uma frase que incitaria violência, o que causou sua prisão, ao menos temporária, pela polícia local – e, colaborando para o fato, escavadeiras eram usadas no passado em ataques terroristas25. Atualmente, as tecnologias de informação estão sendo aprimoradas com a utilização de inteligência artificial, inclusive este passo foi dado um mês antes do incidente mencionado na mesma rede social26. Isto demonstra, claramente, que a evolução da inteligência artificial não é sempre sinônimo de sucesso, e deve ser acompanhada de procedimentos de transparência e constante supervisão humana.

Até mesmo em páginas de busca como o Google e o Bing, a partir de inputs de usuários, passaram a exibir imagens de mulheres brancas quando se busca pelo termo “mulheres bonitas”, enquanto imagens de mulheres negras eram exibidas quando se buscava por imagens de “mulheres feias”, de acordo com uma pesquisa feita em quarenta países por pesquisadores brasileiros da UFMG27.

É desnecessário dizer que muitos seres humanos, infelizmente, ainda carregam consigo ideias odiosas, servis ou medonhas que não podem, de forma alguma, influenciar a máquina. É preciso que o programador das novas tecnologias esteja atento para qualquer programação que possa vir a gerar resultados baseados em critérios ideológicos ou odiosos, e caso este comportamento seja identificado, a interface digital deve ser automaticamente posta fora de serviço e reavaliada por completo para evitar que novos erros sejam cometidos.

Este potencial para infringir normas e padrões éticos e morais aceitáveis, mesmos que questionáveis, preocupa intelectuais do mundo inteiro, afinal, o uso de inteligência artificial atua em diversos comportamentos e julgamentos de importância vital do nosso cotidiano.

Neste sentido, a IEEE – Institute of Electrical and Electronic Engineers criou uma iniciativa global de considerações éticas no ramo de inteligência artificial, em um documento chamado Ethically Aligned Design, para discutir o tema em questão. De maneira bem resumida, a associação alinhou alguns princípios basilares para considerar a questão da ética na inteligência artificial, com os quais entendemos ser o início para o controle dos seus resultados: princípio do benefício humano, para que as inteligências artificiais não desrespeitem direitos humanos; princípio da responsabilidade, segundo o qual os poderes eleitos ou o próprio poder judiciário devem criar normas claras de responsabilidade jurídica envolvendo casos com inteligência artificial; princípio da transparência, e princípio da educação e consciência, de modo a minimizar os riscos de mau uso da inteligência artificial28. Conforme muito bem explicitado por um excelente artigo recente de FRAZÃO, que, ao explicitar a necessidade de transparência no tratamento de questões de Inteligência artificial, a ausência desta pode dar azo à uma incapacidade técnica de o poder judiciário exercer o controle de eventuais atos ilícitos29.

A despeito de qualquer formulação de princípios, é forçoso admitir que criar uma inteligência artificial que seja capaz de compreender questões éticas e morais é algo para além da capacidade humana atual, por um motivo simples. Dilemas morais são, em sua natureza, praticamente insolúveis a partir de uma análise abstrata, devendo normalmente serem discernidos pelo ser humano caso a caso. Esta foi, inclusive, a solução jurídica encontrada no pós-positivismo, onde há um exercício de ponderação de princípios para, no caso concreto, verificar qual deles se aplica sobre o outro, sem, contudo, se anularem. Se o próprio homem não chega a estas decisões de maneira fácil, uma máquina certamente não é capaz de fazê-lo, o que nos leva à conclusão lógica de que, muito embora a inteligência artificial seja aplicada a casos complexos, a figura do homem como verificador dos outputs não só é aconselhável como drasticamente necessária para uma sociedade com um alto nível de complexidade e diversidade.

Uma das áreas em que a inteligência artificial avançou com mais vigor nos últimos anos tenha sido no ramo automotivo, onde também existem dilemas de ordem filosófica a serem considerados. Trata-se da utilização dos veículos autônomos, que desperta até mesmo a atenção mais focada de agentes reguladores.

Como podemos perceber ao longo dos casos narrados acima, a inteligência artificial baseada emmachine learning já se encontra em pleno uso, e um dos sonhos de consumo da tecnologia, os carros autônomos, já faz parte deste presente, já rodando na Inglaterra30 e sendo testado ao redor do mundo31. Um caso que alertou para os potenciais riscos de um carro autônomo ocorreu em 2016, quando um veículo da marca Tesla que estava no momento da colisão operando no modo automático se envolveu em um acidente, causando a fatalidade do motorista. Muito embora a investigação conduzida pelo departamento de transportes dos EUA tenha concluído que não houve falha no veículo, isso alertou a empresa do visionário Elon Musk a promover diversas atualizações no sistema operacional de sua frota de automóveis inteligentes32.

Atento aos riscos que o desenvolvimento aprimorado de inteligência artificial em veículos pode causar, o departamento federal de transportes e infraestrutura digital da Alemanha conduziu este ano um estudo por meio de um comitê para formular normas éticas nestes veículos. Neste estudo, foram elencados 20 princípios básicos que os carros deveriam seguir, sendo algumas de premissas básicas (a) o dano à propriedade sendo preferencial em contraste com o dano à vida humana, quando for possível esta escolha; (b) em caso de acidente inevitável que envolva indivíduos, qualquer forma de distinção de características pessoais como idade, sexo e constituições físicas e mentais é inadmissível; (c) baseado no estado da arte, todos os sistemas autônomos devem ser produzidos de forma a evitar qualquer situação crítica, incluindo situações de difícil decisão, entre outros princípios.33

Além disso, o próprio estudo coaduna com aquilo que foi discorrido, a respeito da responsabilidade. De acordo com a normativa, é necessário que sempre esteja explicitamente claro em que momentos há uma condução automática dos carros autônomos e quando o controle é do motorista, pois isso mudará o parâmetro de responsabilidade entre as fabricantes e operadores dos sistemas tecnológicos, no primeiro caso, e os próprios motoristas, no segundo. Ainda segundo o estudo, o caso ganha em complexidade quando há um sistema misto de condução, de forma que as formas de controle devem sempre estar claras.34

Além da declaração destes princípios, o veículo autônomo deve sempre prever de alguma forma a passagem do controle do automóvel para o homem. Muito embora a tendência global seja de se afastar deste modus operandi, considerando que o ser humano pode cegar-se por emoções como o medo e a insegurança (além de não possuir de antemão todos os dados de uma inteligência artificial bem programada), deve-se levar em conta que esta opção deve, minimamente, existir.

É inevitável, contudo, que um veículo autônomo e outros aparelhos capacitados com machine learning venham a tomar decisões que desafiam valores éticos, ao menos em uma porcentagem mínima dos casos. E a humanidade, em especial em ciências como o Direito, deve se preparar para enfrentar uma nova gama de situações complexas e altamente prováveis em um futuro a curto prazo.

  1. Conclusão

O desenvolvimento tecnológico impulsionou a tecnologia a um nível antes relegado a narrativas fantásticas e utópicas. Hoje, o poder de processamento das máquinas lhes permite analisar um volume de dados de grande porte, o big data, abrindo para a sociedade uma porta de conhecimento analítico nunca vistas antes.

A atuação das máquinas na sociedade, contudo, deve obedecer a critérios rígidos de transparência em seus resultados, bem como possibilidade de uma auditoria completa e eficaz. Uma inteligência artificial que não obedece a estes princípios está fadada a tomar decisões que sempre serão questionáveis do ponto de vista ético e moral, especialmente aquelas que estiverem em posições que influenciam de maneira determinante o gênero, a raça e a vida de pessoas. Afinal, se os humanos são falhos e os dados são produzidos ou refletem comportamentos humanos, há uma grande chance de as máquinas reproduzirem estes conceitos.

Desta forma, torna-se claro que a atividade humana sempre será imprescindível, mesmo em ambientes altamente autônomos, para que exista o discernimento humano na forma de controle de qualidade dos resultados produzidos por máquinas. Somente assim haverá mais controle dos inevitáveis erros que a inteligência artificial pode produzir, melhorando a qualidade da vida humana e tornando a máquina mais apta para realizar tarefas quotidianas. Além disso, a responsabilidade jurídica em casos envolvendo inteligência artificial merece amplo estudo, mas claramente demanda uma análise de responsabilização de fabricantes, programadores e operadores por atos cometidos por máquinas que produzam outputs juridicamente reprováveis.

Por todo o exposto, devido à complexidade e variedade de interpretações diferentes nos campos da moral e da ética, é necessário chegar a princípios basilares, mesmo que com alto grau de generalidade, para estabelecer parâmetros iniciais de análise. O momento atual do desenvolvimento tecnológico clama por estas definições. A sociedade civil e mesmo os governos já estão cientes desta demanda, como podemos ver pelos recentes esforços da IEEE e do governo alemão.

Afinal, no tocante a dilemas éticos e morais envolvendo Inteligência Artificial, deve sempre haver um ser humano por trás para tomar a decisão mais cuidadosa e racional, guiado por princípios gerais e basilares destes ramos da filosofia, para garantir que potenciais danos causados por uma análise de dados feita incorretamente pela Inteligência Artificiai sejam minimizados ou mesmo, no melhor dos casos, eliminados.

FONTE: JOTA – por Gabriel di Blasi e  Rodrigo Cantarino