Danos causados por carros autônomos

No dia 19 de março, nos Estados Unidos, ocorreu o primeiro acidente fatal envolvendo um pedestre e um carro autônomo. Elaine Herzberg, de 49 anos, atravessava uma rua mal iluminada quando foi atingida por um Volvo modificado para dirigir autonomamente. A motorista “reserva” que estava no veículo, exatamente para intervir em momentos de emergência, não o fez1. Neste caso, o carro estava sendo testado pela Uber, mas diversas outras empresas, como Apple, Honda e Waymo2, têm realizado testes com carros conduzidos parcial ou completamente por sistemas de inteligência artificial. A tragédia e o avanço da tecnologia reforçam a necessidade de discutir: quem seriam os responsáveis por esse acidente?

O incidente aconteceu no estado do Arizona. Mas e se tivesse ocorrido no Brasil? De que forma a legislação brasileira atual lidaria com a questão da responsabilidade civil envolvendo esse tipo de tecnologia? Neste artigo, tomando este acidente como base, intentamos uma introdução à problemática à luz das leis de responsabilidade civil do nosso país. Este artigo não buscará apontar quem, na prática, responderá por esse acidente de acordo com as leis do Estado do Arizona, nem explorará as dificuldades de imputação penal advindas da tragédia. Trata-se de uma tentativa de entender como e se a legislação brasileira pode responder aos desafios que os carros autônomos impõem ao direito.

O grau de autonomia dos veículos

Carros imbuídos de inteligência artificial podem ser classificados a partir de seu grau de autonomia. A Society of Autonomous Engineers (SAE), sociedade de padronização de standards, popularizou a utilização de uma escala de autonomia que varia de 0 a 5. O zero faz referência a um veículo com funções automáticas básicas, como a emissão de alertas, enquanto o cinco se refere a veículos capazes de circular sem qualquer interferência humana e em qualquer situação3.

Essa distinção revela um aspecto importante da utilização desse tipo de tecnologia: muitas vezes, não atuará de forma verdadeiramente autônoma, sendo simplesmente complementar às atividades humanas. Pode-se pensar numa régua da “interação homem-máquina”4, situando-se as ações absolutamente independentes em somente um de seus extremos. É importante ter isso em mente ao se pensar em que extensão os seres humanos deverão responder pelas ações tomadas por tais sistemas, afinal, em regra, os indivíduos devem responder nos limites de sua esfera de atuação e controle. Essa discussão se torna especialmente relevante no momento em que se passa a discutir como e a quem imputar responsabilidade pelos danos causados por carros autônomos.

E se o acidente ocorresse no Brasil?

Carros autônomos, apesar de provavelmente serem mais seguros do que motoristas humanos5, ainda assim podem causar acidentes – o que tem, de fato, ocorrido. Abaixo, vamos tratar de como os preceitos brasileiros de responsabilidade subjetiva e objetiva poderiam recair sobre os danos causados nesse tipo de situação.

Sob a ótica da responsabilidade subjetiva, precisaríamos averiguar se houve negligência, imprudência ou imperícia por parte dos seres humanos envolvidos na questão, nos termos do Código Civil. A princípio, dois principais polos “humanos” estavam envolvidos: a motorista “reserva” que se encontrava no veículo e seus próprios desenvolvedores. Quanto à motorista, caso seu comportamento se enquadre em uma dessas categorias, poderia ser responsabilizada sob essa lei. Seria o caso, por exemplo, se tivesse ignorado luzes ou sinais de emergência, ou se pudesse ter evitado o acidente com sua intervenção. O teste de subsunção nesse caso é simples e conhecido do direito há séculos.

Além dessa possibilidade, a responsabilidade subjetiva também poderia recair sobre osfabricantes, produtores, programadores e todos os demais envolvidos no desenvolvimento desses veículos. No entanto, avaliar problemas de fabricação nesse tipo de produto pode ser atividade bastante dificultosa – como já é o caso com diversos outros sistemas de altíssima complexidade já em circulação no mercado. Essa dificuldade, entretanto, é fortemente agravada no caso de sistemas de inteligência artificial. A pluralidade de atores envolvidos no desenvolvimento dessas tecnologias6, assim como a dificuldade de compreender seu funcionamento interno e seus mecanismos de tomada de decisão, mesmo por parte de seus próprios desenvolvedores7(problema a que se deu o nome de a “black box” da inteligência artificial), são desafios ainda a serem enfrentados. A verdade é que essa complexidade acentuada dificulta em muito o estabelecimento do nexo causal entre a atuação dos desenvolvedores e a decisão autônoma que levou ao dano – caindo por terra, com isso, a possibilidade de imputação de responsabilidade subjetiva a essas pessoas.

De qualquer maneira, a dificuldade em se estabelecer o nexo causal em uma cadeia complexa de produção é problema já conhecido do direito, por mais que tenha sido agravado com a introdução dos sistemas de inteligência artificial. Com efeito, historicamente, uma de suas soluções foi a criação da figura da responsabilidade objetiva, cuja mais célebre aplicação se encontra na forma da responsabilidade dos fornecedores por produtos que introduzem no mercado.

A responsabilidade objetiva, assim, poderia se apresentar como solução satisfatória. Na legislação brasileira, a responsabilidade por danos decorrentes de defeitos de fabricação encontra respaldo no Código de Defesa do Consumidor (CDC). O seu art. 12 aponta que “produto é defeituoso quando não oferece a segurança que dele legitimamente se espera.” Assim, se quiséssemos aplicar essa lei contra a Uber, deveríamos utilizar o argumento de que os danos causados pelo seu carro autônomo decorrem de um “defeito”. Essa argumentação, no entanto, não é tão simples.

Em especial, devemos entender que uma decisão autônoma, por parte de um sistema de inteligência artificial, é característica esperada e desejada desse tipo de sistema, e que equipará-la a um defeito seria distorcer a letra da lei. Com efeito, a capacidade de tomar decisões por si própria é exatamente o que se espera desse tipo de tecnologia. Numa perspectiva técnica, o nível de segurança esperado de carros autônomos jamais será absoluto: sempre haverá a chance de acidentes, mesmo que em quantidade menor do que a esperada de condutores humanos. Por isso, é difícil afirmar que uma decisão autônoma por parte de um sistema de inteligência artificial constitui um erro ou defeito: essa capacidade é um efeito esperado e desejado desse tipo de sistema, e a existência de riscos em tais decisões é reconhecida, aceita, e tecnicamente impossível de se afastar.8 Por outro lado, pode-se dizer que o CDC, na verdade, faz referência à perspectiva microscópica: refere-se à expectativa de segurança de um produto individualmente considerado. E, é claro, espera-se que carros autônomos não atropelem pedestres. A inexistência de defeito, no entanto, não convence por essa argumentação.

Chegamos então num impasse. É claro que há um risco na introdução de carros autônomos no mercado. E a existência de um risco é exatamente uma das razões nas quais se fundamenta a responsabilidade objetiva do CDC9. Isso poderia, principiologica e teleologicamente, fundamentar uma responsabilidade objetiva por parte de quem introduz esse risco. A figura prevista no CDC, no entanto, não foi pensada para esse tipo de situação, e não poderia abarcá-la. Claudia Lima Marques10 ressalta, por exemplo, que o dever de segurança é “de todos os fornecedores que ajudam a introduzir (atividade de risco) o produto no mercado”, mas que “só haverá violação deste dever, nascendo a responsabilidade de reparar os danos, quando existir um defeito no produto. (…) No sistema do CDC, pode haver o dano e o nexo causal entre o dano e produto (…), mas se não existir o defeito, não haverá obrigação de reparar.” (grifos nossos)

Uma aplicação meramente teleológica da lei, que abrisse mão do conceito de defeito para responsabilizar a empresa, poderia também ser tentada pelos tribunais. Isso porque, com efeito, cria-se uma atividade de risco por cujos danos só muito dificilmente se encontrarão pessoas capazes de serem responsabilizadas subjetivamente. Talvez seja o caso, de fato, da criação legislativa de um novo tipo de responsabilidade objetiva11. Por mais que a admissibilidade de uma tal interpretação seja profundamente questionável, vamos considerá-la, hipoteticamente, para que continuemos com nosso exercício de subsunção.

Assim, se entendermos que o CDC é aplicável ao caso, a discussão precisaria se voltar, neste momento, à apuração da conduta da própria pedestre, para averiguar se, nos termos do CDC, a culpa foi “exclusivamente do consumidor ou de terceiro”. Tratar-se-ia de excludente de responsabilidade objetiva sob o CDC, nos termos de seu Art. 12, §3º, III. A possibilidade de aplicação prática dessa excludente, no entanto, parece restrita. E ainda assim, de qualquer forma, os remédios apresentados pelo CDC não parecem ser uma resposta final adequada para o problema, o que impõe a necessidade de se pensar em novas soluções normativas para a questão da responsabilização civil em casos de acidentes envolvendo carros autônomos.

Legislação Existente

No resto do mundo, a discussão acerca da modalidade de responsabilização por danos causados por sistemas de inteligência artificial já tem ganhado força, apesar de se limitar, por enquanto, aos carros autônomos. É de se notar a legislação existente no que diz respeito à responsabilidade subjetiva, que cria deveres de conduta dos indivíduos envolvidos no desenvolvimento e na operação desses carros, como é o exemplo da legislação da Califórnia12, que estabelece uma série de deveres e obrigações para os motoristas “reserva” e para as empresas fabricantes, cujo descumprimento poderia, teoricamente, fundamentar sua responsabilização. No extremo oposto encontra-se a legislação do Arizona – onde ocorreu o acidente –, que exige apenas uma licença veicular comum das empresas para circular com os carros autônomos.

Quanto à responsabilidade objetiva, ainda não há norma em vigor que crie uma modalidade de responsabilização específica para carros autônomos. Nesse caso, haveria a possibilidade de aplicação da legislação consumerista, que no Brasil não se mostra adequada, pelos motivos acima mencionados.

Por fim, um exemplo de abordagem alternativa é o projeto de lei atualmente em discussão na Alemanha, que trata da questão a partir de uma perspectiva ética. Diante de uma situação extrema, como deve o carro autônomo estar programado para decidir? Deverá optar entre matar uma pessoa ou outra? A solução alemã é uma regulação que determina que o veículo seja programado para tomar a decisão capaz de gerar menor dano13.

Conclusão

O acidente fatal envolvendo um carro autônomo foi o primeiro do que podem vir a ser outros diversos casos. A implementação e popularização da inteligência artificial no mercado apresenta diversos desafios que ainda não encontram respostas, seja pela complexidade técnica da questão, seja pela inadequação dos instrumentos legais atuais para lidar com essa vanguarda. O direito precisa buscar respostas satisfatórias para essa realidade que se aproxima em passos largos de nosso cotidiano.

FONTE: JOTA