Dados de qualidade e transparência são desafios para o mercado de legaltechs

Apesar do entusiasmo com a alta tecnologia, questões estruturais precisam ser superadas

Em busca de eficiência máxima, o mercado de legaltechs desenha um cenário em que a prática do direito será assistida pelas mais avançadas tecnologias. Apesar do entusiasmo de empreendedores do setor com ferramentas alicerçadas nos conceitos de blockchain e inteligência artificial (IA), questões estruturais primárias ainda precisam ser superadas para permitir a implementação de soluções mais simples, como de jurimetria e análise preditiva.

Desenvolvedores de ferramentas para o mercado jurídico salientam que a qualidade dos dados e dos parâmetros utilizados para o avanço dessas tecnologias são cruciais. Obter as informações adequadas, no entanto, esbarra em questões como deficiências na digitalização de documentos públicos e limitações no acesso a um volume significativo de informações disponíveis.

Mesmo em mercados onde o emprego de soluções avançadas já é realidade, como o dos Estados Unidos, a estruturação e mineração dos dados ainda é um desafio. “Nos EUA, o sistema federal é todo online, mas os estados não. Muitos dos processos não estão digitalizados e, sem isso, nós não podemos fazer as análises”, conta Wade Malone diretor de produto do Lex Machina*, uma das empresas líderes no desenvolvimento de legal analytics e IA.

Durante o I Congresso Internacional de Direito e Tecnologia, realizado em Brasília, Malone observou que a maioria dos sistemas desenvolvidos para o judiciário americano não foram projetados para a busca de dados. “Se você tiver dados ruins temos o problema de separar o que não serve e o que serve”, explica. “Vejo uma grande oportunidade para a IA porque muitas dessas tarefas envolvem ler coisas escritas a mão”.

Para Sharda Baladi, fundadora do escritório de advocacia indiano NovoJuris e empreendedora do mercado de legaltechs, o cuidado com a qualidade dos dados demanda atenção especial no desenvolvimento de mecanismos de machine learning (aprendizado de máquina) e deep learning (aprendizado estruturado profundo). Ela pondera que o processo de “aprendizagem” da máquina deve ser supervisionado, ou seja, as opções de entrada e saída do algoritmo devem ser intencionalmente fornecidas. “Não podemos ter erros nesses dados. Às vezes, há erros de ortografia ou abreviações e aí você se depara com problemas no banco de dados”, salienta.

Inovação limitada

Mesmo com uma mineração minuciosa das informações, Mireille Hildebrandt, professora da Universidade de Bruxelas (Bélgica) e pesquisadora da área de tecnologia aplicada ao Direito, questiona a capacidade das tecnologias baseadas em dados ou em textos legais realizarem análises profundas ou fundamentarem decisões judiciais. “O fato é que você pode treinar algoritmos e programas apenas baseado em dados históricos, mas você nunca os treina para dados futuros, porque eles ainda não aconteceram”, argumenta.

Entre as preocupações da pesquisadora, está o risco de as ferramentas de machine learning se tornarem “câmaras de eco” com dificuldades para desenvolver novos cenários. “Qualquer operação de machine learning busca um viés, um padrão orientado pela configuração do treinamento em um conjunto de dados”, explica. “Mas a questão é se esse viés é correto ou se é justo”.

Embora o uso de ferramentas de IA e machine learning nas mais diversas esferas do direito seja visto como uma tendência inevitável, o sigilo mantido sobre os algoritmos aplicados em soluções do tipo e a dificuldade em traçar os caminhos que levaram aos resultados dessas ferramentas podem frear a implementação dessas tecnologias. “Talvez tenhamos problemas porque você não pode contestar o software em si e há também os segredos comerciais, direitos de propriedade intelectual e a capacidade semântica”, observa Hildebrandt.

A resistência tende a ser maior nos sistemas judiciários ou em situações em que as tecnologias auxiliam no cálculo de algum tipo de sanção, como no caso de multas. “Há muitas camadas onde a construção da transparência sobre como você chegou a determinado resultado é muito difícil. Então, a pergunta é: devemos promover a transparência ou a precisão das previsões?”, questiona Sharda Baladi.

O impasse tem sido debatido por autoridades ao redor do mundo. O caso Loomis contra Wisconsin, nos EUA, colocou em discussão o uso de uma ferramenta que prevê o risco de reincidência criminal no cálculo de sentenças judiciais, questão sobre a qual a Suprema Corte americana se negou a acolher em junho passado.

Em 2016, o Parlamento Europeu aprovou a General Data Protection Regulation (GDPR, ou regulamento geral de proteção de dados, em livre tradução), que protege os cidadãos de decisões baseadas apenas em um processo automatizado.

FONTE: Lexis 360