Inteligência artificial, proteção de dados e o futuro das invenções

Há pouco mais de 20 anos, em 1997, o campeão de xadrez, Garry Kasparov, perdeu seu reinado para o supercomputador Deep Blue. Naquela ocasião, muitos consideraram que a vitória do Deep Blue não passava de uma jogada de marketing. O próprio Kasparov ventilou que tal vitória poderia ter sido fraudada. No entanto, o triunfo obtido pelo supercomputador foi um importante marco na história da inteligência artificial.

Um dos pioneiros no campo da inteligência artificial (“I.A.”), o professor John McCarthy, a define como “a ciência e engenharia de se criar máquinas inteligentes, especialmente programas de computador inteligentes(…), mas a I.A. não precisa se limitar a métodos biologicamente observáveis”.i Em vez de cálculos cada vez mais complexos, o trabalho no campo da I.A. concentrou-se em repetir e otimizar os processos de tomada de decisão humana, com a realização de tarefas de forma cada vez mais natural.

Longe da temática hollywoodiana na qual as máquinas acabam por escravizar a raça humana, hoje, já são vários os exemplos que ilustram a grande evolução nas aplicações práticas e cotidianas da inteligência artificial. A popularização da tecnologia e os avanços na capacidade de processamento de grandes volumes de dados garantiu aos computadores uma enorme evolução na corrida para se tornarem ainda mais eficientes que as mentes humanas.

Mas se por um lado o professor do MIT, Erik Brynjolfsson, está correto quanto ao fato de que ainda estamos numa onda inicial em torno da IA, cujas consequências ainda não alcançaram o seu ápice, por outro lado Carlo Ratti, outro professor do MIT, tem afirmado que graças à IA experimentaremos mudanças inimagináveis na vida nas cidades, em especial pela forma como a IA lidará com a coleta e processamento de dados.

Se em 1997 o Deep Blue fez história, em 2017 foi a vez de outro supercomputador, o Alpha Go Zero, que venceu diversos adversários humanos no complexo jogo “Go”. De fato, desde 2015, sua versão anterior, o Alpha Go, já vinha dominando as manchetes ao vencer, sucessivamente, os melhores jogadores de Go, em grande medida pela capacidade de reunir dados de seus oponentes e aprender com as partidas até então disputadas.ii

Os resultados obtidos pelo Alpha Go Zero são relevantes porque advém de uma técnica de inteligência artificial chamada “reinforcement learning” ou “aprendizado via reforço”, somente possível graças à capacidade de armazenar, processar e analisar dados, hábitos e táticas dos jogadores. Trata-se de uma técnica na qual, ao experimentar diferentes abordagens para um problema, o computador aprende qual a melhor solução, sem, no entanto, necessitar de qualquer programação ou ensinamento prévio por parte de um humano. Dessa forma, o computador torna-se capaz de fazer coisas sem que nenhum programador tenha que ensiná-lo previamente. O Alpha Go Zero foi treinado apenas a partir de sua própria experiência com a gestão de dados pessoais dos jogadores e partidas, o que o permite superar as capacidades humanas e operar em domínios em que falta conhecimento aos humanos.iii

No mesmo sentido, a mais nova versão do supercomputador AlphaZero, também por meio da técnica de reinforcement learning, dominou o jogo em apenas quatro horas depois de ser programado com as regras do xadrez (sem quaisquer estratégias), tendo sido capaz de derrotar o melhor programa de computador de xadrez até então, o Stockfish.

Mas, o que isso significa para a ciência e para a proteção de dados pessoais? Serão as máquinas dotadas de I.A. as condutoras do futuro e ameaças à privacidade? Admitamos um cenário no qual as aplicações de inteligência artificial sejam tão sofisticadas que consigam ser preparadas ou orientadas para a busca de soluções para problemas técnicos reais a partir de banco de dados específicos. A cura de uma doença degenerativa, por exemplo, pode advir de uma aplicação de inteligência artificial dedicada, capaz de gerenciar dados de pesquisas ao longo de anos e decifrar a mutação genética que a ocasiona, ou encontrar um novo medicamento ou método para seu tratamento.

E sendo a inteligência artificial o caminho para novas invenções, como poderemos protegê-las ou proteger os dados que servem de alimento a estas ferramentas? Afinal, o aprendizado reiterado requer o acesso permanente a banco de dados de toda espécie. Ademais, o sistema de patentes em vigor em quase todo o mundo determina que, para ser patenteável, uma inovação não pode ser uma mera descoberta, mas sim uma invenção, uma obra original, advinda da criatividade, e não fruto de medidas de evolução do aprendizado a partir da gestão de dados (pessoais ou não).

De acordo com a Lei da Propriedade Industrial do Brasil (Lei 9.279/96, a “LPI”), o titular de uma patente será o autor da invenção, ou seus representantes e sucessores.iv Igualmente, na Lei de Patente dos EUA (Lei pública 112–29, de 16 de setembro de 2011, “Leahy–Smith America Invents Act”),v existe previsão expressa que determina que o inventor será o indivíduo ou o conjunto de indivíduos que tiverem criado o objeto da invenção em análise.

Mas, e quem será o titular de uma invenção obtida através de aplicações sucessivas e fruto de aperfeiçoamento constante de inteligência artificial, mediante o uso de dados pessoais ?

Pela legislação nacional, um programa de computador per se não seria protegido por uma patente, mas sim pela Lei de Direitos Autorais (Lei 9.610/98, a “LDA”) e pela Lei do Software (Lei 9.609/98, a “Lei do Software”). Por outro lado, enquanto não sobrevém a aprovação dos projetos de lei de proteção de dados em tramitação no Congresso Nacional, as decisões automatizadas, fruto do emprego de algoritmos e mecanismos de IA, ainda não estão sujeitas a algum tipo de regulação. Ainda que uma criação fruto do emprego de I.A. fosse considerada um programa de computador em si, nem nesta situação seria considerada uma invenção pela LPI. Nesse caso, em princípio, o titular dos direitos autorais seria o autor da obra, a pessoa física que a houvesse criado. Curioso observar que, a partir desta perspectiva, o autor da obra poderia até mesmo ser titular de obras que sequer imaginou ou objetivou criar, na medida em que fruto do reinforcement learning da própria ferramenta de IA, a partir de dados pessoais de terceiros. Como definir a limitação da finalidade da consentimento numa circunstância como esta?

Mas e se o resultado for de fato uma invenção patenteável? Em 2016, pesquisadores trabalharam com a DeepMind para aplicar reinforcement learning para tornar seus data centers mais eficientes em termos energéticos.vi De acordo com as notícias sobre o tema, a aplicação de I.A. representou uma redução de 40% no consumo de energia necessário para o resfriamento do data center, tendo sido alimentado apenas com poucas informações de sensores.

Afora as possíveis discussões sobre proteção de dados pessoais, adequação, consentimento, suficiência descritiva e a validade desse pedido de patente, quem poderá ser listado como seu inventor, tendo em vista que seriam os esforços de um mecanismo de inteligência artificial responsáveis pela invenção? Seriam todos os programadores que trabalharam na redação do código-fonte original ou um ser inanimado capaz de gerir um banco de dados pessoais?

Não nos parece que a atual legislação, seja ela a nacional ou estrangeira, esteja pronta para endereçar tais questões tanto na perspectiva das patentes quanto da proteção dos dados pessoais. No entanto, considerando os diversos avanços obtidos no campo da inteligência artificial, a crescente convergência e interação entre o blockchain e a IA poderá propiciar a revisão de diversos modelos de negócio nos setores financeiro, de saúde, educação e segurança.

FONTE: JOTA