Os meandros da Inteligência Artificial: conceitos-chave para leigos

A Inteligência Artificial, provavelmente, é a tecnologia mais disruptiva da história da humanidade. Tudo indica, a continuar o ritmo dos avanços atuais, que a vida no século XXI será bem distinta do que experimentamos até aqui. É premente nos prepararmos, começando por nos familiarizar com seus meandros.

Máquinas inteligentes versus Cérebro

As chamadas máquinas inteligentes não reproduzem o funcionamento do cérebro, cuja complexidade, e ainda relativamente pouco entendimento, inviabiliza qualquer tentativa nessa direção. É mais correto dizer que a construção das máquinas de IA é inspirada no cérebro humano. A parte do córtex do cérebro, espécie de “capacete” que reveste o cérebro, é onde está a inteligência humana. O cérebro é composto de neurônios, que por sua vez são formados por dendritos que se conectam por meio de sinapses: cada vez que os dendritos dos neurônios se encontram provocam uma sinapse (conexão). Essa configuração, por analogia, é a chamada Redes Neurais, ou “Conexionismo”, em que o equivalente aos neurônios no computador são as unidades, ou seja, cada unidade do computador equivale a um neurônio no cérebro humano. Se temos 100 “sinapses” num computador, significa que temos 100 informações chegando e se conectando. As novas unidades, localizadas num novo layer (“camada”), recebem as informações, processam e “cospem” o output para as unidades de uma nova camada.

No processo de visão, por exemplo, a retina, um censor de luz, representa a primeira camada. A retina é impactada por feixes de luz, que são primeiras informações vindas do exterior. O mesmo se passa no ouvido com relação ao som, no olfato com relação ao cheiro, e no tato com relação à sensibilidade. São informações elétricas e químicas, posteriormente enviadas para o cérebro. O aparelho perceptivo da visão é o único dos sentidos em que a primeira camada contém neurônios (logo, já é “cérebro”). Não por coincidência é o mais sofisticado, correspondendo a 1/3 do cérebro, ou seja, esta parcela do cérebro é dedicada à visão – a segunda atividade predominante no cérebro são os movimentos. A luz inicialmente encontra o censor da retina, que é a primeira camada, em seguida segue para uma nova camada, neste caso localizada na parte de trás do cérebro, chamada de V1, continua se deslocando entre várias camadas, até retornar para a parte frontal do cérebro (vision path way). O cérebro tem 10 áreas, e cada área cerca de 140 milhões de neurônios.

O computador criado pela Microsoft há dois anos, considerado o mais avançado na tarefa de reconhecimento de imagem (Image ResNet), tem 152 camadas, ou seja, as unidades vão se conectando e transmitindo informação a outras unidades ao longo de 152 layers.

Fazendo um paralelo entre a visão humana e a câmara fotográfica, a nossa retina corresponde ao sensor de imagem. Em ambos, o que desencadeia o processo é a incidência de luz. O input da luz se transforma num número. Como isso é possível? A luz é composta de fótons, então importa calcular quantos fótons “caíram” na minha retina por unidade de tempo. Simplificando, o que permite diferenciar um objeto de outro é o exatamente o numero de fótons que sensibilizam a retina. Se todos os inputs viram números, temos um conjunto de números no primeiro layer. O processo é semelhante no cérebro e nas máquinas inteligentes. Cada unidade (unit), que corresponde ao neurônio humano, tem a decisão em relação ao que ela envia (ou não envia) adiante para outro layer, observando-se que o que sai não necessariamente é igual ao que entrou no layeranterior, significando certo grau de autonomia.

Cada unidade recebe informações (inputs) de muitas unidades do layer anterior. No estado de evolução atual da Inteligência Artificial, o operador humano arbitra o número de layers. No futuro, existe forte indicação neste sentido, as máquinas vão construir outras máquinas inteligentes (sem arbitragem humana). O que define uma máquina inteligente são dois componentes: o valor de cada conexão e a arquitetura, traduzido no número de layers. A figura abaixo ilustra uma arquitetura típica, com a delimitação de responsabilidades entre duas CPUs (Central Processing Unit):

Fonte: 4824-imagenet-classification-with-deep-convolutional-neural-networks, p.5.

Aprendizado de Máquina

Este subcampo da Inteligência Artificial dá aos computadores a capacidade de aprender sem serem explicitamente programados. Arthur Lee Samuel, um pioneiro norte-americano no campo de jogos de computador e inteligência artificial, cunhou o termo “Machine Learning” em 1959 (enquanto funcionário da IBM). Evoluindo a partir do estudo do reconhecimento de padrões e da teoria de aprendizagem computacional na Inteligência Artificial, o Machine Learning explora o estudo e a construção de algoritmos que podem aprender e fazer previsões sobre dados – esses algoritmos seguem instruções estritamente estáticas ao fazer previsões ou decisões baseadas em dados, através da construção de um modelo a partir de entradas de amostra. O aprendizado de máquina é empregado em uma variedade de tarefas de computação, onde o projeto e programação de algoritmos explícitos com bom desempenho é difícil ou inviável.

A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo. O processo é distinto da tradicional “programação”. Para fazer uma máquina “aprender” algo, é possível utilizar diversas técnicas baseadas em princípios lógicos e matemáticos, mais ou menos complexos. O objetivo é fazer com que um sistema apreenda informações dadas e execute uma tarefa visando o melhor resultado, sem depender de interferência humana. É um método usado para conceber modelos e algoritmos complexos que se prestam à previsão. Esses modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros e analistas produzam decisões e resultados confiáveis e replicáveis, e revelem “ideias ocultas” através da aprendizagem de relacionamentos históricos e tendências nos dados.

Aprendizado Profundo

Na década de 1980, inspirados no cérebro humano, cientistas da computação criaram um subcampo da Machine Learning propondo um processo de aprendizado baseado nas redes neurais, com resultados mais concretos nesta década. O pioneiro foi Geoffrey Hinton, com a ideia de “Neural Networks” em artigo publicado na Revista Nature de 1986. Começou a florescer na década de 1990, em função (a) da crescente disponibilidade de grande quantidade de dados (Big Data), (b) da maior capacidade computacional e (c) da evolução dos algoritmos. O foco são problemas solucionáveis de natureza prática, relacionados a uma tarefa concreta. O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até obter os resultados requeridos (tentativa e erro), denominado “aprendizagem supervisionada”: são fornecidos os resultados desejados (output) e por “tentativa e erro” (processo das máquinas não inteiramente conhecido/dominado pelos humanos) chega-se ao resultado, à meta.

A rede geralmente tem entre 10 a 30 camadas (layers) empilhadas de neurônios artificiais. Num reconhecimento de imagem, por exemplo, a primeira camada procura bordas ou cantos; as camadas intermediárias interpretam as características básicas para procurar formas ou componentes gerais; e as últimas camadas envolvem interpretações completas. Na identificação de fotos nas redes sociais, a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição, onde estão os sistemas de resolução de problemas, ocorreram igualmente importantes avanços.

No senso comum, a Inteligência Artificial está associada aos filmes de ficção científica com os robôs, em geral, ameaçando a espécie humana. A robótica, contudo, é apenas um dos campos de aplicação da Inteligência Artificial, e já estão disponíveis no mercado “robôs do bem”. Na maior conferência de tecnologia da Ásia, Rise, realizada em julho último em Hong Kong, a Ubtech Robotics apresentou o Alpha 2 como o primeiro humanoide para a família, capaz de lembrar compromissos, fazer pequenos reparos, cozinhar, configurar alarmes, lembrar horários de medicamentos, fazer ligações telefônicas, checar mensagens de voz, ler e enviar textos e emails. Seu antecessor, o Alpha 1 pode ser comprado na Internet por R$ 1.541,45. Quem não conhece, procure pela Sophia, robô produzido pela Hanson Robotics, que incorpora a beleza clássica de Audrey Hepburn e foi capa de revista feminina, cantou em concerto, debateu em fóruns de negócios e participou como palestrante na Rise sobre o tema “o papel dos robôs no futuro da humanidade”.

Estamos nos primórdios da Inteligência Artificial, não sabemos como será sua evolução, mas se as pesquisas continuarem no ritmo atual, tudo indica, teremos máquinas inteligentes autônomas – a chamada “Superinteligência” – em algum momento nos próximos cinquenta anos. Quando isso acontecer, estará superada a histórica soberania humana como a espécie mais inteligente (ou como alguns acreditam, a única inteligente).

Dora Kaufman é doutora pela USP e pós doutoranda no TIDD PUC/SP com foco nos impactos sociais da Inteligência Artificial e pesquisadora do Atopos ECA/USP. Pós-Doutora no Programa de Engenharia de Produção COPPE/UFRJ. Pesquisadora visitante no Computer Science Department, Courant Institute of Mathematical Sciences, New York University, USA (2009, 2010) e Pesquisadora visitante no Alexander von Humboldt Institute for Internet and Society, Berlim, Alemanha (2015).

FONTE: ESTADÃO