INTELIGÊNCIA ARTIFICIAL PODE VIR A SOFRER DE PROBLEMAS PSICOLÓGICOS

A Inteligência Artificial está cada vez mais na moda e tem como principal objetivo simplificar a nossa vida e assemelhar-se cada vez mais à nossa forma de pensamento.

De facto e graças a toda as inovações tecnológicas pode não levar muito tempo até que as máquinas comecem a pensar como humanos. No entanto e aproveitando a máxima do ninguém é perfeito, para além de importarem a nossa forma de pensar também poderão importar algumas das falhas que nos caraterizam.

Segundo o neurocientista Zachary Mainen, é inteiramente plausível considerarmos que os sistemas de inteligência artificial no futuro podem vir a sofrer das mesmas falhas neurológicas e psicológicas que os humanos.

A forma como a mente humana funciona envolve um grande número de variáveis, sendo que uma alteração na química do cérebro, stress ou influências externas podem levar a enxaquecas, depressão, alucinações e outros efeitos nocivos. O mesmo pode vir a acontecer com a Inteligência artificial baseada em redes neurais.

Para o cientista estas ideias vêm principalmente de um campo de estudo denominado psiquiatria computacional e em que os psiquiatras estudam programas de IA que foram desenvolvidos para serem o mais semelhante possível ao cérebro humano. Embora isto seja feito através de uma base teórica e de alguns testes, é possível tirar algumas conclusões.
A Serotonina é uma substância química reguladora do cérebro e que pode ser responsável por depressão e alucinações se algo correr mal. Mainen diz que algo semelhante podia acontecer num programa de inteligência artificial que utilize a neuroquímica como base para operar a um nível mais humano.

O que importa salientar é que os investigadores já têm os elementos necessários para conseguirem criar uma inteligência artificial que opere de forma semelhante ao cérebro humano. Este facto é possível através de vários mecanismos e não irá demorar muito até que copiem totalmente o cérebro humano. A questão é que não vamos ter uma inteligência artificial livre de emoções, mas sim com todas as nossas caraterísticas, o que pode ser perigoso.

FONTE: LEAK