Inteligência artificial (IA) já está a ajudar a resolver problemas nos domínios financeiro, da investigação e da medicina.
Mas poderia estar atingindo a consciência?
Dr. Tom McClelland, um filósofo do Universidade de Cambridge alertou que as evidências atuais são “muito limitadas” para descartar esta possibilidade distópica.
Segundo o especialista, a única posição sensata sobre a questão de saber se a IA é consciente é a do “agnosticismo”.
O principal problema, afirma ele, é que não temos uma “explicação profunda” do que torna algo consciente em primeiro lugar, por isso não podemos testá-lo na IA.
“O melhor cenário é que estamos a uma revolução intelectual de qualquer tipo de teste de consciência viável”, explicou o Dr. McClelland.
«Se nem o bom senso nem a investigação obstinada nos podem dar uma resposta, a posição lógica é o agnosticismo.
‘Não podemos e talvez nunca saibamos.’
A inteligência artificial (IA) já está ajudando a resolver problemas nas finanças, na pesquisa e na medicina. Mas poderia estar atingindo a consciência? Na foto: Exterminador do Futuro Gênesis
As empresas de IA são investindo grandes somas de dinheiro na busca de “inteligência artificial geral” – o ponto em que a IA pode superar os humanos em qualquer área.
Mas à medida que trabalham para atingir este objectivo, alguns também afirmam que a IA cada vez mais sofisticada pode desenvolver consciência.
Isto significa que a IA poderia desenvolver a capacidade de percepção e tornar-se autoconsciente.
Embora esta ideia possa evocar visões de robôs assassinos, o Dr. McClelland argumenta que a IA poderia dar este salto sem sequer nos apercebermos, porque, para começar, não temos realmente uma teoria da consciência acordada.
Algumas teorias dizem que a consciência é uma questão de processar a informação da forma correcta e que a IA poderia ser consciente se pudesse executar o “software” de uma mente consciente.
Outros argumentam que é inerentemente biológico, o que significa que a IA só pode imitar a consciência, na melhor das hipóteses.
Até que possamos descobrir qual lado do argumento está certo, simplesmente não teremos qualquer base para testar a consciência na IA.
Em artigo publicado na revista Mente e Linguagemo Dr. McClelland afirma que ambos os lados do debate estão a dar um “salto de fé”.
Não podemos dizer se uma IA, como no filme de ficção científica Ex Machina (foto), realmente tem experiência consciente ou se está apenas simulando a consciência
O fato de algo ser consciente muda radicalmente os tipos de questões éticas que precisamos considerar.
Por exemplo, espera-se que os humanos se comportem moralmente em relação a outras pessoas e animais, porque a consciência lhes confere “estatuto moral”.
Por outro lado, não temos esses mesmos valores em relação a objetos inanimados, como torradeiras ou computadores.
“Não faz sentido preocupar-se com o bem-estar de uma torradeira porque a torradeira não sente nada”, explica o Dr. McClelland.
‘Então, quando eu grito com meu computador, eu realmente não preciso me sentir culpado por isso. Mas se acabarmos com uma IA consciente, então tudo poderá mudar.”
Embora isso possa tornar o tratamento da IA um pesadelo ético, o maior risco pode ser que comecemos a considerar as IA como conscientes ou sencientes, quando não o são.
Dr. McClelland explicou: ‘Se você tem uma conexão emocional com algo que tem como premissa ser consciente e não é, isso tem o potencial de ser existencialmente tóxico.’
É preocupante que o filósofo diga que o público já lhe envia cartas escritas por chatbots “implorando-me que estejam conscientes”.
Ele acrescentou: ‘Não queremos correr o risco de maltratar seres artificiais que são conscientes, mas também não queremos dedicar nossos recursos para proteger os ‘direitos’ de algo não mais consciente do que uma torradeira.’

















