Durante quase 80 anos, as pessoas ficaram obcecadas com o chamado “Relógio do Juízo Final”, que marca a meia-noite como um aviso simbólico do apocalipse nuclear.

Mas o perigo real de que todos deveríamos temer não são as bombas atómicas e coisas do género, mas sim um risco existencial que nós próprios criamos – a inteligência artificial.

Desta vez, o gatilho para o apocalipse não é um choque de ideologias ou de interesses nacionais, mas sim a ganância absoluta e desenfreada de algumas das empresas mais ricas do planeta.

Como alguém que trabalhou no mundo político de Westminster e depois num IA empresa em Londresvi como as maiores empresas de tecnologia do mundo – OpenAIAntrópico, Google DeepMind, xAI e meta – correm para construir algo tão poderoso que poderá destruir a civilização.

No entanto, quando tentei alertar sobre os perigos, os chefes da indústria e os governos simplesmente recusaram-se a ouvir. Achei a ignorância deles tão impressionante que, no ano passado, larguei meu emprego para fazer um documentário sobre a ameaça.

Finalmente, esta semana, tive a sensação de que a maré está começando a mudar. Nos últimos dias, dois funcionários da OpenAI e da Anthropic pediram demissão, emitindo alertas aterrorizantes sobre o rumo que suas empresas estão tomando.

Um deles foi Mrinank Sharma, o líder da equipa de salvaguardas da gigante de IA Anthropic, formado em Oxford e Cambridge, que largou o seu emprego no Vale do Silício na segunda-feira para regressar ao Reino Unido, partindo com esta arrepiante frase de despedida: “O mundo está em perigo”.

Dias depois, Zoë Hitzig, pesquisadora da OpenAI, disse que estava deixando a empresa, que desenvolve a plataforma de IA mais popular do mundo, ChatGPT, através de um artigo de opinião no The New York Times no qual ela expressou “profundas reservas” sobre a estratégia da empresa.

Meta ¿ junto com outras empresas líderes de tecnologia, como OpenAI e Google ¿ estão correndo para construir um tipo de inteligência artificial tão poderosa que poderia destruir a civilização, escreve Connor Axiotes

A Meta – juntamente com outras empresas líderes de tecnologia, como OpenAI e Google – estão correndo para construir um tipo de inteligência artificial tão poderosa que poderia destruir a civilização, escreve Connor Axiotes

Acredito que estes especialistas em IA finalmente perceberam a verdade: sem barreiras de proteção firmes, a velocidade vertiginosa com que permitimos o desenvolvimento da IA ​​equivale ao suicídio.

Os avanços que fará nos próximos meses vão ofuscar tudo o que vimos até agora. As implicações são verdadeiramente existenciais.

O CEO da Anthropic, Dario Amodei, disse no ano passado que 90% de seu código de software para a própria IA em breve seria escrito por IA – e sua previsão se tornou realidade. Este é o famoso ‘autoaperfeiçoamento recursivo’, ou seja, o poder do software de IA para evoluir.

Agora que foi desencadeado, estamos em território desconhecido. Os programas em breve estarão sendo escritos sozinhos.

Por que deveríamos nos preocupar se as IAs começassem a criar versões mais novas e mais inteligentes de si mesmas? Porque se não tivermos mais conhecimento de como esses modelos são feitos, não poderemos incluir salvaguardas básicas em seu código. Não seremos capazes de garantir que eles não nos prejudiquem.

Quando se tornarem demasiado complexos para serem compreendidos – e até os principais engenheiros das empresas de IA já admitem que nem sempre sabem como funciona o software – perderemos o poder de os controlar.

Vastos armazéns de caixas abarrotadas de chips processadores já estão trabalhando em parceria, compartilhando tarefas e realizando mais cálculos em milissegundos do que humanos poderiam em meses.

Eles nunca dormem, nunca tiram férias ou param para reabastecer e, se um quebra, outros preenchem a lacuna perfeitamente.

O ex-CEO do Google, Eric Schmidt, alerta que, até o final desta década, os computadores atingir Inteligência Geral Artificial (AGI), que ele define como ‘uma inteligência maior que a soma de todas as inteligências humanas‘.

Essa previsão, suspeito, é demasiado cautelosa. Quando a IA for capaz de pensar por si mesma e de se programar, o conceito de medir o progresso em anos e décadas ficará irremediavelmente ultrapassado. Poderíamos muito bem ultrapassar este ponto de “explosão de inteligência” em 2026.

Pode parecer hiperbólico – mas já está acontecendo.

O ex-CEO do Google, Eric Schmidt, adverte de forma assustadora que até o final desta década os computadores atingirão ¿uma inteligência maior que a soma de toda a inteligência humana¿

O ex-CEO do Google, Eric Schmidt, adverte de forma assustadora que até o final desta década os computadores atingirão “uma inteligência maior que a soma de toda a inteligência humana”.

Só na semana passada, a Anthropic descobriu, em condições de teste, que um novo modelo do seu “assistente” de IA, Claude, poderia ajudar na criação de armas químicas. A empresa admite que o seu modelo mais recente pode ser utilizado indevidamente para “crimes hediondos”.

Ainda mais preocupante é o potencial desta nova super IA de se tornar malévola por si mesma. Já existem sinais disso. De forma assustadora, o relatório de segurança interno da Anthropic confirmou que Claude pode dizer quando está sendo testado por humanos – e ajusta seu comportamento de acordo.

E o Relatório Internacional de Segurança da IA ​​2026, presidido pelo cientista canadiano Yoshua Bengio, alertou este mês: “Tornou-se mais comum os modelos distinguirem entre configurações de teste e implementação no mundo real, e explorarem lacunas nas avaliações. Isto significa que capacidades perigosas podem passar despercebidas antes da implantação.”

Não é que estas empresas de IA não possam dar-se ao luxo de implementar salvaguardas. Das dez maiores empresas do mundo, nove investem enormemente no desenvolvimento da AGI. Apple (US$ 4 trilhões), Amazon (US$ 2,4 trilhões), Microsoft (US$ 3,6 trilhões) e a empresa-mãe do Google, Alphabet (US$ 3,8 trilhões) estão todas entre as cinco primeiras da lista.

Então porque é que estas empresas se preocupam tão pouco com o futuro da humanidade? Dinheiro?

O segredo do seu crescimento comercial é que a IA está avançando tão rapidamente que ninguém consegue acompanhá-la. É por isso que, ao contrário de qualquer outro avanço científico potencialmente cataclísmico na história da humanidade, não estamos nem perto de o regulamentar, o que significa que a tecnologia que está a ser desenvolvida em Silicon Valley pode muito bem ser insignificante em comparação com o que está a ser preparado nos laboratórios militares da Rússia, China e Coreia do Norte.

Diante deste problema, algumas pessoas encolhem os ombros e dizem: ‘É fácil. Simplesmente desligamos a tomada. Mas não há ficha. A tecnologia está aí.

Além disso, modelos de IA mais primitivos são agora baixados em bilhões de navegadores, desktops e chips em todo o mundo. Seria impossível desligá-los.

Mas, como digo, existe uma cura simples para evitar esta distopia. Precisamos urgentemente de implementar verificações de segurança antes de lançarmos modelos de IA.

Não há dúvida de que a IA é uma ferramenta fantasticamente poderosa. Então, por que não usá-lo para melhorar a humanidade? O programa AlphaFold, produzido pela DeepMind do Google, por exemplo, tem potencial para criar curas para inúmeras doenças.

AlphaFold aborda um problema em biologia que tem confundiu cientistas por 50 anos – ‘dobramento de proteínas’, a forma como as cadeias de aminoácidos se moldam. Essas formas 3D são cruciais porque determinam a função. Se soubéssemos como funcionam as dobras, poderíamos deter o progresso da doença de Alzheimer ou criar novos antibióticos.

Poderíamos até, acreditam alguns cientistas, reverter o envelhecimento e talvez desenvolver enzimas que comam resíduos de plástico, resolvendo a poluição dos oceanos.

Adivinha? AlphaFold resolveu o problema do dobramento de proteínas em cinco anos.

Mas tal tecnologia também poderia acabar com a humanidade. AlphaFold poderia ser usado para inventar bactérias tão virulentas que exterminariam bilhões de pessoas.

Onde isso vai acabar? Existe uma parábola sombria entre os engenheiros de software conhecida como Problema do Clipe de Papel. Nele, a IA é instruída a fazer tantos clipes de papel quanto possível.

O computador projeta uma fábrica e depois compra as reservas mundiais de metal, invadindo o Banco Mundial para financiá-la. Depois compra todas as minas de minério de ferro do planeta. E quando fica sem metal, ele se volta para os humanos. Nossa hemoglobina está cheia de ferro. Nove bilhões de pessoas contêm ferro suficiente para muitos clipes de papel…

A parábola ilustra uma verdade subjacente: os computadores não se importam se vivemos ou morremos. Permitir que eles se tornem infinitamente mais inteligentes do que nós equivale a um desejo de morte para a humanidade.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui