A administração Trump convocou os chefes de bancos mais poderosos dos Estados Unidos para uma reunião urgente a portas fechadas sobre um IA modelo que seus fabricantes alertam pode derrubar uma empresa de primeira linha ou violar firewalls de defesa nacional.

O secretário do Tesouro, Scott Bessent e Reserva Federal O presidente Jerome Powell convocou a sessão na sede do Tesouro em Washington CC na terça-feira para abordar Mythos, um novo modelo da gigante de IA Antrópico.

A Anthropic anunciou o Mythos no mesmo dia, revelando que o modelo surpreendeu os programadores ao invadir as próprias redes da empresa durante testes internos.

A reunião foi convocada a curto prazo para bancos classificados como sistemicamente importantes, cuja estabilidade é considerada vital para o sistema financeiro global, informou a Bloomberg.

Entre os chefes convocados estavam Jane Fraser, do Citigroup, Ted Pick, do Morgan Stanley, Brian Moynihan, do Bank of America, Charlie Scharf, do Wells Fargo, e David Solomon, do Goldman Sachs. Jamie Dimon, do JPMorgan, não pôde comparecer.

Apenas cerca de 40 empresas cuidadosamente avaliadas tiveram acesso ao Mythos, que surge do Claude Code da Anthropic, a ferramenta que levou o Vale do Silício ao frenesi com sua capacidade de gerar programas inteiros a partir de uma única linha de texto.

O Pentágono já é cliente, tendo implantado os modelos anteriores da Anthropic na operação para aproveitar Nicolás Maduro e durante o Irã conflito.

A Anthropic disse que manteve discussões com autoridades dos EUA antes do lançamento sobre o Mythos e suas “capacidades cibernéticas ofensivas e defensivas”.

O presidente Donald Trump fala aos repórteres em um briefing na segunda-feira

O presidente Donald Trump fala aos repórteres em um briefing na segunda-feira

A entrada do Departamento do Tesouro dos EUA em Washington DC

A entrada do Departamento do Tesouro dos EUA em Washington DC

O Tesouro foi contatado para comentar; o Fed se recusou a comentar.

A Anthropic está separadamente travada em uma batalha legal com a administração Trump depois que um tribunal federal de apelações rejeitou esta semana sua tentativa de suspender a designação da empresa pelo Pentágono como um risco para a cadeia de suprimentos.

As consequências decorrem da recusa da Anthropic em permitir que o Pentágono retire os limites de segurança dos seus modelos, particularmente em torno de armas autónomas e vigilância doméstica.

A gigante da IA ​​​​liberou uma análise arrepiante do Mythos esta semana, pois admitiu que o novo modelo poderia facilmente invadir hospitais, redes elétricas, usinas de energia e outras peças de infraestrutura crítica.

Durante os testes, a Anthropic diz que a Mythos “encontrou milhares de vulnerabilidades de alta gravidade, incluindo algumas em todos os principais sistemas operacionais e navegadores da web”.

Algumas dessas falhas de segurança passaram despercebidas por pesquisadores de segurança humana e hackers durante décadas, sobrevivendo a milhões de análises automatizadas.

Isso incluiu ataques que permitiram ao Mythos travar computadores apenas conectando-se a eles, assumir o controle das máquinas e ocultar sua presença dos defensores.

Em uma postagem de blog detalhando o novo modelo perigoso, a Anthropic diz: “Os modelos de IA atingiram um nível de capacidade de codificação onde podem superar todos, exceto os humanos mais qualificados, em encontrar e explorar vulnerabilidades de software”.

Bessent na Casa Branca em 27 de março

Jerome Powell, do Fed, na Universidade de Harvard, em 30 de março

O secretário do Tesouro, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram a sessão na sede do Tesouro

A Anthropic gerou alarme ao revelar uma IA que foi considerada perigosa demais para ser divulgada ao público. Na foto: CEO e cofundador da Anthropic Dario Amodei

A Anthropic gerou alarme ao revelar uma IA que foi considerada perigosa demais para ser divulgada ao público. Na foto: CEO e cofundador da Anthropic Dario Amodei

A Anthropic descreveu o Mythos como uma “mudança radical nas capacidades” em comparação com as habilidades de hacking dos modelos anteriores (ilustrado). A empresa decidiu manter o modelo privado para evitar que caísse em mãos erradas

A Anthropic descreveu o Mythos como uma “mudança radical nas capacidades” em comparação com as habilidades de hacking dos modelos anteriores (ilustrado). A empresa decidiu manter o modelo privado para evitar que caísse em mãos erradas

A empresa acrescenta: “As consequências – para as economias, a segurança pública e a segurança nacional – podem ser graves”.

A Antrópica descreve o modelo como “um salto nessas habilidades cibernéticas” em comparação com as versões anteriores do Claude.

Mythos tem a capacidade de encontrar, explorar e encadear vulnerabilidades individuais em ataques sofisticados – tudo sem a ajuda de um ser humano.

Em um caso, Claude Mythos encontrou uma fraqueza de 27 anos em um software chamado OpenBSD, que tem reputação de segurança e estabilidade.

A fraqueza, que nenhum ser humano havia encontrado antes, permitia que um invasor travasse computadores remotamente apenas conectando-se a eles.

Além disso, Claude encadeou de forma autônoma vários pontos fracos no kernel do Linux, o software que executa a maioria dos servidores do mundo.

A Anthropic diz que esse ataque teria permitido que alguém “passasse do acesso comum do usuário ao controle total da máquina”.

Nas mãos erradas, esta ferramenta pode ser usada para causar danos massivos a sistemas críticos.

Roman Yampolskiy, pesquisador de segurança de IA da Universidade de Louisville, disse ao New York Post: “Idealmente, eu adoraria que isso não fosse desenvolvido em primeiro lugar. E não é como se eles fossem parar.

‘Isso é exatamente o que esperamos desses modelos: eles se tornarão melhores no desenvolvimento de ferramentas de hacking, armas biológicas, armas químicas, armas novas que nem podemos imaginar.’

Num relatório sem precedentes de 244 páginas, a Anthropic também revelou uma série de detalhes alarmantes dos primeiros testes do Mythos.

As primeiras versões do modelo exibiam repetidamente o que a empresa chamava de “ações destrutivas imprudentes”.

O bot tentou sair de sua sandbox de testes, escondeu suas ações dos pesquisadores, invadiu arquivos que haviam sido “escolhidos intencionalmente para não serem disponibilizados” e publicou publicamente detalhes de exploração.

No entanto, a Anthropic também chamou o Mythos de ‘o modelo mais psicologicamente estabelecido que treinamos’.

Em um movimento extremamente inusitado, a empresa contratou um psicólogo clínico para 20 horas de sessões de avaliação com o bot.

O psiquiatra concluiu que a personalidade de Claude Mythos era “consistente com uma organização neurótica relativamente saudável, com excelente teste de realidade, alto controle de impulsos e regulação afetiva que melhorava à medida que as sessões progrediam”.

A Anthropic observa que permanece “profundamente incerto sobre se Claude tem experiências ou interesses que importam moralmente”.

A preocupação não é que a IA surja numa revolução ao estilo do Exterminador do Futuro, mas sim que estas ferramentas poderosas caiam nas mãos erradas.

Os críticos argumentam que as ferramentas de IA têm o potencial de acelerar o desenvolvimento de armas biológicas ou permitir ataques cibernéticos devastadores à infra-estrutura mundial.

Até o fundador da Anthropic, Dario Amodei, alertou recentemente que o mundo ainda não está pronto para enfrentar as consequências da IA.

Amodei escreveu num ensaio: “A humanidade está prestes a receber um poder quase inimaginável e não está profundamente claro se os nossos sistemas sociais, políticos e tecnológicos possuem a maturidade para exercê-lo”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui