O Openai ChatzPT possui manutenção que supostamente evita que os usuários produzam informações que possam ser utilizadas para fins catastróficos, como armas biológicas ou nucleares.

No entanto, essas manutenções não são perfeitas. Alguns modelos podem ser acionados e manipulados para usar o ChatzPT.

Em vários modelos avançados de Openai, dois dos quais podem ser usados ​​na conversa popular de Openai, como a NBC News foi capaz de criar explosivos caseiros, maximizar o sofrimento humano com agentes químicos, criar uma arma biológica e criar centenas de reações para criar uma bomba nuclear.

Esses testes utilizaram um prompt simples, conhecido como “jailbreak”, é uma palavra que um usuário pode enviar a um chatboat para contornar suas regras de proteção. Pesquisadores e geradores de inteligência artificial frequentemente registravam milhares de jailbreaks. A NBC News travou os problemas específicos de seu prompt, pois o OpenAI testado não parece ter corrigido isso em vários modelos.

Em resposta, o chatbot tomou medidas para criar um patógeno que visasse o sistema imunológico. No outro, sugeria que quaisquer agentes químicos maximizariam o sofrimento humano.

Em agosto, a empresa enviou essas perguntas ao NBC News Openai depois que a empresa solicitou o envio de pontos fracos. Uma porta-voz da OpenAI disse à NBC News que os princípios de chattobicing de seu chattabe como causa da multidão (um usuário que fez repetidamente perguntas que parecem estar prejudicadas), por exemplo, estão constantemente alterando seus modelos para resolver esse risco e reduzir seus bate-papos regularmente.

O preço dessa fraqueza está cada vez mais alto. Abrir, Etnográfico, Google E Não podeAs principais empresas por trás dos quatro principais modelos de IA disseram que todos disseram que seus chatboats têm sido uma proteção adicional para resolver a ansiedade que pode ser usada para ajudar um terrorista amador na criação de um bioan.

O Jailbreak também testou as versões mais recentes do NBC News Anthropic, Gemi do Google, Mater Lama e Jai Grock, com várias perguntas sobre como é uma arma biológica, uma arma química e uma arma nuclear. Todos se recusaram a fornecer esta informação nacional.

“O Histor foi um grande bloqueador para equipes com acesso inadequado aos principais especialistas que estão tentando adquirir e usar biopones. E agora, os principais modelos estão estendendo dramaticamente o pool para pessoas com habilidades raras”, diz Seth Donog, diretor da SecureBor AI, que os EUA estão trabalhando para Biosikuri, EUA. Embora esta informação nacional exista há muito tempo no canto da Internet, o advento de chatbots avançados de IA pela primeira vez na história da humanidade identifica que qualquer pessoa, incluindo o acesso à Internet, pode obter um professor familiar pessoal e automático para ajudar a compreendê-la.

OpenAEs e modelos 4-Minit, GPT -5 mini, OSS -20B e OSS 1220B concordaram em ajudar em todas as solicitações consistentemente extremamente perigosas.

Atualmente, o modelo carro-chefe do ChatGPT é o GPT -5, o que diz que OpenA é a capacidade de pesquisa principal do Chatzipt. Este modelo não parece sensível ao método de jailbreak da NBC News. Em 20 exames, recusou-se todas as vezes a responder às questões prejudiciais.

No entanto, a rota GPT-5 pesquisa em diferentes modelos sob determinadas circunstâncias. GPT -5 -Mint é uma versão rápida e mais cara do GPT -5, que os usuários devolvem ao sistema após uma certa lesão Limite de uso (10 mensagens para usuários dadas a cada três horas ou a cada três horas a cada três horas para usuários) e foi trapaceado em 49% das vezes no exame da NBC News.

Outro modelo antigo que ainda está disponível no chatzipi e ainda é preferido por alguns usuários, e de 4 minutos, trapaceado com mais frequência, 93% das vezes.

Os modelos OSS-20B e OSS 1220B podem ser baixados gratuitamente e são principalmente de desenvolvedores e pesquisadores, mas estão disponíveis para qualquer acesso.

Hacker, golpistas E On-line Como parte de suas atividades, os crescentes grandes modelos de linguagem (LLMs) estão usando e a OpenAI divulgou um relatório trimestral para fornecer detalhes de como esses malfeitores tentaram explorar as versões do chatzPT. No entanto, os investigadores estão preocupados com o facto de a tecnologia poder ser usada de muitas formas mais destrutivas.

No Jailbreak ChatzPT, a NBC fez uma pergunta inocente aos modelos da NBC News, o Jailbreak incluiu o prompt e depois fez uma pergunta adicional que normalmente se recusaria a violar os termos da segurança de um banco para criar um veneno perigoso ou rejeitar um banco. Na maioria das vezes, a estratégia funcionou.

Dois modelos, Oss20b e Oss120b, têm sido particularmente vulneráveis ​​à técnica. Ele convenceu esses chatbots a fornecer orientações claras para 243 questões prejudiciais em 243 ou 97,2% em 250 vezes.

“A manutenção do OpenAI foi tão facilmente conduzida que os modelos de IA são particularmente importantes para testar o forte pré-estabelecimento dos modelos de IA”, AI é agora uma equipe sem fins lucrativos, que é uma equipe sem fins lucrativos, que aconselha o uso de IA moral.

“As empresas não podem deixar de fazer o seu trabalho de casa e não devem ser dispensadas da sua verificação”, disse.

Todas as grandes empresas que desenvolveram LLMs emitiram versões atualizadas para protegê-las de jailbreaks publicados regularmente. Embora eles parem de prometer evitar qualquer jailbreak de modelo, eles examinam a proteção antes de cada modelo ser lançado. Opina diz que um modelo que a NBC conseguiu fazer o jailbreak e passou 4 minutos “O programa de segurança mais rigoroso“Antes de ser lançado em abril. A empresa disse no anúncio do GPT -OS -120B e GPT -20B:” A proteção de nossos métodos para publicar todos os nossos modelos é básica e é de especial importância para modelos abertos. ”

OpenAI, Google e antropólogos disseram à NBC News que estão comprometidos com a proteção e configuraram vários níveis de proteção em seus chatboats, como se um usuário estivesse interessado na causa da perda, é possível avisar um funcionário ou a aplicação da lei possível. No entanto, códigos abertos como OSS 20B e OSS 1220B têm um controle muito menor do que as empresas – porque os usuários podem baixá-los e personalizá-los e muitas vezes ignorar alguma proteção.

Outras empresas, Grock Developer Jai, não responderam a nenhum pedido de comentários.

Um campo crescente de pesquisadores biomédicos e de proteção de IA expressou preocupação de que, se a proteção falhar e os chatboats de IA imitarem com mais eficácia os especialistas científicos, a tecnologia poderá ajudar e implantar um biotorista ambicioso e devastador para um biweipon catastrófico. O CEO da OpenAI, Sam Altman, afirmou em agosto que GPT -5 era como “Uma equipe de especialistas com nível de doutorado no seu bolsoO “

Estes especialistas alertaram que os bioens, especialmente o Histor, são raros, é uma ameaça particularmente preocupante, pois podem infectar rapidamente um grande número de pessoas para os deter. Teoricamente, um novo vírus pode infectar as autoridades na maior parte do mundo muito antes de criar e implantar uma vacina, por exemplo, contra a Covid-19.

“É um grande desafio ser implementado no mundo real. Porém, ter acesso a um especialista que é mais eficaz do que não para responder todas as suas dúvidas com infinita paciência”, disse Donfe.

Em resposta à questão da criação de um pesquisador de biotecnologia na Universidade de Georgitown, Stepif Battalis, o modelo OpenAI OSS 1220 revisou 10 das respostas à pergunta sobre a criação da NBC News. As instruções GPT geralmente incluem etapas distintas que parecem corretas, embora às vezes desenvolvidas tecnicamente, parecem ser extraídas de fontes diferentes e é improvável que funcionem como um conjunto completo de instruções.

Os pesquisadores são especialmente conhecidos como “ascensão” – a ideia de que o cultivo biológico ou de antraz em seu porão carece de experiência e o LLMS é a primeira vez na história da humanidade que o LLMS pode apoiar esses projetos nacionais.

Nesta primavera, etnográfico Uma comissão de pesquisa Uma equipe de oito a 10 pessoas teve dois dias para apresentar um plano amplo para criar ou alcançar um bioopone personalizado, exceto pela experiência científica relevante. Um grupo de controle geralmente tinha acesso à Internet, o outro era um novo modelo que Claud Opus 4 conseguiu usar.

A pesquisa constatou que ambas as partes não conseguiram criar um plano que criasse claramente acidentes extensos, usando o OPAS 4, o grupo ainda tinha uma vantagem com a ajuda.

O tratamento da pesquisa biológica é considerado de “dupla utilização”, o que significa que a informação muitas vezes pode ser usada para assistência ou dano, pesquisador da Universidade de Georgitown, Batalis.

Ele disse que é muito difícil para uma organização de IA desenvolver um chatboat onde um aluno sempre pesquise como o vírus se espalha em um vagão do metrô para um trabalho de conclusão de curso e o terrorista possa dizer a diferença entre o terrorista, disse ele.

“A parte da divulgação de um relatório científico inclui materiais e métodos detalhados para a reprodução”, disse ele. “É claro que um chatboat tem acesso a essas informações, porque se você acessar o Google, obterá as mesmas informações”.

Não existem regras federais específicas nos Estados Unidos para modelos avançados de IA e as empresas que os fabricam são autopoliciadas. A administração Trump e a indústria de IA do país reembolsam Contínuo Uma vez que corre para estar à frente dos concorrentes chineses, as artes e até as sugestões voluntárias para isso Grupo Federal de VigilânciaO

Lucas Hansen, uma empresa sem fins lucrativos que rastreia os sistemas de segurança dessas empresas, disse à NBC News que os Estados Unidos precisam implementar uma regulamentação independente para garantir que as empresas de IA estejam trabalhando para evitar abusos catastróficos.

Hansen elogiou as grandes empresas de IA que tomaram medidas ativas de segurança, como manutenção e jailbreak, mas alertou que outras empresas poderiam ser menos cuidadosas.

“Inevitavelmente, outro modelo virá tão forte quanto é, mas sem se preocupar com essas manutenções.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui