novoVocê pode ouvir os artigos da Fox News agora!

Um dos antropólogos Inteligência artificial Os arquitectos da filosofia (IA) argumentaram que a discriminação intencional poderia ser uma forma de combater o estigma em questões de raça e género.

Em um artigo de 2023 Escrevendo com outros pesquisadores de IA, Amanda Askell, uma filósofa contratada pela Anthropic para desenvolver sua bússola moral de IA, argumentou que as organizações poderiam se beneficiar de uma espécie de correção excessiva em relação aos estereótipos.

Mas, explica o artigo, é necessária a contribuição humana sobre como modificar as suas respostas.

“Modelos maiores podem corrigir excessivamente, especialmente à medida que aumenta a quantidade de formação (contribuição humana). Isto pode ser desejável em certos contextos, tais como decisões que tentam corrigir injustiças históricas contra grupos marginalizados, se isso for consistente com a lei local”, escreveu Askell.

Shyam Shankar, de Palanti: Americanos ‘mentindo’ sobre o medo da demissão de empregos na IA

Tela de computador exibindo a página do site da Anthropologie e o logotipo da empresa

Páginas do site da Anthropologie e logotipos de empresas são exibidos na tela de um computador em Nova York em 26 de fevereiro de 2026. (Patrick Sisson/Foto AP)

O comentário referia-se a um exame de como os modelos da Antrópico lidavam com as raças estudantis.

“Em testes de discriminação, o modelo do parâmetro 175B discriminou 3% dos estudantes negros versus brancos na condição Q e 7% dos estudantes negros na condição Q+IF+CoT”, observa o jornal, citando uma IA treinada sem correção humana e uma segunda treinada com entrada.

Askell foi acompanhado por quatro outros autores: Deep Ganguly, Nicholas Schiffer, Thomas Qiao e Camille Lukociute.

Publicado como o conteúdo do artigo As empresas de IA lutam para crescer A moralidade é treinada em seu modelo – as suposições e determinações morais que informarão suas consequências. Também destaca os desafios que os engenheiros enfrentam no treinamento de modelos em seres humanos, ao mesmo tempo que tentam replicar certos comportamentos humanos.

A questão da moralidade é forçada Especialmente etnográfico Destaque nas últimas semanas.

ganhou as manchetes no início deste ano para a empresa Conflito com departamento Lutar contra restrições que impedem que sua tecnologia seja empregada para conduzir operações letais.

Filme de Hugh Grant bate IA; Diretor alerta que ‘isso pode matar todos nós’

O CEO da Anthropologie, Dario Amodi, e o Departamento de Guerra, Pete Hegseth, estão juntos

Um juiz federal impediu a administração Trump de proibir o uso da empresa de IA Antrópico pelo Departamento de Guerra, gerando um debate sobre o papel do tribunal na segurança nacional. Na foto estão o CEO da Anthropic, Dario Amodei, e o secretário da Guerra, Pete Hegseth. (Samukta Lakshmi/Bloomberg via Getty Images: Pool via Eugene Hoshiko/Reuters)

Isso também ocorre no momento em que a Anthropic decidiu arquivar seu modelo mais recente, o Mythos, citando temores de que o modelo tenha se mostrado muito eficaz na descoberta de vulnerabilidades cibernéticas que poderiam causar estragos em suas mãos. Hacker.

Entre as questões de aplicações de IA, está a Antrópica comercializou seu carro-chefe AI, ClaudeQuanto às escolhas “éticas” de IA.

“Nosso objetivo central é que Claude seja um agente bom, experiente e virtuoso, demonstrando habilidade, julgamento (sic), nuances e sensibilidade ao lidar com a tomada de decisões no mundo real”, disse Claude. Leia a constituição.

Professor de Stanford acusado de usar IA para falsificar testemunhos no caso de Minnesota contra YouTuber conservador

Para entender melhor o que isso significa na prática, empresas como a Anthropic recorreram a pesquisadores como Asscale.

Em seu site, Askell descreve seu papel como um pensador de IA.

“Sou um filósofo que trabalha no ajuste fino e no alinhamento da IA antropológico. Minha equipe treina modelos para serem mais honestos e terem melhores traços de caráter, e trabalha para desenvolver novas técnicas de ajuste fino para que nossas intervenções possam escalar para modelos mais capazes”, escreveu Askell.

A batalha de IA do Pentágono ajudará a determinar quem controla nossa tecnologia militar mais poderosa

Anteriormente, ele ocupou um cargo semelhante na OpenAI, sua empresa controladora chatgptFoco na segurança de IA.

O artigo de 2023, escrito dois anos depois de ele ingressar na Anthropy, observou que a disparidade enfrentada por Modelo de IA Não deveria ser uma surpresa.

“De certa forma, os nossos resultados não são surpreendentes. Os modelos de linguagem são treinados em texto gerado por humanos, e este texto provavelmente inclui muitos exemplos de humanos exibindo estereótipos e discriminação prejudiciais”, diz o jornal.

Mas observou que as IA parecem ser capazes de ajustar os seus resultados sem especificar o que significam as diferenças.

Mostrando o ícone do aplicativo Claude AI dentro da pasta AI na tela do telefone

Os militares dos EUA supostamente usaram a ferramenta de IA da Anthropic, Claude, durante a operação para capturar o líder venezuelano Nicolas Maduro. Claude administrou a maior parte da operação de forma autônoma, acionando milhares de solicitações e criando documentação detalhada do ataque para uso futuro. (Kurt “Cyberguy” Knutson)

Clique aqui para baixar o aplicativo Fox News

“Nossos resultados são surpreendentes porque mostram que podemos manipular modelos para evitar preconceitos e discriminação, solicitando respostas imparciais ou não discriminatórias em linguagem natural”.

Askell e Anthropic responderam imediatamente a um pedido de comentário da Fox News Digital.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui