Uma indústria centenária que outrora tornou os carros e os edifícios mais seguros espera poder fazer o mesmo com a inteligência artificial.

Um punhado de companhias de seguros, incluindo startups e pelo menos uma grande companhia de seguros, começaram a oferecer cobertura especializada para falhas Agente de IAOs sistemas autônomos assumem o crescente número de tarefas realizadas por representantes de suporte ao cliente, recrutadores, agentes de viagens e similares.

À medida que as seguradoras perseguem um novo mercado lucrativo, algumas apostam que podem trazer alguma regulamentação e padronização a uma tecnologia que ainda está nos seus primórdios, mas vista por muitos no mundo dos negócios como o próximo passo natural.

“Quando pensamos em seguros de automóveis, por exemplo, a adoção generalizada de cintos de segurança foi realmente algo impulsionado pela procura de seguros”, disse Michael von Gablenz, que dirige seguros de IA na Munich Re, uma companhia de seguros multinacional. “Quando olhamos para as tecnologias anteriores e suas jornadas, os seguros desempenharam um papel importante e acredito que os seguros podem desempenhar o mesmo papel para a IA.”

As falhas da IA ​​generativa chegaram às manchetes, inspiraram batalhas judiciais e devastaram famílias que afirmam que a tecnologia prejudicou os seus entes queridos. Mas à medida que as ferramentas de IA se tornam mais comuns nas empresas e nos dispositivos pessoais, os utilizadores ficam presos entre empresas autorreguladas e de confiança, à espera de uma ampla supervisão governamental.

Algumas companhias de seguros estão ansiosas por entrar nesta fronteira inexplorada. Embora muitas seguradoras tradicionais cubram totalmente os riscos relacionados com a IA e outras ainda estejam hesitantes, algumas já estão a oferecer cobertura especializada para clientes que utilizam sistemas de IA, oferecendo grandes recompensas se as coisas correrem mal.

Estas empresas afirmam que a cobertura de seguros – que historicamente impulsionou melhorias de segurança em vários setores – também pode criar um incentivo eficaz e baseado no mercado para que os desenvolvedores de IA protejam os seus produtos.

Rajeev Dattani, cofundador da Artificial Intelligence Underwriting Company (AIUC), uma startup de seguros que desenvolve padrões para agentes de IA, disse acreditar que os compromissos voluntários das empresas não são suficientes para gerir os riscos da IA ​​e que o seguro poderia ser uma “solução intermediária mais limpa” – uma forma de supervisão de terceiros.

“As seguradoras serão incentivadas a rastrear com precisão: quais são as perdas? Dr. “Acreditamos que as seguradoras, porque estão pagando, liderarão grande parte desta pesquisa ou pelo menos financiarão grande parte dela”.

As empresas que utilizam agentes de IA são suscetíveis a um amplo espectro de riscos, incluindo vazamentos de dados, jailbreaks, alucinações, danos legais e danos à reputação, de acordo com as seguradoras que cobrem essas ferramentas. Um chatbot de IA pode vazar dados confidenciais de clientes, tomar decisões de contratação discriminatórias ou – como vários casos recentes destacaram – encorajar usuários vulneráveis ​​a se machucarem.

De acordo com um relatório recente, mais de 90% das empresas procuram proteção de seguros contra riscos generativos de IA Pesquisa da Associação de GenebraUm think tank internacional da indústria de seguros. Mas sem padrões auditáveis ​​para a segurança dos agentes de IA, muitas seguradoras ainda não sabem como fornecer essa proteção.

Um recente Relatório Ernst & Young Constatou também que 99% das 975 empresas inquiridas sofreram perdas financeiras devido a riscos relacionados com a IA, com quase dois terços a sofrer perdas superiores a 1 milhão de dólares. Enquanto isso, empresas de IA como OpenAI, Anthropic, Character.AI e várias outras startups e gigantes da tecnologia têm sido alvo de grandes ações judiciais nos últimos anos.

Desenvolvendo novas métricas para riscos sem precedentes

Em julho, a AIUC lançou a primeira certificação mundial para agentes de IA, que visa fornecer uma referência auditável para avaliar a vulnerabilidade de um agente. valor, é chamado AIUC-1Os seis pilares abrangem: segurança, proteção, confiabilidade, dados e privacidade, responsabilidade e risco social.

As empresas podem testar voluntariamente de acordo com o padrão para ganhar a confiança do cliente, disse Datani, e a certificação pode ser uma forma de as seguradoras avaliarem se um produto de IA atende aos seus padrões para ser segurável.

“Estamos agora numa era em que as perdas estão realmente aqui e acontecendo; isso é uma coisa. A segunda coisa é que as seguradoras estão agora a começar a excluir a IA das suas apólices existentes”, disse Datani. “Portanto, parece bastante certo que precisaremos de algumas soluções aqui, e precisamos de pessoas com experiência que possam fornecer supervisão de terceiros. É aí que vemos o papel do seguro”.

Na segunda-feira, a AIUC lançou um consórcio de 50 apoiadores de terceiros Desde empresas de tecnologia (incluindo Anthropic, Google e Meta), grupos industriais e instituições acadêmicas que ajudarão a desenvolver o padrão de certificação à medida que ele evolui.

A agência também está trabalhando no desenvolvimento de um padrão de automutilação para determinar a probabilidade de um sistema de IA criar conteúdo que possa encorajar as pessoas a se machucarem, disse Datani. Essa investigação poderia então informar novas práticas de segurança para os criadores de IA e, por sua vez, um processo de subscrição de seguros para cobrir tais riscos, disse ele.

“A fixação de preços de risco é a forma como as seguradoras obtêm lucro. Uma vez emitida a apólice, não querem pagar sinistros. Quero dizer, claro, honrarão o seu contrato, mas procurarão formas de ajudar os seus clientes a evitar perdas”, disse Christian Trout, investigador de políticas de IA na AIUC. “As seguradoras também enfrentam um risco novo e incerto, por isso querem clareza sobre isso.”

As apólices de seguro da AIUC cobrem até US$ 50 milhões em danos causados ​​por agentes de IA, incluindo alucinações, violações de propriedade intelectual e vazamentos de dados.

Datani disse que se inspirou na abordagem de Benjamin Franklin para reduzir o risco de incêndio nos anos 1700 ao ser cofundador da Philadelphia Contribution – a seguradora de propriedade mais antiga do país – que se tornou um precursor dos códigos de construção modernos ao exigir certos padrões de segurança para que os edifícios fossem seguráveis.

A demanda aumenta à medida que as seguradoras tradicionais ficam para trás

Em abril, a Armila, empresa de avaliação de risco de IA com sede em Toronto, começou de forma semelhante a oferecer seguros especializados a clientes que utilizam agentes de IA. A cobertura abrangente de responsabilidades de IA da Armilla cobre deficiências de desempenho, exposição legal e riscos financeiros associados à adoção de IA em larga escala por uma empresa.

O CEO Karthik Ramakrishnan diz que seus clientes incluem empresas de todos os tamanhos e que a demanda cresce quase diariamente.

“A IA é uma das tecnologias mais democratizantes. Está a ser adoptada por todos os tipos de empresas, todos os tipos de domínio, desde o retalho, à indústria transformadora e à banca”, disse ele. “E assim as consultas para este seguro estão se espalhando por toda parte.

Algumas companhias de seguros, disse ele, estão abandonando totalmente a cobertura de IA por “medo do desconhecido”. Mas Armilla, que começou a trabalhar com empresas para avaliar vulnerabilidades em seus modelos de IA, está ansiosa para preencher o espaço usando seus especialistas em IA e os dados que eles coletaram ao longo dos anos.

A IA é uma das tecnologias mais democratizantes. Ele está sendo adotado por todo tipo de empresa, todo tipo de domínio, desde varejo, manufatura, banco e, portanto, a solicitação desse seguro está chegando a todos.

Karthik Ramakrishnan, CEO da Armila, uma empresa de avaliação de risco de IA com sede em Toronto

Ramakrishnan previu que dentro de apenas alguns anos, o seguro de IA se tornaria o seu próprio mercado próspero. Na verdade, a Deloitte postula que poderia ser um Mercado de US$ 4,8 bilhões até 2032 – embora Ramakrishnan tenha dito acreditar que esse número é subestimado.

A Munich Re, uma companhia de seguros global com sede na Alemanha, lançou o seu seguro de IA no início de 2018, antes do boom generativo da IA. Nos últimos anos, a procura aumentou significativamente.

“A ascensão da IA ​​generativa também criou uma consciência dos riscos que essas ferramentas trazem consigo, e isso é algo que vimos reflectido positivamente na procura que estamos a ver”, disse von Gablenz, que lidera a divisão.

Hoje em dia, disse ele, o aiSure da Munich Re cobre principalmente alucinações de IA, mas também está analisando como pode cobrir reclamações de violação de propriedade intelectual e outros tipos de riscos. Para quantificar o risco relacionado com a IA, as empresas baseiam-se mais nos resultados dos testes do modelo do que nos dados históricos de perdas, que uma seguradora normalmente pode utilizar para definir o preço das suas apólices.

Ramakrishnan e von Gablenz comparam a nascente indústria de seguros de IA à trajetória do seguro cibernético, que começou como um pequeno nicho de mercado antes de se transformar em um mercado próprio multibilionário.

Uma abordagem mista para controle

A economista e pesquisadora de IA Gillian Hadfield há muito defende uma abordagem híbrida para a regulamentação da IA ​​que combine a regulamentação governamental com as forças de mercado. Ele disse que os governos por si só não têm as competências e a velocidade necessárias para acompanhar os rápidos avanços tecnológicos.

“Queremos realmente empregar o poder de mercado para resolver problemas difíceis, para atrair investimentos, para atrair talentos, para atrair capital de risco, para atrair inovação”, disse Hadfield. “E esse problema difícil no contexto da IA ​​é: como podemos fazer com que nossos sistemas de IA façam as coisas que queremos que eles façam, façam coisas boas e não coisas ruins?”

Hadfield está trabalhando com a Fathom, um grupo sem fins lucrativos de proteção de IA, para propor legislação estadual para uma estrutura de governança de IA de terceiros que se baseie no que ele chama de “agência de verificação independente”.

Segundo esse modelo, os governos estaduais ou federais estabeleceriam níveis de risco aceitáveis ​​para os sistemas de IA e autorizariam os avaliadores do setor privado a verificar se as empresas cumprem os padrões. As empresas podem então buscar voluntariamente a certificação de organizações de verificação independentes para demonstrar sua conformidade com a segurança.

Nesse sentido, disse ele, as companhias de seguros poderiam desempenhar um papel no incentivo ao cumprimento das regulamentações de segurança governamentais ou de terceiros, criando requisitos de cobertura.

E Andrew Friedman, cofundador da Fathom, acha que isso seria um incentivo poderoso, já que muitas empresas continuam hesitantes em adotar agentes de IA sem algum tipo de garantia de que as coisas não vão dar errado e deixá-las com a conta.

“Gostaríamos de ver um mercado para tecnologia de verificação, bem como um mercado para capacidades”, disse Friedman. “E acho que estamos na infância disso.” Mas, para ser justo, também acho que estamos na infância da IA ​​– ou pelo menos a IA atingindo a sociedade.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui