A Casa Branca se opôs aos planos da Anthropic de expandir o uso de seu modelo de inteligência artificial (IA) Mythos, complicando o lançamento de uma ferramenta de IA capaz de lançar ataques cibernéticos e causar caos generalizado na rede. A Anthropic propôs recentemente adicionar mais 70 empresas e organizações para usar o Mythos, elevando o número total de entidades com acesso para cerca de 120, disseram pessoas familiarizadas com o assunto.
Autoridades do governo dos EUA disseram à empresa que se opunham à medida por questões de segurança, disseram essas pessoas. Alguns funcionários da Casa Branca também estão preocupados com o fato de a Anthropic não ter capacidade computacional suficiente para atender tantas novas entidades sem afetar a capacidade do governo de usar o modelo de forma eficaz, disse uma das pessoas.
Dado que o modelo Mythos representava um risco para a segurança nacional, a Casa Branca envolveu-se na sua promoção. A capacidade do modelo de encontrar e explorar vulnerabilidades de software alarmou agências governamentais e empresas nas últimas semanas. As discussões entre a Anthropic e a Casa Branca visam abordar esses riscos e tentar reparar a relação entre a Anthropic e o governo.
A rejeição da Casa Branca ao pedido da Anthropic para permitir que mais organizações utilizem o Mythos mostra que, apesar dos esforços de ambos os lados para acalmar a situação, a relação continua complicada. O governo dos EUA tentou romper os laços com a Anthropic enquanto a empresa brigava com o Pentágono sobre como os militares usam suas ferramentas de IA, uma batalha que está avançando no sistema jurídico por meio de dois processos judiciais separados.
O Anthropic está inicialmente aberto para uso por cerca de 50 empresas e organizações que gerenciam infraestrutura crítica, e não há planos para lançamento público. Algumas agências governamentais têm acesso e a administração Trump está a trabalhar para expandir isso.
Um funcionário da Casa Branca disse que o governo dos EUA está a equilibrar a inovação e a segurança ao trabalhar com a indústria privada para garantir que os modelos de IA sejam promovidos com segurança.
