O Google assinou um novo acordo com o Pentágono para abrir o acesso às suas próprias ferramentas de IA para suas redes classificadas, permitindo quase todos os “usos legais” depois que a Anthropic rejeitou um pedido do Departamento de Defesa dos EUA para autorizar usos sensíveis. Vários relatos da mídia afirmaram que este acordo significa que o Departamento de Defesa pode implantar a IA do Google de forma mais ampla em ambientes classificados para análise de inteligência, suporte a decisões e outros cenários.

O incidente foi desencadeado pela posição pública da Anthropic contra a administração Trump. Anteriormente, o Pentágono queria utilizar os modelos da Antrópico com poucas restrições, incluindo a utilização de IA para vigilância doméstica em massa e sistemas de armas autónomos, mas a Antrópico insistiu em adicionar "proteções" claras ao contrato que proíbe tais utilizações. Como a Anthropic se recusou a cooperar com esses casos de uso, o Departamento de Defesa posteriormente colocou a empresa modelo em uma lista de “risco da cadeia de suprimentos” – um rótulo normalmente reservado para entidades consideradas “adversários estrangeiros”.

A Anthropic entrou com uma ação judicial em torno da designação. Em março deste ano, um juiz atendeu ao pedido da Anthropic para emitir uma liminar sobre a determinação do “risco da cadeia de abastecimento” enquanto o caso estava pendente, evitando temporariamente a propagação das consequências administrativas relacionadas.

No meio deste conflito, outras grandes empresas de IA foram rápidas a aproveitar a oportunidade, tentando transformar as “perdas” da Anthropic em “ganhos” próprios. A OpenAI assinou um acordo com o Departamento de Defesa o mais rápido possível. Mais tarde, a xAI também obteve acesso a redes confidenciais, o que fez com que alguns membros do Congresso dos EUA questionassem a tomada de decisões do Pentágono. Agora, a Google tornou-se a terceira empresa a chegar a um acordo semelhante com os militares, e a sua cooperação expandiu ainda mais a gama de grandes modelos disponíveis para o sistema de defesa dos EUA.

De acordo com o Wall Street Journal, o texto do acordo do Google com o Pentágono também incluía linguagem afirmando que a empresa “não pretende” que a sua IA seja utilizada para vigilância doméstica em massa ou armas autónomas, semelhante a partes do contrato OpenAI. No entanto, o relatório também salientou que ainda há incerteza sobre se estas disposições são verdadeiramente juridicamente vinculativas e como serão monitorizadas e responsabilizadas na implementação efetiva.

Vale a pena notar que o Google está a promover esta grande ordem militar enquanto a oposição interna não diminuiu. Até agora, 950 funcionários do Google assinaram uma carta aberta pedindo à empresa que siga o exemplo da Anthropic e não venda recursos de IA ao Departamento de Defesa sem restrições de uso claras e aplicáveis. O Google ainda não respondeu à carta conjunta e ao conteúdo específico do novo contrato, nem respondeu aos pedidos de comentários da mídia.

No contexto da rápida penetração da inteligência artificial nos domínios da segurança pública e militar, este incidente reflecte um conflito de valores cada vez mais agudo entre gigantes da tecnologia, governos e os seus próprios funcionários. Por um lado, os militares procuram maximizar a utilização de ferramentas de IA de ponta para melhorar as capacidades; por outro lado, algumas empresas tecnológicas e os seus funcionários tentam estabelecer um resultado final para as aplicações militares e de segurança da IA ​​através de termos contratuais e pressão da opinião pública. A escolha do Google de expandir a cooperação com o Pentágono em vez de seguir a postura dura da Antrópico intensificou ainda mais a controvérsia em torno de “quem deveria traçar limites para o uso de IA”.