A administração Trump nos Estados Unidos está a considerar aprovar um pacote de medidas administrativas para reforçar os controlos sobre modelos de inteligência artificial de ponta para lidar com os crescentes riscos de segurança nacional. As discussões na Casa Branca sobre novos regulamentos, que incluiriam o estabelecimento de um mecanismo formal de revisão e divulgação para modelos avançados de IA, estão em curso há algum tempo, de acordo com sete representantes da indústria tecnológica e conselheiros políticos aos quais foi concedido anonimato.

Várias pessoas familiarizadas com o assunto disseram que em recentes comunicações a portas fechadas com a indústria, uma das ideias propostas pela Casa Branca foi estabelecer um sistema de revisão na forma de uma ordem executiva para avaliar o impacto potencial dos chamados "modelos de IA de ponta". Um especialista em políticas de IA e uma fonte da indústria disseram que, sob este esquema, as empresas podem precisar de obter “luz verde” do governo federal antes de lançar modelos de alta capacidade. O New York Times já tinha divulgado que a Casa Branca estava a considerar uma estrutura de revisão semelhante.

Um porta-voz da Casa Branca disse que qualquer política formal seria anunciada pessoalmente pelo presidente Donald Trump, e que as discussões atuais sobre possíveis ordens executivas ainda são "especulação". Ao mesmo tempo, cada vez mais empresas tecnológicas cooperam voluntariamente com o governo e submetem ativamente novos modelos para revisão antes de serem colocados online. Ainda na terça-feira, a administração Trump chegou a um acordo com a Microsoft, xAI e Google DeepMind para permitir ao governo realizar uma avaliação de risco à segurança nacional numa nova geração de modelos antes de serem tornados públicos.

Esta série de ações ocorre num momento em que o desconforto público generalizado em relação à IA continua a aumentar, incluindo preocupações sobre a segurança da própria tecnologia e questões sobre o enorme investimento da indústria em campanhas políticas. Uma pesquisa POLITICO divulgada no início deste mês mostrou que os eleitores dos EUA estão significativamente céticos em relação à inteligência artificial em geral. Neste contexto, um mecanismo formal de revisão pré-implantação da IA ​​é apenas uma de uma série de medidas administrativas actualmente a ser consideradas pela Casa Branca. Outras ideias incluem adotar uma abordagem mais dura aos riscos de segurança colocados pela IA e limitar o espaço para a indústria tecnológica combater os requisitos de segurança e políticas governamentais.

O governo está preparando um projeto de ordem executiva de 16 páginas que proibiria o setor privado de “interferir” no uso de modelos de IA pelo governo, de acordo com quatro pessoas familiarizadas com o assunto. O projeto também planeja reforçar os padrões federais de aquisição e contratação e dar ao governo maior agência no trabalho com fornecedores de IA. As disposições são amplamente vistas como uma resposta direta a um impasse recente entre a Casa Branca e a empresa de IA Anthropic, que se recusou a permitir que os militares usassem o seu modelo Claude para monitorizar cidadãos dos EUA ou alimentar armas autónomas, provocando protestos do Departamento de Defesa.

Em resposta, o secretário de Defesa Pete Hegseth classificou em março a Anthropic como um “risco à segurança da cadeia de suprimentos”, uma medida rara que restringiu imediatamente a capacidade das agências federais de usar os produtos da empresa. Muitos observadores salientaram que a actual ronda de políticas em torno da IA ​​marca uma mudança importante no pensamento regulamentar da administração Trump. Antes disso, sob o lobby de capitalistas de risco "laissez-faire", como David Sacks e Marc Andreessen, a Casa Branca sempre adoptou uma atitude relativamente frouxa e "leve" em relação à regulamentação e supervisão da indústria da IA.

Agora, esta aparentemente “virada brusca” está despertando vigilância no círculo tecnológico. Alguns representantes da indústria estão preocupados com a possibilidade de um controlo governamental mais rigoroso abrandar o ritmo da inovação. Daniel Castro, presidente do think tank "Information Technology and Innovation Foundation", disse que ninguém quer entrar num mundo onde "cada nova versão do modelo precisa ser submetida primeiro ao governo para aprovação". Ele alertou que a “velocidade do Vale do Silício” é muito diferente da “velocidade de Washington” e que os Estados Unidos devem continuar avançando rapidamente se quiserem competir com a China em IA.

A ordem executiva proposta também visa novas ameaças representadas pela IA de ponta em segurança cibernética, especificamente o novo modelo Mythos da Anthropic. Embora o modelo ainda não tenha sido divulgado ao público, os primeiros resultados dos testes realizados por governos e grandes instituições mostram que a Mythos é capaz de encontrar e explorar vulnerabilidades de software de maneiras muito além das capacidades dos hackers humanos. Duas pessoas familiarizadas com as discussões revelaram que o projecto considera a formulação de directrizes técnicas e melhores práticas para “modelos de peso aberto” para reforçar a protecção da segurança. Esses modelos exporão parâmetros de treinamento e permitirão que os usuários os treinem novamente e modifiquem para diferentes tarefas. A Casa Branca também está a considerar mobilizar a comunidade de inteligência para ajudar na defesa contra ameaças a sistemas críticos representadas pela IA de ponta, acrescentaram três pessoas familiarizadas com o assunto.

Os riscos potenciais representados pelo Mythos despertaram alerta máximo entre altos funcionários do governo Trump. Vários funcionários temem que, em meio ao impasse com a Anthropic, as agências federais tenham dificuldade em obter o Mythos para usar em sistemas críticos de "teste de resistência". Nas últimas semanas, a Casa Branca começou a “esfriar” as tensões com a empresa de IA. A administração está a avançar para estabelecer um conselho de revisão para reavaliar a determinação do risco da cadeia de abastecimento feita na Anthropic, disseram duas fontes, mas não está claro se este acordo será incluído no texto da ordem executiva final da IA.

Do lado de fora, o surgimento do Mythos está remodelando a estrutura de discussão em torno da IA ​​e da segurança nacional dentro da Casa Branca. Saif Khan, que atuou como consultor de tecnologia emergente na administração Biden e agora é pesquisador do think tank Institute for Progress, disse que antes havia um certo grau de desprezo pelos riscos relacionados dentro do governo, "mas agora, muitas pessoas estão começando a levar este assunto extremamente a sério". Na sua opinião, a era da política de IA guiada exclusivamente pela lógica do capital de risco de Silicon Valley pode estar a chegar ao fim dentro da administração Trump.