Na primavera de 2026, Dario Amodei de repente se tornou um incômodo no Vale do Silício. Huang Renxun quase nomeou Amodei diretamente e criticou ferozmente os CEOs que continuam a prever que a IA eliminará empregos em grande escala por sofrerem de um "complexo de Deus": depois de se tornar CEO, é fácil pensar que você sabe tudo. Altman disse que Amodei estava usando o “medo” para marketing, e Yang Likun simplesmente disse que não entendia como a revolução tecnológica afetaria o emprego.

Até a mídia começou a perguntar: Por que um chefe de IA que fica alertando sobre o fim do mundo não para?
Amoudi ofende as pessoas, é claro, não apenas porque seu senso moral é muito elevado e sua inteligência emocional é muito baixa.
O que é sutil é que ele realmente acreditou nos riscos da IA por muito tempo e de fato transformou essa crença na arma comercial mais afiada da Antrópica.
Esta empresa criada após deixar a OpenAI não é mais apenas uma equipe de pesquisa sob a bandeira de "segurança de IA". Claude Code tornou-se um dos produtos mais poderosos no mercado empresarial de IA, com receitas anuais atingindo bilhões de dólares. O que é ainda mais exagerado é que, de acordo com o Business Insider, a avaliação da Anthropic no mercado secundário privado ultrapassou 1 bilião de dólares.
Quando uma pessoa se mantém moralmente elevada e lembra a todos para desacelerar, e ao mesmo tempo aposta no meio do campo, e as apostas ficam cada vez maiores, é difícil para ela não se tornar um alvo.
01
T AGPH27Público Inimigo
Amoudi está se tornando a pessoa mais desagradável na indústria de IA.
A última pessoa a abrir fogo foi Huang Renxun.
Em um podcast, Huang Renxun chamou os CEOs de tecnologia que frequentemente prevêem que a IA causará desemprego em grande escala e até mesmo trará o risco de extinção humana como sofrendo de um "complexo de Deus".
Sua ideia geral é que, uma vez que você ocupa o cargo de CEO, é fácil para as pessoas começarem a pensar que sabem tudo. Mas a discussão pública sobre a IA deve voltar aos factos, em vez de ser conduzida por narrativas exageradas do Juízo Final.

Essas palavras não foram mencionadas pelo nome, mas é difícil não pensar em Amoudi.
E esta não é a primeira vez que Huang Renxun foi provocado pela narrativa de risco de IA de Amodei.
Amoudi sempre apoiou controles mais rígidos de exportação de chips e até escreveu um longo artigo pedindo restrições mais fortes. No Fórum de Davos deste ano, ele comparou a exportação de chips avançados de IA para a China à “venda de armas nucleares”.
É claro que Jen-Hsun Huang não aceitaria esta declaração.
Em outro podcast, quando Huang foi questionado sobre essa analogia, ele disse diretamente que era "ridículo". Ele acredita que comparar chips de IA com armas nucleares é uma analogia pobre e ilógica.

Se o contra-ataque de Huang Jen-Hsun vem do conflito direto de interesses entre a Nvidia e a Anthropic na política de chips, então o ataque da OpenAI é mais como um confronto frontal entre antigos rivais.
Em uma conversa de podcast, Altman disse que a Anthropic está usando o “medo” para marketing.
Ele usou uma metáfora bastante dura: é como se alguém dissesse: construímos uma bomba e vamos jogá-la na sua cabeça em breve, e então poderemos lhe vender um abrigo antiaéreo por US$ 100 milhões.

Esta frase obviamente aponta para o Claude Mythos Preview recém-lançado pela Anthropic. De acordo com o próprio comunicado da Antrópico, este modelo de segurança de rede é muito poderoso e não será aberto ao público por enquanto. Em vez disso, será colocado em um projeto chamado “Wings of Glass” para realizar trabalhos de segurança defensiva para organizações parceiras.
Este não é o único “ataque” da OpenAI. Em 13 de abril, The Verge divulgou um memorando interno de quatro páginas enviado aos funcionários por Denise Dresser, diretora de receitas da OpenAI. O tema do memorando é como conquistar o mercado de IA empresarial, mas uma seção é dedicada a discutir o Antrópico, que quase desmantela o oponente ponto por ponto.

Ele escreve que a história da Anthropic é construída sobre “medo, restrições e a noção de que uma pequena elite deve controlar a IA”.
Ela também disse que a Anthropic dependia muito de cenários de código e tinha reservas de poder de computação insuficientes, e questionou sua declaração de receita anual, dizendo que a Anthropic incluiu sua divisão de receita com Amazon e Google em uma base total, resultando em sua receita anualizada de US$ 30 bilhões sendo superestimada em aproximadamente US$ 8 bilhões.
Amodei e Ultraman são velhos inimigos, OpenAI e Anthropic são concorrentes diretos; O negócio de chips de Huang Renxun também foi diretamente afetado pelas propostas políticas da Amodei. O contra-ataque parece estar no caminho certo.
Mas ainda não acabou.
Yann LeCun também criticou publicamente Amoudi no X. Desta vez, a controvérsia surge do impacto da IA no emprego.
Em 2025, Amodei disse em uma entrevista à Axios que a IA pode eliminar metade dos empregos básicos de colarinho branco nos próximos um a cinco anos e empurrar a taxa de desemprego para 10% a 20%. Ele também disse que as empresas e reguladores de IA não podem continuar a suavizar ou minimizar o impacto que está por vir.
Em resposta ao julgamento de Amodei sobre o emprego, Yang Likun disse no X: “Dario está errado” e “ele não sabe nada sobre como a revolução tecnológica afeta o mercado de trabalho”. Ele até disse que tais questões deveriam ser ouvidas pelos economistas, e não por qualquer pessoa do círculo de IA, incluindo o próprio Yang Likun.

Até a opinião pública começou a ter algumas dúvidas.
Apenas para dar exemplos de comentários de meios de comunicação conhecidos: o Times questionou por que o gigante da IA que alertou sobre o fim do mundo não parou sozinho. O TechCrunch apontou que a Anthropic restringiu a abertura do Mythos, aparentemente para proteger a segurança da Internet, mas esta abertura seletiva também pode ajudá-la a prender grandes clientes corporativos e impedir que pequenas empresas reproduzam capacidades através da destilação, protegendo assim os seus próprios interesses comerciais.

Obviamente, Amoudi lidera a Antrópico e ocupa algum tipo de posição moral elevada. Mas quanto mais você fica em terreno elevado, mais você se torna um alvo.
A questão é: é só porque Amoudi é muito íntegro, muito insistente na "segurança" e não hesita em ofender os outros, que ele está sendo atacado por sua vez?
Quanto mais Amodei tenta ser um "marcador moral", mais flagrante é o paradoxo moral que ele tem - ele fica no meio do campo, fazendo apostas enquanto lembra a todos que este jogo pode ser tóxico.
Isso é tão estranho.
02
“ Como surgiu o “Rei da Segurança” sobre
No memorando, a diretora de receita da OpenAI, Denise, mencionou uma palavra: “elite”. no terreno moral quase se tornou o auge de sua reputação. Enfrentando as exigências do Departamento de Guerra dos EUA, a Antrópico recusou-se a relaxar os limites do uso de Claude, insistindo que não era permitido usá-lo para vigilância em grande escala, nem era permitido usá-lo em armas totalmente autônomas sem a participação humana na tomada de decisões.

Amoudi disse na época que “não podiam, em sã consciência, concordar” com o pedido. Naquele momento, o público aplaudiu com uma sensação de libertação há muito perdida. "não" a um poder maior.
Para entender de onde vem esse “rei da segurança”, ainda temos que olhar para suas origens
Amoudi nasceu em São Francisco em 1983. Seu pai, um trabalhador de couro italiano da Toscana, sofria de. problemas de saúde de longo prazo e morreu quando Amodei era jovem; sua mãe, uma judia-americana nascida em Chicago, trabalhou como gerente de projetos de biblioteca
Amoudi é um dos melhores alunos de ciências desde criança. Ele frequentou uma das escolas públicas de elite mais famosas de São Francisco e foi selecionado para a equipe das Olimpíadas de Física dos EUA em 2000. Tecnologia, uma das melhores escolas de ciência e engenharia dos Estados Unidos, foi transferida para Stanford para obter um diploma de graduação em física e, finalmente, foi para Princeton para concluir um doutorado em biofísica
Ele é uma figura técnica que combina física, neurociência e pesquisa de IA em múltiplas dimensões, o que também determina sua perspectiva complexa.

Em 2014, Ng recrutou Amodei para o laboratório de inteligência artificial do Baidu no Vale do Silício para participar na pesquisa de sistemas de reconhecimento de fala. Mais tarde, ele se tornou um dos autores do artigo Deep Speech 2. Este sistema concentra-se no reconhecimento de fala ponta a ponta, abrangendo inglês e mandarim. Ele também tenta usar dados em maior escala, poder computacional e treinamento para refazer o processo tradicional de reconhecimento de fala. Foi nessa época que Amodei começou a desenvolver seus primeiros instintos sobre escala. Mais tarde, ele lembrou em uma entrevista que descobriu que quando o modelo fosse maior, os dados fossem maiores e o tempo de treinamento fosse maior, os resultados continuariam a melhorar. Para ele, a crença no Scaling que mais tarde percorreu o GPT e a geração de grandes modelos de Claude já havia lançado as bases para o reconhecimento de fala do Baidu.
Daniela Amodei também desempenha um papel importante. Ela também deixou a OpenAI, e o irmão e a irmã foram cofundadores da Anthropic.
O irmão e a irmã formam uma estrutura dual-core. Amoudi é mais um representante das linhas técnicas e narrativas de segurança, enquanto Daniela é mais responsável pelas operações da empresa, construção organizacional e promoção de negócios. O temperamento único da Anthropic hoje – parecendo uma instituição de pesquisa de segurança, por um lado, e uma empresa de IA com rápido financiamento e rápida expansão, por outro – vem em grande parte desta combinação.

Esse vínculo familiar também traz uma sensação especial de estabilidade para a Antrópica, tornando a empresa mais parecida com um pequeno grupo que se separou da antiga organização, com uma forte identidade própria, pensando que quer fazer IA de outra forma.
No final de 2020, a OpenAI emitiu uma atualização organizacional muito educada, anunciando que o então vice-presidente de pesquisa Amodei estava saindo. O artigo agradece por suas contribuições nos últimos cinco anos, menciona sua participação no GPT-2, GPT-3 e define direções de pesquisa em conjunto com Ilya Sutskever e outros.
O mais sutil é que a OpenAI também escreveu que Amoudi e vários colegas planejam iniciar um novo projeto que “pode se concentrar menos no desenvolvimento de produtos e mais em pesquisa”. A maioria das outras páginas é usada para mostrar a determinação da OpenAI no campo da segurança.

Anos depois, quando o conflito entre a Anthropic e a OpenAI se tornou público, as pessoas relembraram a amigável “separação” daquele ano. Não é difícil ver que os dois lados já tinham diferenças sobre como o crescimento das capacidades de IA e dos limites de segurança deveria ser priorizado.
Alguns meses depois, a Anthropic foi fundada. Desde então, a segurança passou lentamente de uma postura pessoal de Amodei para a espinha dorsal da empresa.
Possui RSP, que é a “Política de Escalabilidade Responsável”. Ele usa níveis ASL para definir requisitos de risco para modelos em diferentes estágios de capacidade, um pouco como a versão AI dos níveis de biossegurança; orienta o comportamento do modelo através de um conjunto de princípios “constitucionais”; também continua a investir em pesquisas sobre interpretabilidade e tenta abrir a caixa preta do modelo.
Amodei certamente está tirando vantagem da “segurança”, mas apenas se ele também acreditar verdadeiramente na segurança a longo prazo. Desde deixar a OpenAI até fundar a Anthropic, passando por RSP, AI "Constituição", explicabilidade, classificação de risco de modelo e limites de contrato de defesa, seu comportamento tem sido bastante consistente no longo prazo.
É aqui também que Amoudi é complicado.
Ele tem uma forte autoconfiança de elite - tenho visto riscos maiores, por isso estou qualificado para lembrar a todos que devem ser mais lentos, mais rígidos e com mais medo. Mas é a mesma confiança que o faz parecer condescendente.
E quando Amoudi começa a dirigir uma empresa, quando a "moralidade" encontra os negócios, o delicado equilíbrio se torna ainda mais difícil de manter.
03
Quando “Seguro” se torna a linha principal do empresa
“Segurança” é tanto o negócio da Anthropic quanto seu mecanismo de triagem.
O que há de especial na Anthropic é que ela era uma nova organização formada por um grupo de pessoas que deixaram a OpenAI desde o início. As razões para a saída incluíram rotas técnicas, conceitos de segurança e divergências sobre “quem deveria definir o futuro da IA”.
Portanto, a cultura é particularmente importante no Antrópico, mais como um sistema operacional.

Amoudi é um designer organizacional com temperamento de pesquisador. Certa vez, ele disse em uma entrevista que cerca de um terço, ou até 40%, de seu tempo é gasto garantindo que a cultura da Antrópica seja boa.
Anthropic sempre fala sobre cautela, contenção e limites na superfície, mas internamente não é uma cultura morna. Pelo contrário, a Anthropic possui um canal no Slack semelhante a um caderno público pessoal, onde os funcionários escrevem suas próprias ideias, o andamento do trabalho e até debatem diretamente sobre Amoudi.
É concebível que, seja o limiar de entrada da Antrópico ou a contínua formação e colisão da cultura interna, algum tipo de mecanismo de triagem de talentos tenha sido formado.
No ano passado, Meta agitou seu talão de cheques em todos os lugares para recrutar pessoas a fim de fortalecer sua equipe de IA. O preço do talento na indústria de IA foi elevado a um nível exagerado, e os principais pesquisadores e engenheiros quase se tornaram superestrelas no mercado livre. Diante desse tipo de caça furtiva, algumas empresas instintivamente “seguem o preço”, ou pelo menos declaram explicitamente que desejam aumentar os salários dos funcionários e manter as pessoas em primeiro lugar.

Amoudi não fez isso. Ele explicou publicamente que a Anthropic não quebrará imediatamente seus princípios de remuneração só porque uma empresa externa faz uma oferta altíssima a alguém. Ele disse que se Zuckerberg acertar o nome de alguém aleatoriamente como um dardo, isso não significa que essa pessoa deva receber dez vezes mais do que o colega igualmente talentoso ao lado dele.
O que é ainda mais interessante é que Amodei disse que alguns funcionários da Anthropic não estavam dispostos a falar com Zuckerberg quando confrontados com a caça furtiva de Meta. Certamente há um elemento de exibição nesta frase. Mas o que realmente quer transmitir é que o “consenso” entre os colaboradores da Antrópico existe e é forte.
Amodei deve convencer os funcionários de que a Anthropic não é outra empresa de IA que só quer funcionar mais rápido; ao mesmo tempo, ele deve liderar esta empresa para que ela realmente funcione com rapidez suficiente. Caso contrário, por mais bela que seja a narrativa de segurança, ela se tornará apenas um comentário moral à margem do jogo.
"Segurança" alcançou ótimos resultados como negócio.
A Anthropic atraiu naturalmente clientes que possuem requisitos mais elevados de confiabilidade e controlabilidade desde o início. Quando o Claude foi lançado, ele enfatizou a confiabilidade, a previsibilidade e a capacidade de inicialização. Seus primeiros parceiros foram ferramentas de produção de conhecimento, pesquisa, educação e fluxo de trabalho, como Notion, Quora, DuckDuckGo e Juni Learning.
Anthropic não vende o “modelo mais barato”. Empresas, governo, código, finanças, saúde, educação, setor público – esses clientes se preocupam mais com estabilidade, conformidade, limites de segurança e responsabilidade de longo prazo. Também se percebe pelo preço que Claude não é uma rota de baixo preço. O preço de Claude Opus 4.7 é de US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de saídas; Claude Sonnet 4.6 custa US$ 3 de entrada e US$ 15 de saída. Em comparação, o Grok 4.20 da xAI tem uma entrada de $2 e uma saída de $6, o que é obviamente mais radical; O GPT-5.5 da OpenAI tem uma entrada de US$ 5 e uma saída de US$ 30, que está na mesma faixa de preço alta de Claude Opus.

Reuters também informou anteriormente que a Anthropic tem mais de 300.000 clientes comerciais e empresariais, que contribuem com cerca de 80% da receita. Os clientes corporativos pagam com base no uso, com retenção mais estável e maior espaço para expansão. Depois de inserir código, fluxo de escritório, plataformas em nuvem e sistemas governamentais, a receita é incomparável a produtos de assinatura comuns.
Em contraste, OpenAI fez o maior barulho no lado C com ChatGPT e, de fato, educou os usuários em massa em uma escala sem precedentes; entretanto, ter muitos usuários do lado C não significa que a estrutura de receitas seja a melhor.
A última declaração da OpenAI é que a receita corporativa ultrapassou 40% da receita total e espera alcançar o lado do consumidor até o final de 2026. Em outras palavras, até a OpenAI está trabalhando duro para entrar no mercado empresarial.

A cooperação da Anthropic com o Departamento de Guerra dos EUA (DoW) é um exemplo típico. Por muito tempo, a Anthropic foi a única empresa de IA com a qual a DoW cooperou no “campo confidencial”. Claude é usado para tarefas como análise de inteligência, modelagem e simulação, planejamento de combate e operações cibernéticas.
Seguindo esta linha de pensamento, olhando para trás, para a feroz “luta” entre Antrópico e DoW, isso mostra a capacidade de Amodei de tratar a segurança como um negócio - enfatizando o resultado final de “vigilância em massa” e “armas autônomas”, mesmo que ele tenha perdido a cooperação com o DoW, a visibilidade pública e a “confiabilidade” da Antrópico foram elevadas a um nível mais alto, e ganhou um favor sem precedentes no mercado de capitais.
A receita anual da Anthropic aumentou de US$ 9 bilhões no final de 2025 para US$ 30 bilhões em abril de 2026; em fevereiro deste ano, completou US$ 30 bilhões em financiamento com uma avaliação de US$ 380 bilhões, e então o Google planejou investir até US$ 40 bilhões nele. Alguns relatórios indicam que a sua valorização no mercado secundário atingiu 1,1 biliões de dólares.
Segurança parece uma restrição, mas na Anthropic acaba sendo uma linguagem de negócios de nível superior.
Mas esta técnica de gestão certamente tem seu lado perigoso.
Quando uma empresa transforma a “segurança” numa crença organizacional, ganhará naturalmente um sentido de superioridade moral e será mais fácil retratar os concorrentes como pessoas irresponsáveis e empacotar as escolhas empresariais em escolhas de valor.
É por isso que quanto mais bem-sucedido o Antrópico é, mais desconfortável fica Amoudi.
04
Dois lados da “segurança”TAGPH 10
Seria é um pouco ingênuo considerar Amoudi apenas como um "homem da ciência e da engenharia" que tem ideais e resultados financeiros, mas baixa inteligência emocional, então ele sempre diz a verdade e ofende os outros.
O Wall Street Journal publicou uma vez um artigo relembrando a rivalidade de 10 anos entre Amodei e Ultraman.
A história de Amodei na OpenAI está longe de ser explicada por “diferenças nos conceitos de segurança”.

Em 2018, após a retirada de Musk, Amodei concordou em ficar com a condição de que Brockman (um dos cofundadores) e Sutskowe não assumissem o poder - ele falou pela primeira vez sobre distribuição de energia, não rotas técnicas.
Mais tarde, no projeto do modelo principal, ele e sua irmã Daniela se uniram para bloquear Brockman que queria entrar. Uma das razões foi que um determinado pesquisador principal “não queria trabalhar com ele”. O pesquisador mais tarde descreveu a si mesmo como sendo usado como uma “arma por procuração” por executivos seniores, o que mostra que Amodei sabe como usar as pessoas para formar alianças.
À medida que o GPT-2/3 se tornou popular, ele se tornou cada vez mais sensível à atribuição e exposição de crédito: ele estava insatisfeito com o fato de Brockman "roubar os holofotes" no podcast e ficou irritado quando descobriu que Altman e Brockman iriam encontrar Obama sem ele.
No ano seguinte, pediu para ser promovido a vice-presidente de pesquisa. Altman concordou e incluiu no e-mail do conselho de administração "Amody promete não menosprezar projetos que não aprova", o que era como uma cláusula de cessar-fogo.
Esses detalhes mostram que a segurança é o credo de Amoudi e uma arma organizacional afiada. Ele fala sobre condições, lutas por projetos e lutas pelo direito de falar, e usa a linguagem do “risco” para definir quem pode ficar no núcleo.
Finalmente saiu da OpenAI para fundar a Anthropic. Não foi tanto uma partida ideal, mas sim uma mudança no campo de batalha após o fracasso da luta interna pelo poder.
Quando assumiu o comando da Antrópico, a situação ficou mais complicada. O Anthropic não é mais um campo de testes ideal em um laboratório de pesquisa, mas um navio de guerra comercial em rápido crescimento. Neste momento, a segurança deixou de ser um princípio puro para se tornar um sólido argumento de venda de produtos.
Quanto mais a Antrópica enfatiza os riscos da IA de forma destacada, mais destaca a necessidade de sua própria existência; quanto mais acusar os outros de agirem demasiado depressa, mais poderá apresentar-se como o parceiro mais fiável das empresas, dos governos e dos reguladores.
Sua narrativa carrega naturalmente uma comparação moral. Escolher Claude não é apenas escolher um modelo, mas também escolher um caminho mais responsável e controlável.
Para os concorrentes, isso é muito chato. Você apenas vende produtos e convenientemente faz com que os outros pareçam jogadores irresponsáveis. A segurança tornou-se um fosso de diferenciação e uma ferramenta de marketing. Os clientes empresariais estão dispostos a pagar mais pela “paz de espírito” e os departamentos governamentais estão mais propensos a entregar projetos sensíveis à empresa “mais segura”.
Neste processo, a segurança também se tornou uma moeda de troca política.
Axios informou que no primeiro trimestre de 2026, os gastos com lobby federal da Anthropic atingiram US$ 1,6 milhão, ultrapassando US$ 1 milhão da OpenAI e estabelecendo seu próprio recorde; já havia anunciado um investimento de US$ 20 milhões em uma organização de defesa bipartidária com foco na transparência da IA e nas proteções de segurança, e planeja expandir sua equipe política e estabelecer um escritório de longo prazo em Washington.
Para ser franco, Amodei já está competindo pelas regras do jogo na era da IA.
A complexidade de Amodei reside no fato de que essas duas coisas podem ser verdadeiras ao mesmo tempo: ele acredita na segurança da IA e de fato transformou a segurança da IA na arma comercial mais afiada da Antrópica. A segurança é tanto a sua religião como a sua alavanca de poder.
Princípios e interesses não são simplesmente opostos, mas alimentam-se e fortalecem-se mutuamente. É este entrelaçamento de verdade e falsidade que o faz ser elogiado como o “rei da segurança” e também considerado por alguns como um comerciante astuto.
Antrópica Quanto melhor você explicar os riscos, mais oportunidades terá para defini-los; quanto mais oportunidades você tiver para definir riscos, mais poderá se colocar no centro das regras da era da IA.
Esta é a “mágica de segurança” de Amoudi, e “inimigo público” é um efeito colateral necessário de jogar mágica.
Talvez ele goste.