Depois de anunciar fortes resultados financeiros no primeiro trimestre de 2026, a CEO da AMD, Lisa Su, disse na teleconferência que, com o advento da era Agentic AI (inteligência artificial de agente), o uso de CPU em data centers está sendo levado a níveis sem precedentes. Ela disse que sob esta nova tendência, o número de CPUs e GPUs em um único nó de computação está gradualmente se aproximando de um para um, de um para muitos no passado, e pode até haver mais CPUs do que GPUs no futuro.

Ao responder perguntas dos analistas, Su Zifeng apontou que os clusters tradicionais de treinamento e inferência de IA geralmente usam uma configuração de “uma CPU com quatro a oito GPUs”. A CPU desempenha mais um papel de “host”, responsável por agendar e iniciar tarefas de computação da GPU. No modo Agentic AI, um grande número de agentes autônomos precisa contar com a CPU do host para realizar continuamente atualizações de status, orquestração de tarefas e colaboração, o que está mudando fundamentalmente a forma dos nós de computação.
De acordo com Su Zifeng, com o rápido aumento no número de agentes, a proporção de CPU para GPU está se aproximando de 1:1. Ela até sugeriu que, se clusters futuros executarem “um número extremamente grande” de agentes, é inteiramente concebível ter mais CPUs do que GPUs em um único nó. Isso significa que a onda de expansão acelerada da computação liderada por GPU dos últimos anos está sendo sobreposta por uma onda de demanda de CPU impulsionada por “cargas de trabalho de agentes”.
A essência da chamada IA Agentic é executar vários “agentes inteligentes” autônomos em cima de um grande modelo de linguagem (LLM) para concluir automaticamente processos de tarefas complexas. Por exemplo, em um cenário de desenvolvimento de software, um agente pode revisar o código sozinho, implementar modificações, aguardar a conclusão da compilação e continuar a corrigir novos bugs quando eles forem descobertos, quase sem necessidade de intervenção manual em todo o processo. No entanto, para coordenar, agendar e orquestrar essas tarefas de agente em execução paralela, o sistema deve contar com a CPU para fornecer controle contínuo e capacidades de gerenciamento.
Sob tais cargas de trabalho, a CPU não é mais apenas uma função de suporte no “início do treinamento ou inferência da GPU”, mas se tornou o centro central que conduz a operação de todo o sistema Agentic AI. À medida que mais e mais tarefas são divididas e delegadas aos agentes, a utilização da CPU atinge níveis extremamente altos, mesmo na era de rápida expansão da computação acelerada por GPU. O relatório citou a declaração da AMD dizendo que a empresa está atualmente “vendendo quase todas as CPUs que pode fornecer para laboratórios de IA e provedores de serviços de nuvem em hiperescala” para atender a esta onda de novas demandas trazidas por tarefas de agentes inteligentes.
Isso também significa que, no projeto da futura infraestrutura de IA, a relação entre CPU e GPU pode mudar de "mestre-escravo" para uma forma mais igual ou até mais intensiva em CPU. Para os fornecedores de chips, a Agentic AI não apenas continua a impulsionar a demanda por GPUs, mas também deverá abrir uma nova rodada de crescimento no mercado de CPU para servidores.