Meta, OpenAI e Microsoft declararam na AMD Investor Conference realizada na quarta-feira que usarão o mais recente chip de inteligência artificial da AMD, InstinctMI300X. A mudança mostra que a comunidade tecnológica está buscando ativamente alternativas às caras GPUs Nvidia. O MI300X tem grandes esperanças na indústria. Afinal, “o mundo sofre com Vida há muito tempo”. A GPU carro-chefe deste último não é apenas cara, mas também tem uma quantidade de fornecimento muito limitada. Se o MI300X puder ser adotado em larga escala, espera-se que reduza o custo de desenvolvimento de modelos de inteligência artificial e crie pressão competitiva sobre a Nvidia.

Quão mais rápido que a GPU da Nvidia?

A AMD disse que o MI300X é baseado em uma nova arquitetura e melhorou significativamente o desempenho. Sua maior característica são os 192 GB de memória de última geração e alto desempenho, HBM3, que transfere dados com mais rapidez e pode acomodar modelos maiores de inteligência artificial.

Su Zifeng comparou diretamente o MI300X e o sistema que ele constrói com a GPU H100, carro-chefe da Nvidia (geração anterior).

Em termos de especificações básicas, a velocidade de operação de ponto flutuante do MI300X é 30% maior que a do H100, a largura de banda da memória é 60% maior que a do H100 e a capacidade da memória é mais que o dobro da do H100.

Claro, o MI300X é mais comparado com a mais recente GPU H200 da NVIDIA. Embora também seja líder em especificações, a vantagem do MI300X sobre o H200 não é tão grande. A largura de banda da memória é apenas um dígito maior que a última, e a capacidade é quase 40% maior que a última.


Su Zifeng acredita:

“Esse desempenho se traduz diretamente em uma melhor experiência do usuário e, quando você faz uma pergunta a um modelo, deseja que ele responda mais rapidamente, especialmente à medida que as respostas se tornam mais complexas.”

Su Zifeng: AMD não precisa vencer a Nvidia pelo segundo lugar para viver bem

A principal questão que a AMD enfrenta é se as empresas que dependem da Nvidia investirão tempo e dinheiro para adicionar outro fornecedor de GPU.

Su Zifeng também admitiu que essas empresas precisam “fazer esforços” para mudar para chips AMD.

A AMD disse a investidores e parceiros na quarta-feira que melhorou seu pacote de software ROCm que compara o CUDA da Nvidia. O conjunto CUDA tem sido uma das principais razões pelas quais os desenvolvedores de IA atualmente favorecem a NVIDIA.

O preço também é importante. A AMD não revelou o preço do MI300X na quarta-feira, mas certamente será mais barato que os principais chips da Nvidia, que custam cerca de US$ 40.000 cada. Su Zifeng disse que os chips da AMD devem ter custos de compra e operacionais mais baixos do que os da Nvidia para convencer os clientes a comprá-los.

A AMD também disse que assinou pedidos do MI300X com algumas grandes empresas que mais precisam de GPUs.

A Meta planeja usar a GPU MI300X para tarefas de raciocínio de inteligência artificial. O diretor de tecnologia da Microsoft, Kevin Scott, também disse que a empresa implantará o MI300X em seu serviço de computação em nuvem Azure. Além disso, o serviço de computação em nuvem da Oracle também utilizará o MI300X. OpenAI também usará GPU AMD em um produto de software chamado Triton.

De acordo com o último relatório da empresa de pesquisa Omidia, Meta, Microsoft e Oracle são compradores importantes da GPU Nvidia H100 em 2023.

A AMD não forneceu uma previsão de vendas para o MI300X, mas apenas estimou a receita total de GPU do data center em 2024 em aproximadamente US$ 2 bilhões. Somente a receita do data center da NVIDIA no trimestre mais recente ultrapassou US$ 14 bilhões, mas isso inclui outros chips além das GPUs.

Olhando para o futuro, a AMD acredita que o tamanho do mercado de GPUs de inteligência artificial subirá para US$ 400 bilhões, dobrando sua previsão anterior. Isso mostra quão altas são as expectativas e a cobiça das pessoas por chips de inteligência artificial de última geração.

Su Zifeng também disse francamente à mídia que a AMD não precisa vencer a Nvidia para obter bons resultados no mercado. A implicação é que o segundo lugar também pode viver bem.

Ao falar sobre o mercado de chips de IA, ela disse:

“Acho que é claro dizer que a Nvidia é definitivamente a líder de mercado agora, e acreditamos que esse mercado poderá ultrapassar US$ 400 bilhões até 2027. Podemos ganhar um pedaço desse bolo.”