Depois de anos produzindo chips que podem ser usados ​​tanto para treinamento quanto para inferência de modelos de inteligência artificial, o Google está dividindo as duas tarefas em processadores diferentes, seu mais recente movimento para competir com a Nvidia no campo de hardware de IA. O Google anunciou na quarta-feira que fará essa mudança em sua unidade de processamento tensor (TPU) de oitava geração, com ambos os chips previstos para serem lançados ainda este ano.

Amin Wahdat, vice-presidente sênior e diretor de tecnologia de inteligência artificial e infraestrutura do Google, disse em um blog: “Com a ascensão dos agentes de IA, acreditamos que a indústria se beneficiará de chips que são personalizados profissionalmente para necessidades de treinamento e implantação”.

Em março deste ano, a Nvidia promoveu seu próximo produto de chip, que permitiria aos modelos responder rapidamente às perguntas dos usuários com a ajuda da tecnologia adquirida por meio da aquisição da start-up de chips Groq, por US$ 20 bilhões. O Google é um grande cliente da Nvidia, mas também oferece TPUs como alternativa para empresas que utilizam seus serviços em nuvem.

A maioria das principais empresas de tecnologia do mundo está desenvolvendo semicondutores específicos para inteligência artificial para maximizar a eficiência da computação e atender às necessidades de cenários de aplicação específicos. A Apple vem desenvolvendo seus próprios componentes de IA de mecanismo de rede neural em chips do iPhone há muitos anos; A Microsoft lançou seu chip AI de segunda geração em janeiro deste ano; Na semana passada, a Meta anunciou que está cooperando com a Broadcom para desenvolver uma variedade de processadores de IA.

O Google é pioneiro nessa tendência. Em 2015, o Google começou a usar chips de desenvolvimento próprio para executar modelos de IA e, em 2018, abriu leasing para clientes de serviços em nuvem. A Amazon Cloud Technology lançou o chip Inferentia para processar solicitações de IA em 2018 e o processador Trainium para treinar modelos de IA em 2020.

Analistas da instituição de investimento DADavidson estimaram em setembro do ano passado que o valor total do negócio TPU mais a equipe de IA do Google DeepMind era de aproximadamente US$ 900 bilhões.

Atualmente, nenhum gigante da tecnologia pode substituir a Nvidia, e o Google nem sequer comparou o desempenho do novo chip com os produtos do líder em chips de IA. No entanto, o Google disse que o desempenho do novo chip de treinamento é 2,8 vezes maior que o Ironwood TPU de sétima geração lançado em novembro do ano passado, e o preço é o mesmo; o desempenho do chip de inferência é aumentado em 80%.

A Nvidia disse que seu próximo hardware Groq3LPU usará grandes quantidades de memória estática de acesso aleatório (SRAM), uma tecnologia também usada pela fabricante de chips de IA Cerebras, que apresentou um pedido de listagem no início deste mês. O novo chip de inferência do Google, codinome TPU8i, também está equipado com SRAM. O chip único possui 384 MB de SRAM integrado e a capacidade é três vezes maior que a do Ironwood TPU.

Sundar Pichai, CEO da Alphabet, empresa controladora do Google, escreveu em um blog que a arquitetura do chip foi projetada para “alcançar rendimento massivo e baixa latência de maneira econômica para atender às necessidades de execução de milhões de agentes simultaneamente”.

A escala de aplicação dos chips de IA do Google está se expandindo. O Google afirmou que a Citadel Securities construiu um software de pesquisa quantitativa baseado no Google TPU, e todos os 17 laboratórios nacionais do Departamento de Energia dos EUA usam software de cientista colaborativo de IA desenvolvido com base neste chip; a empresa de inteligência artificial Anthropic também se comprometeu a usar vários gigawatts de poder de computação do Google TPU.