O Google Cloud apresentou os processadores Axion, as primeiras CPUs personalizadas baseadas em chips Arm projetadas para o Data Centers. O Axion oferece desempenho e eficiência energética líderes do setor e estará disponível para clientes do Google Cloud ainda este ano.
“No Google, constantemente ultrapassamos os limites da computação, explorando o que é possível para grandes desafios que vão desde a recuperação de informações, distribuição global de vídeo e, claro, IA generativa. Isso requer repensar o design de sistemas em profunda colaboração com os desenvolvedores de serviços. Esse repensar resultou em nosso investimento significativo em silício personalizado”, disse Amin Vahdat, vice-presidente e gerente-geral de Machine Learning, Sistemas e IA na Nuvem do Google Cloud.
Segundo o executivo, o Axion é apenas o mais recente de uma longa linha de silício personalizado do Google. “Desde 2015 lançamos cinco gerações de Unidades de Processamento de Tensores (TPU); em 2018 lançamos nossa primeira Unidade de Codificação de Vídeo (VCU), alcançando até 33x mais eficiência para transcodificação de vídeo; em 2021, dobramos a aposta na computação personalizada investindo em designs de system on a chip (SoC) e lançamos a primeira de três gerações de chips Tensor para dispositivos móveis”, contou Vahdat.
Os processadores Axion combinam a experiência em silício do Google com os núcleos de CPU de mais alto desempenho da Arm para fornecer instâncias com desempenho até 30% melhor do que as instâncias baseadas em Arm de uso geral mais rápidas disponíveis na Nuvem atualmente. Além disso, os novos processadores oferecem desempenho até 50% melhor e eficiência energética até 60% melhor do que as instâncias comparáveis baseadas em x86 da geração atual. “É por isso que já começamos a implementar serviços do Google como BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine e a plataforma YouTube Ads em servidores baseados em Arm da geração atual e planejamos implementar e escalar esses serviços e muito mais no Axion em breve”, adiantou Vahdat.
“Embora nossos investimentos em aceleradores de computação tenham transformado os recursos de nossos clientes, a computação de uso geral é e continuará sendo uma parte crítica das cargas de trabalho de nossos clientes. Análises, recuperação de informações e treinamento e atendimento de ML exigem uma enorme quantidade de poder computacional”, afirmou Vahdat. Clientes e usuários que desejam maximizar o desempenho, reduzir os custos de infraestrutura e cumprir as metas de sustentabilidade descobriram que a taxa de melhorias na CPU diminuiu recentemente. “A Lei de Amdahl sugere que, à medida que os aceleradores continuam a melhorar, a computação de propósito geral dominará o custo e limitará a capacidade de nossa infraestrutura, a menos que façamos investimentos proporcionais para acompanhar”, finalizou.
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo