O Google Cloud apresentou os processadores Axion, as primeiras CPUs personalizadas baseadas em chips Arm projetadas para o Data Centers. O Axion oferece desempenho e eficiência energética líderes do setor e estará disponível para clientes do Google Cloud ainda este ano.
“No Google, constantemente ultrapassamos os limites da computação, explorando o que é possível para grandes desafios que vão desde a recuperação de informações, distribuição global de vídeo e, claro, IA generativa. Isso requer repensar o design de sistemas em profunda colaboração com os desenvolvedores de serviços. Esse repensar resultou em nosso investimento significativo em silício personalizado”, disse Amin Vahdat, vice-presidente e gerente-geral de Machine Learning, Sistemas e IA na Nuvem do Google Cloud.
Segundo o executivo, o Axion é apenas o mais recente de uma longa linha de silício personalizado do Google. “Desde 2015 lançamos cinco gerações de Unidades de Processamento de Tensores (TPU); em 2018 lançamos nossa primeira Unidade de Codificação de Vídeo (VCU), alcançando até 33x mais eficiência para transcodificação de vídeo; em 2021, dobramos a aposta na computação personalizada investindo em designs de system on a chip (SoC) e lançamos a primeira de três gerações de chips Tensor para dispositivos móveis”, contou Vahdat.
Os processadores Axion combinam a experiência em silício do Google com os núcleos de CPU de mais alto desempenho da Arm para fornecer instâncias com desempenho até 30% melhor do que as instâncias baseadas em Arm de uso geral mais rápidas disponíveis na Nuvem atualmente. Além disso, os novos processadores oferecem desempenho até 50% melhor e eficiência energética até 60% melhor do que as instâncias comparáveis baseadas em x86 da geração atual. “É por isso que já começamos a implementar serviços do Google como BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine e a plataforma YouTube Ads em servidores baseados em Arm da geração atual e planejamos implementar e escalar esses serviços e muito mais no Axion em breve”, adiantou Vahdat.
“Embora nossos investimentos em aceleradores de computação tenham transformado os recursos de nossos clientes, a computação de uso geral é e continuará sendo uma parte crítica das cargas de trabalho de nossos clientes. Análises, recuperação de informações e treinamento e atendimento de ML exigem uma enorme quantidade de poder computacional”, afirmou Vahdat. Clientes e usuários que desejam maximizar o desempenho, reduzir os custos de infraestrutura e cumprir as metas de sustentabilidade descobriram que a taxa de melhorias na CPU diminuiu recentemente. “A Lei de Amdahl sugere que, à medida que os aceleradores continuam a melhorar, a computação de propósito geral dominará o custo e limitará a capacidade de nossa infraestrutura, a menos que façamos investimentos proporcionais para acompanhar”, finalizou.
Leia nesta edição:
PRÊMIO IC - DESTAQUES DE TIC 2024
Usuários e profissionais do setor de TIC escolhem os produtos e as marcas que melhor os atenderam
TELECOMUNICAÇÕES
5G: a real revolução ainda está para acontecer
ESCPECIAL - ANUÁRIO DE TIC 2024/25
Contatos estratégicos
Esta você só vai ler na versão digital
TENDÊNCIAS
As tecnologias que estão moldando o futuro do e-commerce
Baixe o nosso aplicativo