O Google Cloud e a Nvidia anunciam uma nova infraestrutura e software de IA para os clientes criarem e implementarem modelos massivos para IA generativa e acelerarem cargas de trabalho de ciência de Dados.
Em um bate-papo no Google Cloud Next, o CEO do Google Cloud, Thomas Kurian, e o fundador e CEO da Nvidia, Jensen Huang, discutiram como a parceria está trazendo serviços de Machine Learning de ponta a ponta para os maiores clientes de IA do mundo, inclusive facilitando a execução e implementação de Supercomputadores de IA com ofertas do Google Cloud baseadas em soluções da Nvidia. As novas integrações de hardware e software utilizam as mesmas tecnologias Nvidia empregadas nos últimos dois anos pelo Google DeepMind e pelas equipes de pesquisa do Google.
“Estamos num ponto de inflexão em que a computação acelerada e a IA generativa se uniram para agilizar a inovação a um ritmo sem precedentes”, afirma Huang. “Nossa colaboração, ampliada com o Google Cloud, ajudará os desenvolvedores a acelerar seu trabalho com infraestrutura, software e serviços que potencializam a eficiência energética e reduzem custos.”
“O Google Cloud tem um longo histórico em IA para promover e acelerar a inovação para nossos clientes”, pontua Kurian. “Muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, e muitos de nossos clientes estão buscando a computação acelerada da Nvidia para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa.”
“Essa otimização facilitará a execução das cargas de trabalho e a implementação cada vez mais eficiente da IA generativa para os clientes. Essa parceria reforça nosso compromisso em contribuir cada vez mais para o avanço de novas tecnologias”, ressalta Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.
Integrações Nvidia para acelerar o desenvolvimento de IA e ciência de Dados
A estrutura do Google para a construção de grandes modelos de linguagem (LLMs), PaxML, agora está otimizada para computação acelerada Nvidia.
Originalmente desenvolvido para abranger várias fatias do acelerador Google TPU, o PaxML agora permite que os desenvolvedores usem GPUs Nvidia H100 e A100 Tensor Core para experimentação e escalabilidade avançadas e totalmente configuráveis. Um contêiner PaxML otimizado para GPU já está disponível no catálogo de software Nvidia NGC. Além disso, o PaxML é executado em JAX, que foi otimizado para GPUs que utilizam o compilador OpenXLA.
O Google DeepMind e outros pesquisadores do Google estão entre os primeiros a usar PaxML com GPUs Nvidia para pesquisas exploratórias.
O contêiner otimizado para PaxML da Nvidia estará disponível imediatamente no registro de contêiner Nvidia NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA.
Além disso, as empresas anunciaram a integração do serverless Spark do Google com GPUs Nvidia por meio do serviço Google’s Dataproc. Isso ajudará os cientistas de dados a acelerarem as cargas de trabalho do Apache Spark para preparar dados para o desenvolvimento de IA.
Essas novas integrações são as mais recentes na extensa história de colaboração da Nvidia e Google. Só neste ano, vários anúncios de hardware e software foram divulgados, incluindo:
Google Cloud em máquinas virtuais A3 com tecnologia Nvidia H100
O Google Cloud anunciou que suas VMs Google Cloud A3 desenvolvidas especificamente com GPUs Nvidia H100 estarão disponíveis no próximo mês, tornando a plataforma de IA da Nvidia mais acessível para um amplo conjunto de cargas de trabalho. Em comparação com a geração anterior, as VMs A3 oferecem treinamento 3x mais rápido e largura de banda de rede significativamente melhorada.
GPUs Nvidia H100 para potencializar a plataforma Vertex AI do Google Cloud
Espera-se que as GPUs H100 estejam disponíveis na VertexAI nas próximas semanas, permitindo que os clientes desenvolvam rapidamente LLMs de IA generativas.
Google Cloud terá acesso ao Nvidia DGX GH200 — O Google Cloud será uma das primeiras empresas no mundo a ter acesso ao supercomputador de IA Nvidia DGX GH200 — equipado com o Nvidia Grace Hopper Superchip — para explorar seus recursos para cargas de trabalho de IA generativa.
Nvidia DGX Cloud chegando ao Google Cloud: Nvidia DGX Cloud supercomputação e software de IA estarão disponíveis aos clientes diretamente de seus navegadores da Web para fornecer velocidade e escala para cargas de trabalho de treinamento avançado.
Nvidia AI Enterprise no Google Cloud Marketplace
Os usuários podem acessar o Nvidia AI Enterprise, uma plataforma de software segura e nativa da Nuvem que simplifica o desenvolvimento e a implementação de aplicações prontos para empresas, incluindo IA generativa, IA de fala, visão computacional e muito mais.
Google Cloud é o primeiro a oferecer GPUs Nvidia L4
No início deste ano, o Google Cloud se tornou o primeiro provedor de nuvem a oferecer GPUs Nvidia L4 Tensor Core com o lançamento da VM G2. Os clientes que mudam de CPUs para GPUs L4 para cargas de trabalho de vídeo de IA podem obter desempenho até 120x maior com eficiência 99% melhor. As GPUs L4 são amplamente utilizadas para geração de imagens e texto, bem como transcodificação de áudio/vídeo acelerada por VDI e IA.
Serviço
www.nvidia.com/pt-br
Leia nesta edição:
PRÊMIO IC - DESTAQUES DE TIC 2024
Usuários e profissionais do setor de TIC escolhem os produtos e as marcas que melhor os atenderam
TELECOMUNICAÇÕES
5G: a real revolução ainda está para acontecer
ESCPECIAL - ANUÁRIO DE TIC 2024/25
Contatos estratégicos
Esta você só vai ler na versão digital
TENDÊNCIAS
As tecnologias que estão moldando o futuro do e-commerce
Baixe o nosso aplicativo