book_icon

Google Cloud e Nvidia ampliam parceria para avançar em computação e serviços de IA

Tecnologia de IA generativa da Nvidia usada pelo Google DeepMind e pelas equipes de pesquisa do Google foi otimizada e já está disponível para clientes do Google Cloud em todo o mundo

Google Cloud e Nvidia ampliam parceria para avançar em computação e serviços de IA

O Google Cloud e a Nvidia anunciam uma nova infraestrutura e software de IA para os clientes criarem e implementarem modelos massivos para IA generativa e acelerarem cargas de trabalho de ciência de Dados.
Em um bate-papo no Google Cloud Next, o CEO do Google Cloud, Thomas Kurian, e o fundador e CEO da Nvidia, Jensen Huang, discutiram como a parceria está trazendo serviços de Machine Learning de ponta a ponta para os maiores clientes de IA do mundo, inclusive facilitando a execução e implementação de Supercomputadores de IA com ofertas do Google Cloud baseadas em soluções da Nvidia. As novas integrações de hardware e software utilizam as mesmas tecnologias Nvidia empregadas nos últimos dois anos pelo Google DeepMind e pelas equipes de pesquisa do Google.
​​​​​​​
“Estamos num ponto de inflexão em que a computação acelerada e a IA generativa se uniram para agilizar a inovação a um ritmo sem precedentes”, afirma Huang. “Nossa colaboração, ampliada com o Google Cloud, ajudará os desenvolvedores a acelerar seu trabalho com infraestrutura, software e serviços que potencializam a eficiência energética e reduzem custos.”

“O Google Cloud tem um longo histórico em IA para promover e acelerar a inovação para nossos clientes”, pontua Kurian. “Muitos dos produtos do Google são desenvolvidos e servidos em GPUs Nvidia, e muitos de nossos clientes estão buscando a computação acelerada da Nvidia para potencializar o desenvolvimento eficiente de LLMs para avançar na IA generativa.”

“Essa otimização facilitará a execução das cargas de trabalho e a implementação cada vez mais eficiente da IA generativa para os clientes. Essa parceria reforça nosso compromisso em contribuir cada vez mais para o avanço de novas tecnologias”, ressalta Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.

Integrações Nvidia para acelerar o desenvolvimento de IA e ciência de Dados
A estrutura do Google para a construção de grandes modelos de linguagem (LLMs), PaxML, agora está otimizada para computação acelerada Nvidia.

Originalmente desenvolvido para abranger várias fatias do acelerador Google TPU, o PaxML agora permite que os desenvolvedores usem GPUs Nvidia H100 e A100 Tensor Core para experimentação e escalabilidade avançadas e totalmente configuráveis. Um contêiner PaxML otimizado para GPU já está disponível no catálogo de software Nvidia NGC. Além disso, o PaxML é executado em JAX, que foi otimizado para GPUs que utilizam o compilador OpenXLA.

O contêiner otimizado para PaxML da Nvidia estará disponível imediatamente no registro de contêiner Nvidia NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA 

O Google DeepMind e outros pesquisadores do Google estão entre os primeiros a usar PaxML com GPUs Nvidia para pesquisas exploratórias.

O contêiner otimizado para PaxML da Nvidia estará disponível imediatamente no registro de contêiner Nvidia NGC para pesquisadores, startups e empresas em todo o mundo que estão construindo a próxima geração de aplicações baseadas em IA.

Além disso, as empresas anunciaram a integração do serverless Spark do Google com GPUs Nvidia por meio do serviço Google’s Dataproc. Isso ajudará os cientistas de dados a acelerarem as cargas de trabalho do Apache Spark para preparar dados para o desenvolvimento de IA.

Essas novas integrações são as mais recentes na extensa história de colaboração da Nvidia e Google. Só neste ano, vários anúncios de hardware e software foram divulgados, incluindo:

Google Cloud em máquinas virtuais A3 com tecnologia Nvidia H100
 O Google Cloud anunciou que suas VMs Google Cloud A3 desenvolvidas especificamente com GPUs Nvidia H100 estarão disponíveis no próximo mês, tornando a plataforma de IA da Nvidia mais acessível para um amplo conjunto de cargas de trabalho. Em comparação com a geração anterior, as VMs A3 oferecem treinamento 3x mais rápido e largura de banda de rede significativamente melhorada.

GPUs Nvidia H100 para potencializar a plataforma Vertex AI do Google Cloud
 Espera-se que as GPUs H100 estejam disponíveis na VertexAI nas próximas semanas, permitindo que os clientes desenvolvam rapidamente LLMs de IA generativas.

Google Cloud terá acesso ao Nvidia DGX GH200 — O Google Cloud será uma das primeiras empresas no mundo a ter acesso ao supercomputador de IA Nvidia DGX GH200 — equipado com o Nvidia Grace Hopper Superchip — para explorar seus recursos para cargas de trabalho de IA generativa.

Nvidia DGX Cloud chegando ao Google Cloud: Nvidia DGX Cloud supercomputação e software de IA estarão disponíveis aos clientes diretamente de seus navegadores da Web para fornecer velocidade e escala para cargas de trabalho de treinamento avançado.

Nvidia AI Enterprise no Google Cloud Marketplace
Os usuários podem acessar o Nvidia AI Enterprise, uma plataforma de software segura e nativa da Nuvem que simplifica o desenvolvimento e a implementação de aplicações prontos para empresas, incluindo IA generativa, IA de fala, visão computacional e muito mais.

Google Cloud é o primeiro a oferecer GPUs Nvidia L4
 No início deste ano, o Google Cloud se tornou o primeiro provedor de nuvem a oferecer GPUs Nvidia L4 Tensor Core com o lançamento da VM G2. Os clientes que mudam de CPUs para GPUs L4 para cargas de trabalho de vídeo de IA podem obter desempenho até 120x maior com eficiência 99% melhor. As GPUs L4 são amplamente utilizadas para geração de imagens e texto, bem como transcodificação de áudio/vídeo acelerada por VDI e IA.

Serviço
www.nvidia.com/pt-br

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.