book_icon

Chegam ao mercado os sistemas DGX H100 da Nvidia

Combinado com o novo sistema de comutação NVLink, cada DGX SuperPOD fornece 1 exaflop de desempenho de IA; espera-se que o novo supercomputador Nvidia Eos seja o sistema de IA mais rápido do mundo; On-Ramp direto para clientes através do serviço DGX Foundry expandido

Chegam ao mercado os sistemas DGX H100 da Nvidia

GTC – A Nvidia anuncia o sistema Nvidia DGX de quarta geração, a primeira plataforma de Inteligência Artificial (IA) do mundo a ser construída com as novas GPUs Nvidia H100 Tensor Core.

Os sistemas DGX H100 oferecem a escala exigida para atender aos enormes requisitos de computação de grandes modelos de linguagem, sistemas de recomendação, pesquisas em saúde e ciência climática. Com oito GPUs Nvidia H100 por sistema, conectadas como uma pelo Nvidia NVLink, cada DGX H100 oferece 32 petaflops de desempenho de IA com nova precisão FP8 – 6 vezes mais do que a geração anterior.

Os sistemas DGX H100 são os blocos de construção da última geração das plataformas de infraestrutura de IA Nvidia DGX POD e Nvidia DGX SuperPOD. A mais recente arquitetura DGX SuperPOD apresenta um novo sistema de comutação Nvidia NVLink, que pode conectar até 32 nós com um total de 256 GPUs H100.

Fornecendo 1 exaflop de desempenho de IA FP8, 6 vezes mais que seu antecessor, o DGX SuperPOD de próxima geração expande as fronteiras da IA com a capacidade de executar cargas de trabalho LLM (large language models) maciças com trilhões de parâmetros.

“A IA mudou fundamentalmente o que o software pode fazer e como ele é produzido. As empresas que estão revolucionando seus setores com a tecnologia percebem a importância de suas infraestruturas de IA”, afirma Jensen Huang, fundador e CEO da Nvidia. “Nossos novos sistemas DGX H100 alimentarão as fábricas de IA corporativas para refinar os dados em nosso recurso mais valioso – inteligência”.

Anunciamos o Nvidia Eos — o supercomputador de IA mais rápido do mundo
A Nvidia será a primeira a construir um DGX SuperPOD com a nova arquitetura de IA para impulsionar o trabalho dos pesquisadores da Nvidia no avanço da ciência climática, biologia digital e o futuro da IA.

O Eos servirá como um modelo para a infraestrutura avançada de IA da Nvidia, bem como de seus parceiros OEM e de Nuvem 

Espera-se que o supercomputador “Eos” seja o sistema de IA mais rápido do mundo após iniciar suas operações ainda este ano, apresentando um total de 576 sistemas DGX H100 com 4608 GPUs DGX H100.

Prevê-se que o Nvidia Eos fornecerá 18,4 exaflops de desempenho de computação de IA, processamento de IA 4 vezes mais rápido do que o supercomputador Fugaku, no Japão, que atualmente é o sistema mais rápido do mundo. Para computação científica tradicional, espera-se que o Eos forneça 275 petaflops de desempenho.

O Eos servirá como um modelo para a infraestrutura avançada de IA da Nvidia, bem como de seus parceiros OEM e de Nuvem.

A IA corporativa escala facilmente com os sistemas DGX H100, DGX POD e DGX SuperPOD
Os sistemas DGX H100 são facilmente dimensionados para atender às demandas de IA à medida que as empresas crescem de projetos iniciais a implantações amplas.

Além de oito GPUs H100 com 640 bilhões de transistores agregados, cada sistema DGX H100 inclui duas DPUs Nvidia BlueField-3 para descarregar, acelerar e isolar serviços avançados de rede, armazenamento e segurança.

Oito adaptadores de rede Nvidia ConnectX-7 Quantum-2 InfiniBand fornecem taxa de transferência de 400 gigabits por segundo para conexão com computação e armazenamento — o dobro da velocidade do sistema da geração anterior. E um NVLink de quarta geração, combinado com NVSwitch, fornece conectividade de 900 gigabytes por segundo entre cada GPU em cada sistema DGX H100, 1,5 vez mais do que a geração anterior.

Os sistemas DGX H100 usam CPUs x86 duplas e podem ser combinados com rede e armazenamento Nvidia de parceiros Nvidia para criar PODs DGX flexíveis para computação de IA em qualquer tamanho.

O DGX SuperPOD fornece um centro de excelência de IA empresarial escalável com sistemas DGX H100. Os nós DGX H100 e as GPUs H100 em um DGX SuperPOD são conectados por um sistema de comutação NVLink e Nvidia Quantum-2 InfiniBand, fornecendo um total de 70 terabytes/s de largura de banda – 11 vezes mais que a geração anterior. O armazenamento dos parceiros da NVIDIA será testado e certificado para atender às demandas da computação DGX SuperPOD AI.

Várias unidades DGX SuperPOD podem ser combinadas para fornecer o desempenho de IA necessário para desenvolver modelos massivos em setores como automotivo, saúde, manufatura, comunicações, varejo e muito mais.

Nvidia DGX Foundry acelera o sucesso do cliente com DGX SuperPOD
A solução de desenvolvimento hospedado Nvidia DGX Foundry está se expandindo mundialmente para dar aos clientes DGX SuperPOD acesso imediato à infraestrutura de computação avançada enquanto seus sistemas estão sendo instalados. Novos locais adicionados na América do Norte, Europa e Ásia oferecem acesso remoto a DGX SuperPODs, ou parte de um.

O DGX Foundry inclui o software Nvidia Base Command, que permite que os clientes gerenciem facilmente o ciclo de vida de desenvolvimento de IA de ponta a ponta na infraestrutura DGX SuperPOD.

As empresas qualificadas podem experimentar os sistemas Nvidia Base Command e DGX gratuitamente por meio de laboratórios selecionados disponíveis no Nvidia LaunchPad hospedado nos Data Centers Equinix International Business Exchange (IBX) em todo o mundo.

MLOps, Adoção crescente de IA pelos clientes de suporte de software de IA corporativa
Para oferecer suporte aos clientes DGX que estão operacionalizando o desenvolvimento de IA, as soluções MLOps dos parceiros Nvidia DGX-Ready Software, incluindo Domino Data Lab, Run:ai e Weights & Biases, estão se juntando ao programa “Nvidia AI Accelerated”.

Os aplicativos MLOps dos parceiros participantes serão validados para fornecer aos clientes DGX soluções de fluxo de trabalho e gerenciamento de cluster, agendamento e orquestração de nível empresarial.

Além disso, os sistemas Nvidia DGX agora incluem o pacote de software Nvidia AI Enterprise, que oferece suporte à infraestrutura bare-metal. Os clientes da DGX podem acelerar seu trabalho com os modelos, kits de ferramentas e estruturas da plataforma Nvidia AI pré-treinados incluídos no pacote de software, como Nvidia RAPIDS, Nvidia TAO Toolkit, Nvidia Triton Inference Server e muito mais.

Programa de serviços gerenciados prontos para DGX simplificam as implementações de IA
À medida que a adoção da IA corporativa cresce, os clientes buscam mais opções para adicionar a infraestrutura necessária para transformar seus negócios. A Nvidia anuncia um novo programa de serviços gerenciados prontos para DGX para oferecer suporte aos clientes que desejam trabalhar com provedores de serviços para supervisionar sua infraestrutura.

A Deloitte é o primeiro fornecedor global a fazer parceria com a Nvidia no programa e será certificado para oferecer suporte a clientes na Europa, América do Norte e Ásia, juntamente com os fornecedores regionais CGit, ePlus  Insight Enterprises e PTC System

“Os avanços nos negócios possibilitados pela IA só podem ser realizados se as empresas tiverem a capacidade de integrar a tecnologia em suas operações”, conta Jim Rowan, diretor e líder de ofertas de IA e operações de dados da Deloitte Consulting LLP. “Com o novo programa DGX-Ready Managed Services, os clientes podem adotar facilmente a IA líder mundial com sistemas e software Nvidia DGX gerenciados por especialistas da Deloitte em todo o mundo”.

Programa de gerenciamento de ciclo de vida pronto para DGX permite atualizações fáceis
Os clientes agora podem atualizar seus sistemas DGX existentes com a mais nova plataforma Nvidia DGX por meio do novo programa DGX-Ready Lifecycle Management.

Os parceiros de Canal da Nvidia que participam do programa DGX-Ready Lifecycle Management poderão atualizar os sistemas DGX da geração anterior para compra por novos clientes, expandindo o acesso aos sistemas universais do mundo para infraestrutura de IA.

Disponibilidade
Os sistemas Nvidia DGX H100, DGX PODs e DGX SuperPODs estarão disponíveis nos parceiros globais da NVIDIA a partir do terceiro trimestre.

Os clientes também podem optar por implantar sistemas DGX em instalações operadas por parceiros NVIDIA DGX-Ready Data Center, incluindo os Data Centers Cyxtera, Digital Realty e Equinix IBX.

Para saber mais sobre os sistemas Nvidia DGX, assista à palestra do GTC 2022 de Jensen Huang e registre-se no GTC 2022 gratuitamente para participar de sessões com a Nvidia e líderes do setor.

Serviço
www.nvidia.com/pt-br

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.