A Nvidia anunciou o supercomputador Nvidia DGX, que a empresa afirma ser uma nova classe de equipamentos para Inteligência Artificial (IA) de memória grande. Elevem equipado com novos chips Nvidia GH200 Grace Hopper e o sistema de comutação Nvidia NVLink, criado para permitir o desenvolvimento de modelos gigantes de última geração para linguagem de IA generativa, sistemas de recomendação e cargas de trabalho de análise de dados.
O enorme espaço de memória compartilhada do DGX GH200 usa a tecnologia de interconexão NVLink com o NVLink Switch System para combinar 256 chips GH200, permitindo que funcionem como uma única GPU. Isso fornece 1 exaflop de desempenho e 144 terabytes de memória compartilhada – quase 500 vezes mais memória do que a geração anterior Nvidia DGX A100, lançada em 2020.
“IA generativa, grandes modelos de linguagem (LLM) e sistemas de recomendação são os motores digitais da economia moderna”, disse Jensen Huang, fundador e CEO da Nvidia. “Os supercomputadores DGX GH200 AI integram as tecnologias de computação e rede aceleradas mais avançadas da Nvidia para expandir a fronteira da IA”, comentou.
Os chips GH200 eliminam a necessidade de uma conexão PCIe CPU-para-GPU tradicional combinando uma CPU Nvidia Grace baseada em Arm com uma GPU Nvidia H100 Tensor Core no mesmo pacote, usando o chip Nvidia NVLink-C2C interconectado. Isso aumenta a largura de banda entre GPU e CPU em 7 vezes em comparação com a mais recente tecnologia PCIe, reduz o consumo de energia de interconexão em mais de 5 vezes e fornece um bloco de construção de GPU de arquitetura Hopper de 600 GB para supercomputadores DGX GH200.
O DGX GH200 é o primeiro supercomputador a emparelhar Grace Hopper Superchips com o Nvidia NVLink Switch System, uma nova interconexão que permite que todas as GPUs em um sistema DGX GH200 funcionem juntas como uma só. O sistema da geração anterior fornecia apenas oito GPUs para serem combinadas com o NVLink como uma GPU sem comprometer o desempenho.
A arquitetura DGX GH200 fornece 48 vezes mais largura de banda NVLink do que a geração anterior, oferecendo o poder de um enorme supercomputador AI com a simplicidade de programar uma única GPU.
Uma nova ferramenta de pesquisa
Google Cloud, Meta e Microsoft estão entre os primeiros a obter acesso ao DGX GH200 para explorar seus recursos para cargas de trabalho de IA generativas. A Nvidia também pretende fornecer o design DGX GH200 como um modelo para provedores de serviços em Nuvem e outros hiperescaladores, para que possam personalizá-lo ainda mais para sua infraestrutura.
“A construção de modelos generativos avançados requer abordagens inovadoras para a infraestrutura de IA”, disse Mark Lohmeyer, vice-presidente de Computação do Google Cloud. “A nova escala NVLink e a memória compartilhada dos Superchips Grace Hopper abordam os principais gargalos da IA em larga escala e estamos ansiosos para explorar seus recursos para o Google Cloud e nossas iniciativas de IA generativa”, completou.
“À medida que os modelos de IA crescem, eles precisam de uma infraestrutura poderosa que possa ser dimensionada para atender às demandas crescentes”, disse Alexis Björlin, vice-presidente de Infraestrutura, Sistemas de IA e Plataformas Aceleradas da Meta. “O design Grace Hopper procura fornecer aos pesquisadores a capacidade de explorar novas abordagens para resolver seus maiores desafios”, comentou.
“O treinamento de grandes modelos de IA é tradicionalmente uma tarefa que consome muitos recursos e tempo”, disse Girish Bablani, vice-presidente corporativo de Infraestrutura do Azure na Microsoft. “O potencial do DGX GH200 para trabalhar com conjuntos de dados do tamanho de terabytes permitiria que os desenvolvedores conduzissem pesquisas avançadas em maior escala e velocidades aceleradas”, observou.
Novo supercomputador Nvidia Helios
A Nvidia está construindo seu próprio supercomputador baseado em DGX GH200 para potencializar o trabalho de seus pesquisadores e equipes de desenvolvimento. Batizado de Nvidia Helios, o supercomputador contará com quatro sistemas DGX GH200. Cada um será interconectado com a rede Nvidia Quantum-2 InfiniBand para aumentar a taxa de transferência de dados para treinar grandes modelos de IA. O Helios incluirá 1.024 Grace Hopper Superchips e deverá estar online até o final do ano.
Serviço
www.nvidia.com
Leia nesta edição:
PRÊMIO IC - DESTAQUES DE TIC 2024
Usuários e profissionais do setor de TIC escolhem os produtos e as marcas que melhor os atenderam
TELECOMUNICAÇÕES
5G: a real revolução ainda está para acontecer
ESCPECIAL - ANUÁRIO DE TIC 2024/25
Contatos estratégicos
Esta você só vai ler na versão digital
TENDÊNCIAS
As tecnologias que estão moldando o futuro do e-commerce
Baixe o nosso aplicativo