book_icon

Nvidia e Microsoft colaboram para construir supercomputador na Nuvem

O supercomputador de IA baseado em Nuvem do Azure inclui máquinas virtuais poderosas e escaláveis ​​das séries ND e NC otimizadas para treinamento e inferência distribuídos de IA

Nvidia e Microsoft colaboram para construir supercomputador na Nuvem

A Nvidia e a Microsoft anunciaram uma colaboração de vários anos para construir um dos supercomputadores de IA mais poderosos do mundo, alimentado pela infraestrutura de supercomputação avançada do Microsoft Azure e combinada com GPUs Nvidia, rede e pilha completa de software de IA para ajudar as empresas a treinar, implementar e escalar IA, incluindo modelos grandes e de última geração.

O supercomputador de IA baseado em Nuvem do Azure inclui máquinas virtuais poderosas e escaláveis ​​das séries ND e NC otimizadas para treinamento e inferência distribuídos de IA. É a primeira Nuvem pública a incorporar a avançada pilha de IA da Nvidia, adicionando dezenas de milhares de GPUs Nvidia A100 e H100, rede Nvidia Quantum-2 400 Gb/s InfiniBand e o pacote de software Nvidia AI Enterprise à sua plataforma.

Os clientes podem implementar milhares de GPUs em um único cluster para treinar até mesmo os modelos de linguagem mais massivos, criar os sistemas de recomendação mais complexos em escala e habilitar a IA generativa em escala

Como parte da colaboração, a Nvidia utilizará as instâncias de máquina virtual escalonáveis ​​do Azure para pesquisar e acelerar ainda mais os avanços em IA generativa, uma área emergente de IA na qual modelos fundamentais como o Megatron Turing NLG 530B são a base para algoritmos de autoaprendizagem não supervisionados para criar novos textos, códigos, imagens digitais, vídeos ou áudios.

As empresas também colaborarão para otimizar o software de aprendizado profundo DeepSpeed ​​da Microsoft. A pilha completa de fluxos de trabalho de IA e kits de desenvolvimento de software da Nvidia, otimizados para o Azure, serão disponibilizados para clientes corporativos da Microsoft.

“Os avanços da tecnologia de IA, bem como a adoção da indústria, estão se acelerando. A descoberta dos modelos de fundação desencadeou uma onda de pesquisa, fomentou novas startups e permitiu novos aplicativos corporativos”, disse Manuvir Das, vice-presidente de Computação Corporativa da Nvidia. “Nossa colaboração com a Microsoft fornecerá a pesquisadores e empresas infraestrutura e software de IA de última geração para capitalizar o poder transformador da IA”, afirmou.

“A IA está alimentando a próxima onda de automação nas empresas e na computação industrial, permitindo que as organizações façam mais com menos enquanto navegam nas incertezas econômicas”, disse Scott Guthrie, vice-presidente executivo do Cloud + AI Group da Microsoft. “Nossa colaboração com a Nvidia desbloqueia a plataforma de supercomputador mais escalável do mundo, que oferece recursos de IA de última geração para todas as empresas no Microsoft Azure”, comedntou.

Desempenho máximo 

As instâncias de máquina virtual otimizadas para IA do Microsoft Azure são arquitetadas com as GPUs de Data Center mais avançadas da Nvidia e são as primeiras instâncias de Nuvem pública a incorporar a rede Nvidia Quantum-2 400Gb/s InfiniBand. Os clientes podem implementar milhares de GPUs em um único cluster para treinar até mesmo os modelos de linguagem mais massivos, criar os sistemas de recomendação mais complexos em escala e habilitar a IA generativa em escala.

As instâncias atuais do Azure apresentam rede Nvidia Quantum 200 Gb/s InfiniBand com GPUs Nvidia A100. No futuro serão integrados com a rede Quantum-2 400Gb/s InfiniBand e GPUs H100. Combinadas com a infraestrutura avançada de computação em Nuvem, rede e armazenamento do Azure, essas ofertas otimizadas para IA fornecerão desempenho máximo escalonável para treinamento de IA e cargas de trabalho de inferência de aprendizado profundo de qualquer tamanho.

Além disso, a plataforma suportará uma ampla variedade de aplicativos e serviços de IA, incluindo o Microsoft DeepSpeed ​​e o pacote de software Nvidia AI Enterprise.

O Microsoft DeepSpeed ​​aproveitará o Nvidia H100 Transformer Engine para acelerar modelos baseados em transformadores usados ​​para modelos grandes de linguagem, IA generativa e escrita de código de computador, entre outros aplicativos. Essa tecnologia aplica recursos de precisão de ponto flutuante de 8 bits ao DeepSpeed ​​para acelerar drasticamente os cálculos de IA para transformadores – com o dobro da taxa de transferência de operações de 16 bits.

Serviço
www.nvidia.com
www.microsoft.com

 

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.