book_icon

AWS e Nvidia se unem para oferecer infraestrutura de supercomputação e serviços para IA Generativa

AWS oferecerá supercomputador de IA na Nuvem com o superchip Nvidia Grace Hopper e a escalabilidade do AWS UltraCluster

AWS e Nvidia se unem para oferecer infraestrutura de supercomputação e serviços para IA Generativa

A Amazon Web Services, uma empresa da Amazon.com, e a Nvidia anunciam uma expansão de sua colaboração estratégica para fornecer a infraestrutura, o software e os serviços mais avançados para impulsionar as inovações de Inteligência Artificial (IA) Generativa dos clientes.

As empresas reunirão o melhor das tecnologias Nvidia e AWS – desde os mais novos sistemas de vários nós da Nvidia com GPUs, CPUs e software de IA de última geração até a virtualização e a segurança avançadas do AWS Nitro System, a interconexão Elastic Fabric Adapter (EFA) e a escalabilidade do UltraCluster – que são ideais para treinar modelos de base e criar aplicações de IA Generativas.

Software Nvidia no AWS – NeMo LLM framework, NeMo Retriever e BioNeMo – para impulsionar o desenvolvimento de IA Generativa para modelos personalizados, recuperação semântica e descoberta de medicamento 

A colaboração ampliada se baseia em um relacionamento de longa data que impulsionou a era da IA Generativa, oferecendo aos pioneiros do Aprendizado de Máquina (ML) o desempenho de computação necessário para avançar o estado da arte nessas tecnologias.

Como parte da colaboração ampliada para turbinar a IA Generativa em todos os setores:
A AWS será o primeiro provedor de Nuvem a trazer os Nvidia GH200 Grace Hopper Superchips com a nova tecnologia NVLink de vários nós para a Nuvem. A plataforma de vários nós Nvidia GH200 NVL32 conecta 32 Grace Hopper Superchips com as tecnologias Nvidia NVLink e NVSwitch em uma única instância. A plataforma estará disponível nas instâncias do Amazon Elastic Compute Cloud (Amazon EC2) conectadas com a poderosa rede da Amazon (EFA), com suporte de virtualização avançada (AWS Nitro System) e clustering de hiperescala (Amazon EC2 UltraClusters), permitindo que os clientes conjuntos escalem para milhares de GH200 Superchips.

A Nvidia e a AWS colaborarão para hospedar o Nvidia DGX Cloud – o treinamento de IA como serviço da Nvidia – na AWS. Será o primeiro DGX Cloud com o GH200 NVL32, oferecendo aos desenvolvedores a maior memória compartilhada em uma única instância. O DGX Cloud on AWS acelerará o treinamento de IA generativa de ponta e modelos de linguagem grandes que podem atingir mais de 1 trilhão de parâmetros.

A Nvidia e a AWS estão fazendo uma parceria no Projeto Ceiba para construir o supercomputador de IA mais rápido do mundo alimentado por GPU – um sistema em escala com GH200 NVL32 e interconexão Amazon EFA, hospedado pela AWS para a própria equipe de pesquisa e desenvolvimento da Nvidia. Esse supercomputador inédito – com 16.384 superchips Nvidia GH200 e capaz de processar 65 exaflops de IA – será usado pela Nvidia para impulsionar sua próxima onda de inovação de IA Generativa.

A AWS apresentará três novas instâncias adicionais do Amazon EC2: As instâncias P5e, equipadas com GPUs Nvidia H200 Tensor Core, para cargas de trabalho de IA generativa e HPC em grande escala e de ponta, e as instâncias G6 e G6e, equipadas com GPUs Nvidia L4 e GPUs Nvidia L40S, respectivamente, para um amplo conjunto de aplicações, como cargas de trabalho de ajuste fino de IA, inferência, gráficos e vídeo. As instâncias G6e são particularmente adequadas para o desenvolvimento de fluxos de trabalho 3D, digital twins e outras aplicações usando o Nvidia Omniverse, uma plataforma para conectar e criar aplicações 3D Generativas habilitadas para IA.

“A AWS e a Nvidia colaboram há mais de 13 anos, começando com a primeira instância de nuvem de GPU do mundo. Hoje, oferecemos a mais ampla gama de soluções de GPU Nvidia para cargas de trabalho, incluindo gráficos, jogos, computação de alto desempenho, aprendizado de máquina e, agora IA generativa”, ressalta Adam Selipsky, CEO da AWS. “Continuamos a inovar com a Nvidia para tornar a AWS o melhor lugar para executar GPUs, combinando os superchips Nvidia Grace Hopper de última geração com a poderosa rede EFA da AWS, o clustering em hiperescala do EC2 UltraClusters e os recursos avançados de virtualização do Nitro”.

“A IA Generativa está transformando as cargas de trabalho do Cloud e colocando a computação acelerada na base da geração de conteúdo diversificado”, afirma Jensen Huang, fundador e CEO da Nvidia. “Impulsionadas por uma missão comum de fornecer IA Geradora de última geração e econômica para todos os clientes, a Nvidia e a AWS estão colaborando em toda a pilha de computação, abrangendo infraestrutura de IA, bibliotecas de aceleração, modelos básicos e serviços de IA geradora.”

Novas instâncias do Amazon EC2 combinam o estado da arte da Nvidia e da AWS
O AWS será o primeiro provedor de Nuvem a oferecer os superchips Nvidia GH200 Grace Hopper com a tecnologia NVLink de vários nós. Cada GH200 Superchip combina uma CPU Grace baseada em Arm com uma GPU de arquitetura Nvidia Hopper no mesmo módulo. Uma única instância do Amazon EC2 com o GH200 NVL32 pode fornecer até 20 TB de memória compartilhada para alimentar cargas de trabalho em escala de terabytes.

Essas instâncias aproveitarão a interconexão do Elastic Fabric Adapter (EFA) de terceira geração da AWS, fornecendo até 400 Gbps por Superchip de baixa latência e alta largura de banda de throughput de rede, permitindo que os clientes ampliem para milhares de GH200 Superchips em EC2 UltraClusters.

As instâncias do AWS com o GH200 NVL32 fornecerão aos clientes acesso sob demanda ao desempenho de classe de supercomputador, o que é essencial para cargas de trabalho de IA/ML em grande escala que precisam ser distribuídas em vários nós para cargas de trabalho de IA geradoras complexas – abrangendo FMs, sistemas de recomendação e bancos de Dados vetoriais.

As instâncias do EC2 com Nvidia GH200 contarão com 4,5 TB de memória de GPU HBM3e – um aumento de 7,2x em comparação com a geração atual de instâncias do EC2 P5 com Nvidia H100 – permitindo que os clientes executem modelos maiores e melhorem o desempenho do treinamento. Além disso, a interconexão de memória da CPU e da GPU oferece uma largura de banda até sete vezes maior, permitindo comunicações chip a chip que ampliam a memória total disponível para as aplicações.

As instâncias do AWS com o GH200 NVL32 serão a primeira infraestrutura de IA no AWS a contar com resfriamento líquido para ajudar a garantir que racks de servidores densamente compactados possam operar com desempenho máximo.

As instâncias EC2 com GH200 NVL32 também se beneficiarão do AWS Nitro System, a plataforma subjacente para instâncias EC2 de última geração. O Nitro System transfere as funções de E/S da CPU/GPU do host para um hardware especializado para oferecer um desempenho mais consistente, enquanto sua segurança aprimorada protege o código e os dados do cliente durante o processamento.

“Essa colaboração será essencial para que as empresas continuem utilizando as tecnologias da Nvidia juntamente com a Amazon, para impulsionar seus serviços com a IA generativa”, pontua Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.

AWS é a primeira a hospedar o Nvidia DGX Cloud com tecnologia Grace Hopper
A AWS se unirá à Nvidia para hospedar o Nvidia DGX Cloud com a infraestrutura GH200 NVL32 NVLink. O Nvidia DGX Cloud é um serviço de supercomputação de IA que oferece às empresas acesso rápido à supercomputação de vários nós para treinar os modelos mais complexos de LLM e IA Generativa, com o software Nvidia AI Enterprise integrado e acesso direto aos especialistas em IA da Nvidia.

Supercomputador maciço do Project Ceiba para impulsionar o desenvolvimento de IA da Nvidia
O supercomputador do Projeto Ceiba, no qual a AWS e a Nvidia estão colaborando, será integrado aos serviços da AWS, como a rede criptografada do Amazon Virtual Private Cloud (VPC) e o armazenamento em bloco de alto desempenho do Amazon Elastic Block Store, dando à Nvidia acesso a um conjunto abrangente de recursos da AWS.

A Nvidia usará o supercomputador para pesquisa e desenvolvimento a fim de promover a IA para LLMs, gráficos e simulação, biologia digital, robótica, carros autônomos, previsão climática da Terra-2 e muito mais 

A Nvidia usará o supercomputador para pesquisa e desenvolvimento a fim de promover a IA para LLMs, gráficos e simulação, biologia digital, robótica, carros autônomos, previsão climática da Terra-2 e muito mais.

Nvidia e AWS aumentam a IA Geradora, HPC, design e simulação
Para potencializar o desenvolvimento, o treinamento e a inferência dos maiores LLMs, as instâncias do AWS P5e contarão com as mais recentes GPUs H200 da Nvidia, que oferecem 141 GB de memória de GPU HBM3e, que é 1,8 vezes maior e 1,4x mais rápida do que as GPUs H100. Esse aumento na memória da GPU, juntamente com até 3.200 Gbps de rede EFA habilitada pelo AWS Nitro System, permitirá que os clientes continuem a criar, treinar e implantar seus modelos de ponta no AWS.

Para oferecer soluções econômicas e eficientes em termos de energia para cargas de trabalho de vídeo, IA e gráficos, a AWS anuncia novas instâncias do Amazon EC2 G6e com GPUs Nvidia L40S e instâncias G6 com GPUs L4. As novas ofertas podem ajudar startups, empresas e pesquisadores a atender às suas necessidades de IA e gráficos de alta fidelidade.

As instâncias do G6e são criadas para lidar com cargas de trabalho complexas, como IA Generativa e aplicações de Digital Twins. Usando o Nvidia Omniverse, as simulações 3D fotorrealistas podem ser desenvolvidas, contextualizadas e aprimoradas usando dados em tempo real de serviços como o AWS IoT TwinMaker, chatbots inteligentes, assistentes, pesquisa e resumo. A Amazon Robotics e os Amazon Fulfillment Centers poderão integrar Gêmeos Digitais criados com o Nvidia Omniverse e o AWS IoT TwinMaker para otimizar o design e o fluxo do armazém, treinar assistentes de robôs mais inteligentes e melhorar as entregas aos clientes.

As GPUs L40S fornecem até 1,45 petaflops de desempenho FP8 e apresentam núcleos de Ray Tracing que oferecem até 209 teraflops de desempenho de ray-tracing. As GPUs L4 apresentadas nas instâncias G6 fornecerão uma solução de baixo custo e com baixo consumo de energia para a implementação de modelos de IA para processamento de linguagem natural, tradução de idiomas, análise de vídeo e imagem de IA, reconhecimento de fala e personalização. As GPUs L40S também aceleram as cargas de trabalho gráficas, como a criação e a renderização de gráficos em tempo real com qualidade cinematográfica e streaming de jogos. Todas as três instâncias estarão disponíveis no próximo ano.

O software Nvidia no AWS impulsiona o desenvolvimento de IA Generativa
Além disso, a Nvidia anunciou um software no AWS para impulsionar o desenvolvimento de IA Generativa. O microsserviço Nvidia NeMo Retriever oferece novas ferramentas para criar chatbots altamente precisos e ferramentas de resumo usando recuperação semântica acelerada. O Nvidia BioNeMo, disponível no Amazon SageMaker e chegando ao AWS no Nvidia DGX Cloud, permite que as empresas farmacêuticas acelerem a descoberta de medicamentos, simplificando e acelerando o treinamento de modelos usando seus próprios Dados.

O software Nvidia no AWS está ajudando a Amazon a trazer inovações para seus serviços e operações. A AWS está usando a estrutura Nvidia NeMo para treinar LLMs selecionados da próxima geração do Amazon Titan. A Amazon Robotics começou a aproveitar o Nvidia Omniverse Isaac para criar digital twins para automatizar, otimizar e planejar seus armazéns autônomos em ambientes virtuais antes de implantá-los no mundo real.

Serviço
aws.amazon.com
www.nvidia.com/pt-br

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.