book_icon

Plataforma Nvidia Blackwell impulsiona nova era da computação

Nova plataforma permitirá criar e executar IA generativa em tempo real em grandes modelos de linguagem de trilhões de parâmetros, com até 25x menos custo e consumo de energia

Plataforma Nvidia Blackwell impulsiona nova era da computação

A Nvidia apresentou a plataforma Blackwell, permitindo que organizações de todos os lugares criem e executem IA generativa em tempo real em grandes modelos de linguagem (LLMs) de trilhões de parâmetros com até 25x menos custo e consumo de energia do que sua antecessor. A arquitetura de GPU da Blackwell apresenta seis tecnologias transformadoras para computação acelerada, que ajudarão a desbloquear avanços em processamento de dados, simulação de engenharia, automação de design eletrônico, design de medicamentos auxiliado por computador, computação quântica e IA generativa.

“Durante três décadas buscamos a computação acelerada, com o objetivo de possibilitar avanços transformadores como Deep Learning e IA”, disse Jensen Huang, fundador e CEO da Nvidia. “A IA generativa é a tecnologia que define o nosso tempo. A Blackwell é o motor que impulsiona esta nova revolução industrial. Trabalhando com as empresas mais dinâmicas do mundo, concretizaremos a promessa da IA para todos os setores”, completou.

Entre as muitas organizações que deverão adotar o Blackwell estão Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.

O GB200 é um componente chave do Nvidia GB200 NVL72, um sistema de vários nós, refrigerado a líquido e em escala de rack para as cargas de trabalho com uso mais intensivo de computação

“Escalar serviços como Search e Gmail para bilhões de usuários nos ensinou muito sobre o gerenciamento da infraestrutura de computação. À medida que entramos na mudança da plataforma de IA, continuamos a investir profundamente em infraestrutura para os nossos próprios produtos e serviços e para os nossos clientes Cloud. Temos a sorte de ter uma parceria de longa data com a Nvidia e esperamos levar os recursos inovadores da GPU Blackwell aos nossos clientes e equipes de Nuvem do Google, incluindo o Google DeepMind, para acelerar descobertas futuras”, disse Sundar Pichai, CEO da Alphabet e do Google.

“Nossa profunda colaboração com a Nvidia remonta há mais de 13 anos, quando lançamos a primeira instância de GPU em Nuvem do mundo na AWS. Hoje oferecemos a mais ampla gama de soluções de GPU disponíveis em qualquer lugar na Nuvem, suportando as cargas de trabalho aceleradas tecnologicamente mais avançadas do mundo. É por isso que a nova GPU Blackwell funcionará tão bem na AWS e a razão pela qual a Nvidia escolheu a AWS para codesenvolver o Projeto Ceiba, combinando os Superchips Grace Blackwell de próxima geração da Nvidia com a virtualização avançada do AWS Nitro System e a rede ultrarrápida do Elastic Fabric Adapter, para pesquisa e desenvolvimento de IA da própria Nvidia. Por meio desse esforço conjunto entre os engenheiros da AWS e da Nvidia, continuamos a inovar juntos para tornar a AWS o melhor lugar para qualquer pessoa executar GPUs NvidiaA na Nuvem”, comentou Andy Jassy, presidente e CEO da Amazon.

Inovações da Blackwell para impulsionar a computação acelerada e a IA generativa

As seis tecnologias revolucionárias da Blackwell, que juntas permitem treinamento em IA e inferência LLM em tempo real para modelos que escalam até 10 trilhões de parâmetros, incluem:

O chip mais poderoso do mundo – equipadas com 208 bilhões de transistores, as GPUs de arquitetura Blackwell são fabricadas usando um processo TSMC 4NP personalizado, com dois chips GPU conectados por uma ligação chip-to-chip de 10 TB/segundo, limitada por dois retículos, formando uma única GPU unificada.

Motor Transformer de segunda geração – alimentado pelo novo suporte de escala de microtensores e pelos avançados algoritmos de gerenciamento de faixa dinâmica da Nvidia integrados às estruturas Nvidia TensorRT-LLM e NeMo Megatron, a Blackwell suportará o dobro dos tamanhos de computação e modelo com a nova IA de ponto flutuante de 4 bits capacidades de inferência.

NVLink de quinta geração — para acelerar o desempenho de modelos de IA com vários trilhões de parâmetros e uma mistura de especialistas, a mais recente iteração do Nvidia NVLink oferece uma taxa de transferência bidirecional inovadora de 1,8 TB/s por GPU, garantindo comunicação contínua de alta velocidade entre até 576 GPUs para os LLMs mais complexos.

Mecanismo RAS — as GPUs com tecnologia Blackwell incluem um mecanismo dedicado para confiabilidade, disponibilidade e facilidade de manutenção. Além disso, a arquitetura Blackwell adiciona recursos no nível do chip para utilizar manutenção preventiva baseada em IA para executar diagnósticos e prever problemas de confiabilidade. Isso maximiza o tempo de atividade do sistema e melhora a resiliência para que implantações de IA em grande escala funcionem ininterruptamente por semanas ou até meses seguidos e reduzam os custos operacionais.

IA segura — recursos avançados de computação confidencial protegem modelos de IA e dados de clientes sem comprometer o desempenho, com suporte para novos protocolos de criptografia de interface nativa, que são essenciais para setores sensíveis à privacidade, como saúde e serviços financeiros.

Mecanismo de descompactação — um mecanismo de descompactação dedicado suporta os formatos mais recentes, acelerando consultas de banco de dados para oferecer o mais alto desempenho em análise de dados e ciência de dados. Nos próximos anos, o processamento de dados, no qual as empresas gastam dezenas de milhares de milhões de dólares anualmente, será cada vez mais acelerado por GPU.

“A Nvidia vem se atualizando progressivamente e o lançamento desta nova arquitetura demonstra claramente como a empresa está continuamente fortalecendo sua posição para enfrentar os desafios do futuro. Não estamos apenas acompanhando, mas liderando o ritmo das demandas do mercado, garantindo assim sua relevância e influência no cenário da tecnologia”, reforça Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.

Um enorme superchip

O Superchip Nvidia GB200 Grace Blackwell conecta duas GPUs Nvidia B200 Tensor Core à CPU Nvidia Grace por meio de uma interconexão chip a chip NVLink de consumo ultrabaixo de 900 GB/s.

Para obter o mais alto desempenho de IA, os sistemas com GB200 podem ser conectados às plataformas Nvidia Quantum-X800 InfiniBand e Spectrum-X800 Ethernet, também anunciadas, que oferecem rede avançada em velocidades de até 800 Gb/s.

O GB200 é um componente chave do Nvidia GB200 NVL72, um sistema de vários nós, refrigerado a líquido e em escala de rack para as cargas de trabalho com uso mais intensivo de computação. Ele combina 36 Superchips Grace Blackwell, que incluem 72 GPUs Blackwell e 36 CPUs Grace interconectadas por NVLink de quinta geração. Além disso, o GB200 NVL72 inclui unidades de processamento de dados Nvidia BlueField-3 para permitir aceleração de rede em Nuvem, armazenamento combinável, segurança de confiança zero e elasticidade de computação de GPU em Nuvens de IA em hiperescala. O GB200 NVL72 oferece um aumento de desempenho de até 30x em comparação com o mesmo número de GPUs Nvidia H100 Tensor Core para cargas de trabalho de inferência LLM e reduz o custo e o consumo de energia em até 25x.

A plataforma atua como uma única GPU com 1,4 exaflops de desempenho de IA e 30 TB de memória rápida, e é um alicerce para o mais novo DGX SuperPOD.

A Nvidia oferece a HGX B200, uma placa para servidor que conecta oito GPUs B200 por meio de NVLink para suportar plataformas de IA generativa baseadas em x86. A HGX B200 suporta velocidades de rede de até 400 Gb/s por meio das plataformas de rede Nvidi Quantum-2 InfiniBand e Spectrum-X Ethernet.

 

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.