A Nvidia apresentou a plataforma Blackwell, permitindo que organizações de todos os lugares criem e executem IA generativa em tempo real em grandes modelos de linguagem (LLMs) de trilhões de parâmetros com até 25x menos custo e consumo de energia do que sua antecessor. A arquitetura de GPU da Blackwell apresenta seis tecnologias transformadoras para computação acelerada, que ajudarão a desbloquear avanços em processamento de dados, simulação de engenharia, automação de design eletrônico, design de medicamentos auxiliado por computador, computação quântica e IA generativa.
“Durante três décadas buscamos a computação acelerada, com o objetivo de possibilitar avanços transformadores como Deep Learning e IA”, disse Jensen Huang, fundador e CEO da Nvidia. “A IA generativa é a tecnologia que define o nosso tempo. A Blackwell é o motor que impulsiona esta nova revolução industrial. Trabalhando com as empresas mais dinâmicas do mundo, concretizaremos a promessa da IA para todos os setores”, completou.
Entre as muitas organizações que deverão adotar o Blackwell estão Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.
“Escalar serviços como Search e Gmail para bilhões de usuários nos ensinou muito sobre o gerenciamento da infraestrutura de computação. À medida que entramos na mudança da plataforma de IA, continuamos a investir profundamente em infraestrutura para os nossos próprios produtos e serviços e para os nossos clientes Cloud. Temos a sorte de ter uma parceria de longa data com a Nvidia e esperamos levar os recursos inovadores da GPU Blackwell aos nossos clientes e equipes de Nuvem do Google, incluindo o Google DeepMind, para acelerar descobertas futuras”, disse Sundar Pichai, CEO da Alphabet e do Google.
“Nossa profunda colaboração com a Nvidia remonta há mais de 13 anos, quando lançamos a primeira instância de GPU em Nuvem do mundo na AWS. Hoje oferecemos a mais ampla gama de soluções de GPU disponíveis em qualquer lugar na Nuvem, suportando as cargas de trabalho aceleradas tecnologicamente mais avançadas do mundo. É por isso que a nova GPU Blackwell funcionará tão bem na AWS e a razão pela qual a Nvidia escolheu a AWS para codesenvolver o Projeto Ceiba, combinando os Superchips Grace Blackwell de próxima geração da Nvidia com a virtualização avançada do AWS Nitro System e a rede ultrarrápida do Elastic Fabric Adapter, para pesquisa e desenvolvimento de IA da própria Nvidia. Por meio desse esforço conjunto entre os engenheiros da AWS e da Nvidia, continuamos a inovar juntos para tornar a AWS o melhor lugar para qualquer pessoa executar GPUs NvidiaA na Nuvem”, comentou Andy Jassy, presidente e CEO da Amazon.
Inovações da Blackwell para impulsionar a computação acelerada e a IA generativa
As seis tecnologias revolucionárias da Blackwell, que juntas permitem treinamento em IA e inferência LLM em tempo real para modelos que escalam até 10 trilhões de parâmetros, incluem:
O chip mais poderoso do mundo – equipadas com 208 bilhões de transistores, as GPUs de arquitetura Blackwell são fabricadas usando um processo TSMC 4NP personalizado, com dois chips GPU conectados por uma ligação chip-to-chip de 10 TB/segundo, limitada por dois retículos, formando uma única GPU unificada.
Motor Transformer de segunda geração – alimentado pelo novo suporte de escala de microtensores e pelos avançados algoritmos de gerenciamento de faixa dinâmica da Nvidia integrados às estruturas Nvidia TensorRT-LLM e NeMo Megatron, a Blackwell suportará o dobro dos tamanhos de computação e modelo com a nova IA de ponto flutuante de 4 bits capacidades de inferência.
NVLink de quinta geração — para acelerar o desempenho de modelos de IA com vários trilhões de parâmetros e uma mistura de especialistas, a mais recente iteração do Nvidia NVLink oferece uma taxa de transferência bidirecional inovadora de 1,8 TB/s por GPU, garantindo comunicação contínua de alta velocidade entre até 576 GPUs para os LLMs mais complexos.
Mecanismo RAS — as GPUs com tecnologia Blackwell incluem um mecanismo dedicado para confiabilidade, disponibilidade e facilidade de manutenção. Além disso, a arquitetura Blackwell adiciona recursos no nível do chip para utilizar manutenção preventiva baseada em IA para executar diagnósticos e prever problemas de confiabilidade. Isso maximiza o tempo de atividade do sistema e melhora a resiliência para que implantações de IA em grande escala funcionem ininterruptamente por semanas ou até meses seguidos e reduzam os custos operacionais.
IA segura — recursos avançados de computação confidencial protegem modelos de IA e dados de clientes sem comprometer o desempenho, com suporte para novos protocolos de criptografia de interface nativa, que são essenciais para setores sensíveis à privacidade, como saúde e serviços financeiros.
Mecanismo de descompactação — um mecanismo de descompactação dedicado suporta os formatos mais recentes, acelerando consultas de banco de dados para oferecer o mais alto desempenho em análise de dados e ciência de dados. Nos próximos anos, o processamento de dados, no qual as empresas gastam dezenas de milhares de milhões de dólares anualmente, será cada vez mais acelerado por GPU.
“A Nvidia vem se atualizando progressivamente e o lançamento desta nova arquitetura demonstra claramente como a empresa está continuamente fortalecendo sua posição para enfrentar os desafios do futuro. Não estamos apenas acompanhando, mas liderando o ritmo das demandas do mercado, garantindo assim sua relevância e influência no cenário da tecnologia”, reforça Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.
Um enorme superchip
O Superchip Nvidia GB200 Grace Blackwell conecta duas GPUs Nvidia B200 Tensor Core à CPU Nvidia Grace por meio de uma interconexão chip a chip NVLink de consumo ultrabaixo de 900 GB/s.
Para obter o mais alto desempenho de IA, os sistemas com GB200 podem ser conectados às plataformas Nvidia Quantum-X800 InfiniBand e Spectrum-X800 Ethernet, também anunciadas, que oferecem rede avançada em velocidades de até 800 Gb/s.
O GB200 é um componente chave do Nvidia GB200 NVL72, um sistema de vários nós, refrigerado a líquido e em escala de rack para as cargas de trabalho com uso mais intensivo de computação. Ele combina 36 Superchips Grace Blackwell, que incluem 72 GPUs Blackwell e 36 CPUs Grace interconectadas por NVLink de quinta geração. Além disso, o GB200 NVL72 inclui unidades de processamento de dados Nvidia BlueField-3 para permitir aceleração de rede em Nuvem, armazenamento combinável, segurança de confiança zero e elasticidade de computação de GPU em Nuvens de IA em hiperescala. O GB200 NVL72 oferece um aumento de desempenho de até 30x em comparação com o mesmo número de GPUs Nvidia H100 Tensor Core para cargas de trabalho de inferência LLM e reduz o custo e o consumo de energia em até 25x.
A plataforma atua como uma única GPU com 1,4 exaflops de desempenho de IA e 30 TB de memória rápida, e é um alicerce para o mais novo DGX SuperPOD.
A Nvidia oferece a HGX B200, uma placa para servidor que conecta oito GPUs B200 por meio de NVLink para suportar plataformas de IA generativa baseadas em x86. A HGX B200 suporta velocidades de rede de até 400 Gb/s por meio das plataformas de rede Nvidi Quantum-2 InfiniBand e Spectrum-X Ethernet.
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo