book_icon

Nvidia revela plataforma de superchip para era da computação acelerada e IA generativa

Processador HBM3e oferece memória e largura de banda inovadoras, capacidade de conectar várias GPUs para desempenho excepcional, além de design de servidor facilmente escalável

Nvidia revela plataforma de superchip para era da computação acelerada e IA generativa

A Nvidia anuncia a próxima geração da plataforma Nvidia GH200 Grace Hopper — baseada em um novo Superchip Grace Hopper com o primeiro processador HBM3e do mundo — construída para a era da computação acelerada e IA generativa.

Criada para lidar com as cargas de trabalho de IA generativas mais complexas do mundo, abrangendo grandes modelos de linguagem (LLMs), sistemas de recomendação e bancos de dados vetoriais, a nova plataforma estará disponível em uma ampla variedade de configurações.

A configuração dupla — que oferece até 3,5 vezes mais capacidade de memória e 3 vezes mais largura de banda do que a oferta da geração atual — compreende um único servidor com 144 núcleos Arm Neoverse, oito petaflops de desempenho de IA e 282 GB da mais recente tecnologia de memória HBM3e.

A nova plataforma usa o Grace Hopper Superchip, que pode ser conectado com Superchips adicionais do Nvidia NVLink, permitindo que eles trabalhem juntos para implementar os modelos gigantes de hoje para IA generativa

“Para atender à crescente demanda por IA generativa, os Data Centers exigem plataformas de computação aceleradas com necessidades especializadas”, diz Jensen Huang, fundador e CEO da Nvidia. “A nova plataforma GH200 Grace Hopper Superchip oferece isso com tecnologia de memória excepcional e largura de banda para melhorar a taxa de transferência, a capacidade de conectar GPUs para agregar desempenho sem comprometimento e um design de servidor que pode ser facilmente implantado em todo o Data Center.”

A nova plataforma usa o Grace Hopper Superchip, que pode ser conectado com Superchips adicionais do Nvidia NVLink, permitindo que eles trabalhem juntos para implementar os modelos gigantes de hoje para IA generativa. Na configuração dupla, essa tecnologia coerente e de alta velocidade oferece à GPU acesso total à memória da CPU, fornecendo 1,2 TB combinados de memória rápida.

A memória HBM3e, que é 50% mais rápida que a HBM3 atual, oferece um total de 10 TB/s de largura de banda combinada, permitindo que a nova plataforma execute modelos 3,5 vezes maiores que a versão anterior, melhorando o desempenho com largura de banda de memória 3 vezes mais rápida.

“Mais uma vez, estamos à frente de mais uma inovação no setor. Ter o primeiro processador HBM3e do mundo mostra, mais uma vez, nossa missão em oferecer aos nossos clientes e parceiros o que há de melhor em desempenho”, reforça Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.

Demanda crescente por Grace Hopper
Fabricantes líderes já estão oferecendo sistemas baseados no previamente anunciado Grace Hopper Superchip. Para impulsionar a ampla adoção da tecnologia, a plataforma Grace Hopper Superchip de próxima geração com HBM3e é totalmente compatível com a especificação de servidor Nvidia MGX revelada na Computex no início deste ano. Com o MGX, qualquer fabricante de sistema pode adicionar o Grace Hopper de forma rápida e econômica em mais de 100 variações de servidor.

Disponibilidade

Espera-se que os principais fabricantes de sistemas forneçam sistemas baseados na plataforma no segundo trimestre do ano fiscal de 2024.

Assista ao keynote do SIGGRAPH de Huang para saber mais sobre Grace Hopper.

Serviço
www.nvidia.com/pt-br.

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.