book_icon

AMD reforça portfólio para IA e HPC com novos acelerados Instinct MI300

Os aceleradores AMD Instinct MI300X e a unidade de processamento acelerado (APU) AMD Instinct MI300A oferecem alto desempenho para as cargas de trabalho mais exigentes nestas aplicações

AMD reforça portfólio para IA e HPC com novos acelerados Instinct MI300

A AMD anunciou a disponibilidade dos aceleradores AMD Instinct MI300X, com largura de banda de memória para aplicações de IA generativa e alto desempenho para grandes treinamento e inferência de modelo de linguagem grande (LLM), bem como a unidade de processamento acelerado (APU) AMD Instinct MI300A, combinando a mais recente arquitetura AMD CDNA 3 e CPUs Zen 4 para oferecer desempenho para cargas de trabalho de HPC e IA.

“Os aceleradores AMD Instinct Serie MI300 são projetados com nossas tecnologias mais avançadas, oferecendo desempenho de liderança e estarão em implementações corporativas e em Nuvem em larga escala”, disse Victor Peng, presidente da AMD. “Ao alavancar nossa liderança em hardware, software e abordagem de ecossistema aberto, os provedores de Nuvem, OEMs e ODMs estão trazendo ao mercado tecnologias que capacitam as empresas a adotar e implementar soluções baseadas em IA”, completou.

As APUs AMD Instinct MI300A, a primeira APU de Data Center do mundo para HPC e IA, aproveitam o empacotamento 3D e a arquitetura AMD Infinity de 4ª geração para oferecer desempenho de liderança em cargas de trabalho críticas situadas na convergência de HPC e IA

Os clientes que utilizam o mais recente portfólio de aceleradores AMD Instinct incluem a Microsoft, que anunciou recentemente a nova série de máquinas virtuais (VM) Azure ND MI300x v5, otimizada para cargas de trabalho de IA e alimentada por aceleradores AMD Instinct MI300X. Além disso, El Capitan – um supercomputador equipado com APUs AMD Instinct MI300A e instalado no Laboratório Nacional Lawrence Livermore – deverá ser o segundo supercomputador de classe exascale desenvolvido pela AMD e deverá fornecer mais de 2 exaflops de desempenho de precisão dupla quando totalmente implantado. A Oracle Cloud Infrastructure (OCI) planeja adicionar instâncias bare metal baseadas em AMD Instinct MI300X às instâncias de computação acelerada de alto desempenho da empresa para IA. As instâncias baseadas em MI300X são planejadas para oferecer suporte ao OCI Supercluster com rede RDMA ultrarrápida.

Vários grandes OEMs também apresentaram sistemas de computação acelerados, em conjunto com o evento AMD Advancing AI. A Dell Tecnologies apresentou o servidor Dell PowerEdge XE9680 com oito aceleradores AMD Instinct série MI300 e o novo Dell Validated Design for Generative AI com estruturas de IA baseadas em AMD ROCm. A HPE anunciou recentemente o HPE Cray Supercomputing EX255a, o primeiro blade acelerador de supercomputação equipado com APUs AMD Instinct MI300A, que estará disponível no início de 2024. A Lenovo anunciou seu suporte de design para os novos aceleradores AMD Instinct MI300 Series com disponibilidade planejada no primeiro semestre de 2024. A Supermicro anunciou novas adições à sua geração H13 de servidores acelerados equipados com CPUs AMD Epyc de 4ª geração e aceleradores AMD Instinct Série MI300.

AMD Instinct MI300X

Os aceleradores AMD Instinct MI300X são alimentados pela nova arquitetura AMD CDNA 3. Quando comparado aos aceleradores AMD Instinct MI250X da geração anterior, o MI300X oferece quase 40% mais unidades de computação, 1,5x mais capacidade de memória, 1,7x mais largura de banda de memória teórica de pico, bem como suporte para novos formatos matemáticos, como FP8 e dispersão, tudo voltado para cargas de trabalho de IA e HPC.

Os LLMs atuais continuam a aumentar em tamanho e complexidade, exigindo enormes quantidades de memória e computação. Os aceleradores AMD Instinct MI300X apresentam a melhor capacidade de memória HBM3 de 192 GB da categoria, bem como largura de banda de memória de pico de 5,3 TB/s para fornecer o desempenho necessário para cargas de trabalho de IA cada vez mais exigentes. A plataforma AMD Instinct é uma plataforma de IA generativa de liderança construída em um design OCP padrão do setor com 8 aceleradores MI300X para oferecer 1,5 TB de capacidade de memória HBM3 líder do setor. O design padrão da indústria da plataforma AMD Instinct permite que parceiros OEM incorporem aceleradores MI300X em ofertas de IA existentes e simplifiquem a implantação e acelerem a adoção de servidores baseados em aceleradores AMD Instinct.

Comparada com a Nvidia H100 HGX, a plataforma AMD Instinct pode oferecer um aumento de rendimento de até 1,6x ao executar inferência em LLMs como BLOOM 176B 4 e é a única opção no mercado capaz de executar inferência para um modelo de parâmetros de 70B, como Llama2 , em um único acelerador MI300X; simplificando implantações de LLM de classe empresarial e permitindo excelente TCO.

AMD Instinct MI300A

As APUs AMD Instinct MI300A, a primeira APU de Data Center do mundo para HPC e IA, aproveitam o empacotamento 3D e a arquitetura AMD Infinity de 4ª geração para oferecer desempenho de liderança em cargas de trabalho críticas situadas na convergência de HPC e IA. As APUs MI300A combinam núcleos de GPU AMD CDNA 3 de alto desempenho, os mais recentes núcleos de CPU AMD Zen 4 baseados em x86 e 128 GB de memória HBM3 de próxima geração, para oferecer aproximadamente 1,9x o desempenho por watt em cargas de trabalho de HPC e IA FP32 , em comparação com a geração anterior AMD Instinct MI250X.

A eficiência energética é de extrema importância para as comunidades de HPC e IA, no entanto, estas cargas de trabalho são extremamente intensivas em dados e recursos. As APUs AMD Instinct MI300A se beneficiam da integração de núcleos de CPU e GPU em um único pacote, oferecendo uma plataforma altamente eficiente e, ao mesmo tempo, fornecendo desempenho de computação para acelerar o treinamento dos modelos de IA mais recentes. A AMD está definindo o ritmo da inovação em eficiência energética com a meta 30×25 da empresa, com o objetivo de fornecer uma melhoria de 30x na eficiência energética em processadores e aceleradores de servidores para treinamento em IA e HPC de 2020 a 2025.

A vantagem da APU significa que as APUs AMD Instinct MI300A apresentam memória unificada e recursos de cache, oferecendo aos clientes uma plataforma de GPU facilmente programável, computação de alto desempenho, treinamento rápido de IA e eficiência energética impressionante para alimentar as cargas de trabalho de HPC e IA mais exigentes.

Parceiros de software e ecossistema ROCm

A AMD anunciou a mais recente plataforma de software aberto AMD ROCm 6, bem como o compromisso da empresa de contribuir com bibliotecas de última geração para a comunidade de código aberto, promovendo a visão da empresa de desenvolvimento de software de IA de código aberto. O software ROCm 6 representa um avanço significativo para as ferramentas de software AMD, aumentando o desempenho de aceleração de IA em aproximadamente 8x quando executado em aceleradores da série MI300 na geração de texto Llama 2 em comparação com hardware e software da geração anterior. Além disso, o ROCm 6 adiciona suporte para vários novos recursos importantes para IA generativa, incluindo FlashAttention, HIPGraph e vLLM, entre outros. Como tal, a AMD está posicionada de forma única para aproveitar os modelos, algoritmos e estruturas de software de IA de código aberto mais amplamente utilizados – como Hugging Face, PyTorch, TensorFlow e outros – impulsionando a inovação, simplificando a implantação de soluções de IA da AMD e liberando o verdadeiro potencial de IA generativa.

A AMD também continua investindo em recursos de software por meio das aquisições de Nod.AI e Mipsology, bem como por meio de parcerias estratégicas de ecossistemas, como Lamini – executando LLMs para clientes corporativos – e MosaicML – aproveitando AMD ROCm para permitir treinamento LLM em aceleradores AMD Instinct com zero alterações de código.

Serviço
www.amd.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.