book_icon

HPE fomenta treinamento de IA com nova solução pronta para uso da Nvidia

Nova solução, que permite que centros de pesquisa e grandes empresas acelerem a IA Generativa, integra software, hardware, rede e serviços de IA/ML

HPE fomenta treinamento de IA com nova solução pronta para uso da Nvidia

A solução de supercomputação para IA Generativa é projetada para simplificar o processo de desenvolvimento de modelos com pilhas de software de IA/ML que ajudam os clientes a acelerarem projetos de IA Generativa e Deep Learning, incluindo projetos em LLMs e modelos de recomendação de Deep Learning

A HPE apresenta uma solução de treinamento de IAs pré- configurada e pré- testada com softwares de IA/ML, supercomputação, computação acelerada, rede, armazenamento e serviços – é o primeiro sistema a ter a configuração quad do Superchip Nvidia Grace Hopper GH200

Entregue com serviços de implementação e configuração, essa solução pronta para uso é projetada para ser usada em centros de pesquisa de IA e grandes empresas, alcançando uma melhoria no tempo de entrega de tarefas e acelerando o treinamento da IA, que fica entre 2 a 3 vezes mais rápido

A solução também inclui supercomputadores com refrigeração líquida, computação acelerada, rede, armazenamento e serviços para ajudar as organizações a desbloquearem o valor da IA de forma mais rápida

A Hewlett Packard Enterprise anunciou uma solução de supercomputação para IA Generativa projetada para grandes empresas, instituições de pesquisa e organizações governamentais acelerarem o treinamento e ajuste de modelos de IA usando um conjuntos de Dados privados. Esta solução inclui um conjunto de software que permite aos clientes treinar e ajustar modelos e também desenvolver aplicativos de IA. A solução também inclui supercomputadores com refrigeração líquida, computação acelerada, rede, armazenamento e serviços para ajudar as organizações a desbloquearem o valor da IA de forma mais rápida.

“As empresas líderes de mercado e os centros de pesquisa estão treinando e ajustando modelos de IA para impulsionar a inovação e desbloquear avanços na pesquisa, mas para fazê-lo de forma eficaz e eficiente, elas precisam de soluções específicas”, comenta Justin Hotard, vice-presidente Executivo e diretor Geral de HPC, IA & Laboratórios da Hewlett Packard Enterprise. “Para dar suporte à IA Generativa, as organizações precisam aproveitar soluções sustentáveis que ofereçam desempenho dedicado e escalabilidade de um supercomputador para os treinamentos de modelos de IA. Estamos entusiasmados em expandir a nossa colaboração com a Nvidia e oferecer uma solução nativa de IA pronta para uso que ajudará nossos clientes a acelerar significativamente o treinamento e os resultados dos modelos de IA”.

Ferramentas de software para criar aplicativos de IA, personalizar modelos pré-construídos, desenvolver e modificar códigos são componentes- chave desta solução de supercomputação para IA Generativa. O software está integrado com a tecnologia de supercomputação HPE Cray, baseada na mesma arquitetura usada no supercomputador mais rápido do mundo, que funciona com Superchips Nvidia Grace Hopper GH200. A solução oferece às organizações escala e o desempenho sem precedentes necessários para intensivas cargas de trabalho de IA, como treinamento de LLM – Grandes Modelos de Linguagem e de DLRM – modelos de recomendação de Deep Learning. Com o HPE Machine Learning Development Environment neste sistema, o modelo de linguagem em código aberto Llama 2, com 70 bilhões de parâmetros, foi ajustado rapidamente em menos de 3 minutos¹, resultando em um um tempo de retorno sobre o investimento mais rápido para os clientes. Os avançados recursos de supercomputação da HPE, com apoio da tecnologia Nvidia, aprimoraram o desempenho do sistema de 2 e 3 vezes².

“A IA Generativa está transformando todos os empreendimentos industriais e científicos”, afirma Ian Buck, vice-presidente de Hiperescala e HPC da Nvidia. “A colaboração entre a Nvidia e HPE nesta solução inovadora de treinamento e simulação de IA alimentada pelos Superchips Nvidia GH200 Grace Hopper fornecerá aos clientes o desempenho necessário para avançar em suas iniciativas de IA Generativa”.

Uma solução em IA poderosa e integrada
A solução de supercomputação para IA Generativa é uma oferta especializada, integrada e nativa de IA que inclui as seguintes tecnologias e serviços de fim a fim:

Softwares de aceleração para IA/ML
Um conjunto de três ferramentas de software para ajudar os clientes a treinarem e ajustarem modelos de IA, além de criar suas próprias aplicações em IA.

O HPE Machine Learning Development Environment é uma plataforma de software de ML que permite aos clientes desenvolverem e implementarem modelos de IA de forma mais rápida ao integrar frameworks populares de ML e simplificar a preparação de dados.

A Nvidia AI Enterprise impulsiona organizações para a liderança de IA com segurança, estabilidade, gerenciabilidade e suporte. São oferecidos frameworks abrangentes, modelos pré-treinados e ferramentas que simplificam o desenvolvimento e a implementação da produção de IA.

O HPE Cray Programming Environment oferece aos programadores um conjunto completo de ferramentas para desenvolver, portar, remover bugs e aprimorar códigos.

A solução é complementada pelo HPE Complete Care Services, que oferece especialistas globais para configuração, implementação e suporte durante todo o ciclo de vida, visando simplificar a adoção de IA

Projetado em escala
Com base no sistema de exaescala HPE Cray EX2500 e Nvidia GH200 Grace Hopper Superchips líderes de mercado, a solução pode ser dimensionada para incluir milhares de GPUs – unidades de processamento gráfico, com a capacidade de dedicar a capacidade total dos nós para suportar uma única carga de trabalho de IA para um retorno sobre o investimento mais rápido. O sistema é o primeiro a apresentar a configuração de nó quad do GH200 Superchip.

Uma rede para IA em tempo real
O HPE Slingshot Interconnect oferece uma rede de alto desempenho baseada em Ethernet, projetada para suportar cargas de trabalho em exaescala. Com base na tecnologia HPE Cray, essa interconexão ajustável melhora significativamente o desempenho de todo o sistema, permitindo redes de alta velocidade.

Simplicidade pronta para uso
A solução é complementada pelo HPE Complete Care Services, que oferece especialistas globais para configuração, implementação e suporte durante todo o ciclo de vida, visando simplificar a adoção de IA.

O futuro da supercomputação e da IA será mais sustentável
Até 2028, estima-se que o crescimento das cargas de trabalho em IA irá exigir cerca de 20 gigawatts de energia nos data centers³. Os clientes precisarão de soluções que proporcionem um novo nível de eficiência energética para minimizar o impacto em sua pegada de carbono.

A eficiência energética é fundamental para as iniciativas de computação da HPE, que oferecem soluções com capacidades de resfriamento a líquido que podem proporcionar até 20% de melhoria no desempenho por quilowatt quando comparada a soluções resfriadas a ar, e além disso, elas consomem 15% menos energia⁴.

Atualmente, a HPE disponibiliza a maioria dos 10 supercomputadores mais eficientes do mundo que utilizam DLC – Resfriamento Líquido Direto, recurso presente na solução de supercomputação para IA Generativa possibilitando o resfriamento de sistemas de forma eficiente e reduzindo o consumo de energia em aplicações com processamento intensivo.

A HPE busca ajudar as organizações a aproveitarem a tecnologia de computação mais poderosa do mercado, impulsionando seus objetivos com a IA ao mesmo tempo em que contribuem para a redução do consumo de energia.

Disponibilidade
A solução de supercomputação para IA Generativa estará disponível em dezembro por meio da HPE e em mais de 30 países.

¹ Utilizando 32 nós HPE Cray EX 2500 com 128 GPUs Nvidia H100 a uma eficiência de escalabilidade de 97%, um modelo Llama 2 com 70 bilhões de parâmetros foi ajustado rapidamente em testes internos em um corpus de 10 milhões de tokens em menos de 3 minutos. O código de ajuste do modelo e os parâmetros de treinamento não foram otimizados entre as execuções de escalabilidade.

² Benchmarks padrão de IA, BERT e Mask R-CNN, foram realizados em um sistema padrão, sem ajustes, composto pelo Supercomputador HPE Cray EX2500 usando uma lâmina de acelerador HPE Cray EX254n com quatro chips superpotentes Nvidia GH200 Grace Hopper. Os testes realizados de forma independente mostraram uma melhoria de desempenho de 2 a 3 vezes em comparação com os resultados publicados pelo MLPerf 3.0 para um sistema baseado em A100, composto por dois processadores AMD EPYC 7763 e quatro GPUs Nvidia A100 com interconexões NVLINK.

³ Estudo realizado por Avelar, Victor; Donovan, Patrick; Lin, Paul; Torell, Wendy; and Torres Arango, Maria A., “The AI disruption: Challenges and guidance for data center design” (White paper 110), Schneider Electric: Link

⁴ Com base nas estimativas e testes internos de desempenho realizados pela HPE em abril de 2023, que comparam um sistema HPE Cray XD2000 resfriado a ar com o mesmo sistema usando resfriamento líquido direto. Usando um benchmark de SPEChpc2021, pequeno, MPI + OpenMP, 64 ranks, 14 threads, os resultados estimados por servidor para o sistema resfriado a ar registraram 6,61 de desempenho por quilowatt (kW), enquanto o sistema com resfriamento líquido direto registrou 7,98 de desempenho por kW, representando uma diferença de 20,7%. O mesmo benchmark registrou um consumo de energia do chassi de 4539 watts para o sistema resfriado a ar e 3862 watts para o sistema com resfriamento líquido direto, representando uma diferença de 14,9%.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.