book_icon

Fabricantes usam Nvidia para acelerar IA, Ciência de Dados e Computação Científica

Cisco, Dell Technologies, HPE, Inspur, Lenovo e Supermicro anunciam a chegada dos sistemas nos próximos meses
Fabricantes usam Nvidia para acelerar IA, Ciência de Dados e Computação Científica

A Nvidia Enterprise e importantes fabricantes de servidores do mundo anunciam os sistemas equipados com tecnologia Nvidia A100 em uma variedade de designs e configurações para enfrentar os desafios mais complexos em IA, ciência de dados e computação científica.
Mais de 50 servidores A100 dos principais fornecedores do mundo – incluindo Asus, Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta / QCT e Supermicro – são esperados após o lançamento no mês de maio deste ano da arquitetura Nvidia Ampere e da GPU Nvidia A100.
A disponibilidade dos servidores varia, com 30 sistemas previstos para os próximos meses e mais de 20 até o final do ano.

A inclusão de uma versão PCIe da A100 permite que os fabricantes de servidores disponibilizem aos clientes um conjunto variado de ofertas: desde sistemas de GPUs únicas até servidores com 10 ou mais GPUs

“A adoção da GPU Nvidia A100 nas ofertas dos principais fabricantes de servidores está superando tudo o que vimos anteriormente”, conta Ian Buck, vice-presidente e gerente geral de Computação Acelerada da Nvidia. “A grande variedade de servidores Nvidia A100 provenientes de nossos parceiros garante que os clientes possam escolher as melhores opções para acelerar seus data centers para alta utilização e baixo custo total de propriedade”.
Primeira GPU baseada na arquitetura Ampere da Nvidia, a A100 pode aumentar o desempenho até 20x mais do que sua antecessora, sendo o maior salto da empresa no desempenho de GPUs até hoje. Ela conta com vários avanços técnicos, incluindo uma nova tecnologia de várias instâncias de GPU, em que uma única A100 pode ser dividida em até sete GPUs separadas para lidar com vários trabalhos de computação, a tecnologia Nvidia NVLink de terceira geração, que possibilita unir várias GPUs para operar como uma GPU gigante, e novos recursos de dispersão estrutural, que podem ser usados para dobrar o desempenho da GPU.
A Nvidia também apresentou um fator forma de PCIe para a A100, complementando as configurações de quatro e oito vias da Nvidia HGXTM A100 lançadas no mês de maio deste ano. A inclusão de uma versão PCIe da A100 permite que os fabricantes de servidores disponibilizem aos clientes um conjunto variado de ofertas: desde sistemas de GPUs únicas até servidores com 10 ou mais GPUs. Esses sistemas aceleram uma ampla variedade de cargas de trabalho de computação intensa, da simulação do comportamento molecular para descoberta de medicamentos ao desenvolvimento de modelos financeiros melhores para aprovações de hipotecas.
“Essa nova tecnologia em diversos servidores auxiliará muitas empresas não só no Brasil, mas em toda a América Latina no que diz respeito ao avanço digital, gerando uma economia de energia e custos e aumentando a velocidade dos resultados obtidos”, explica Marcio Aguiar, diretor da Nvidia Enterprise para América Latina.
Os fabricantes de servidores que trazem sistemas equipados com Nvidia A100 para seus clientes incluem:
Asus oferecerá o ESC4000A-E10, que pode ser configurado com quatro GPUs A100 PCIe em um único servidor.
Atos oferece seu sistema BullSequana X2415 com quatro GPUs Nvidia A100 Tensor Core.
Cisco planeja oferecer suporte a GPUs Nvidia A100 Tensor Core em seus servidores Cisco Unified Computing System e em seu sistema de infraestrutura hiperconvergente, Cisco HyperFlex.
Dell Technologies planeja oferecer suporte a GPUs Nvidia A100 Tensor Core em seus servidores PowerEdge e soluções que aceleram cargas de trabalho de ponta a ponta para nuvem, assim como oferecem suporte a outros aceleradores, software e tecnologias Nvidia GPU em uma ampla gama de ofertas.
Fujitsu está trazendo GPUs A100 para sua linha de servidores PRIMERGY.
GIGABYTE oferecerá servidores G481-HA0, G492-Z50 e G492-Z51 que suportam até 10 GPUs A100 PCIe, enquanto o servidor G292-Z40 suporta até oito.
HPE suportará GPUs A100 PCIe no servidor HPE ProLiant DL380 Gen10 e, para cargas de trabalho aceleradas de HPC e IA, no sistema HPE Apollo 6500 Gen10
Inspur está lançando oito sistemas equipados com Nvidia A100, incluindo o NF5468M5, NF5468M6 e NF5468A5 usando GPUs A100 PCIe, o NF5488M5-D, NF5488A5, NF5488M6 e NF5688M6 usando o NVLink de oito vias e o NF5888M6.
Lenovo irá suportar GPUs A100 PCIe em sistemas selecionados, incluindo o servidor pronto para o Lenovo ThinkSystem SR670 AI. A Lenovo expandirá a disponibilidade em seu portfólio ThinkSystem e ThinkAgile no outono.
One Stop Systems oferecerá seu sistema de expansão OSS 4UV Gen 4 PCIe com até oito GPUs Nvidia A100 PCIe para permitir que os clientes de IA e HPC escalem seus servidores Gen 4.
Quanta/QCT oferecerá vários sistemas de servidor QuantaGrid, incluindo D52BV-2U, D43KQ-2U e D52G-4U que suportam até oito GPUs Nvidia A100 PCIe.
Supermicro oferecerá seu sistema GPU 4U A +, suportando até oito GPUs Nvidia A100 PCIe e até dois slots de expansão PCI-E 4.0 de alto desempenho adicionais, juntamente com outros servidores GPU 1U, 2U e 4U.
A Nvidia Enterprise tem expandido seu portfólio de sistemas certificados NGC-ReadyTM. Trabalhando diretamente com a Nvidia, os fornecedores de sistemas podem receber a certificação NGC-Ready para seus servidores A100. A certificação NGC-Ready garante aos clientes que os sistemas oferecerão o desempenho necessário para executar cargas de trabalho de IA.
Os sistemas prontos para NGC são testados com o software de IA otimizado para GPU do registro NGCTM da Nvidia, que está disponível para sistemas com GPU da Nvidia em data centers, na nuvem e em edge.
Software otimizado para Nvidia A100 já disponível
A A100 é compatível com software otimizado por Nvidia Ampere, incluindo o CUDA 11; novas versões de mais de 50 bibliotecas CUDA-XTM; Nvidia Jarvis, uma estrutura de serviços de IA multimodal e informal; Nvidia Merlin, uma estrutura de aplicações muito recomendada; o conjunto de bibliotecas de software de ciência de dados de código aberto RAPIDSTM e o SDK DE HPC DA Nvidia, que inclui compiladores, bibliotecas e ferramentas de software para maximizar a produtividade do desenvolvedor e o desempenho e a portabilidade de aplicações de HPC.
Essas poderosas ferramentas de software permitem que os desenvolvedores criem e acelerem aplicações em HPC, genômica, 5G, ciência de dados, robótica e muito mais.
Serviço
nvidianews.nvidia.com
www.nvidia.com/pt-br
 

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.