Canal de Distribuição

Nvidia Enterprise dobra a potência e lança a GPU A100 de 80 GB

Principais fornecedores de sistemas Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta e Supermicro começam a oferecer sistemas Nvidia A100

A Nvidia Enterprise lança a GPU Nvidia A100 80 GB — a mais recente inovação para alimentar a plataforma de supercomputação de Inteligência Artificial Nvidia HGX, com o dobro da memória da antecessora, fornecendo a pesquisadores e engenheiros velocidade e desempenho sem precedentes para tornar possível a próxima geração de IA e inovações científicas.

A nova A100 com tecnologia HBM2E duplica a memória de alta largura de banda da GPU A100 40 GB para 80 GB, e fornece mais de 2 terabytes por segundo de largura de banda de memória. Isso permite que os dados sejam alimentados rapidamente para A100, a GPU de data center mais rápida do mundo, permitindo que pesquisadores acelerem seus softwares ainda mais e trabalhem com modelos e conjuntos de dados ainda maiores.

“Atingir resultados avançados em HPC e pesquisa de IA requer a construção de modelos maiores. No entanto, isso demanda mais capacidade de memória e largura de banda do que nunca”, explica Bryan Catanzaro, vice-presidente de pesquisa de Deep Learning aplicado na Nvidia. “A GPU A100 de 80 GB oferece o dobro da memória da sua antecessora, lançada há apenas seis meses, e quebra a barreira dos 2 TB por segundo, permitindo que os pesquisadores enfrentem os mais importantes desafios científicos e de big data do mundo.”

Ampliando os diversos recursos da A100 de 40 GB, a versão de 80 GB é ideal para uma ampla variedade de softwares que exigem memória de dados de alta capacidade  

A GPU Nvidia A100 80 GB está disponível nos sistemas Nvidia DGXTM A100 e também no mais novo Nvidia DGX StationTM A100, anunciado recentemente e previsto para serem disponibilizados neste trimestre.

Os principais fornecedores de sistemas Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta e Supermicro começarão a oferecer sistemas com placas integradas HGX A100 com opções de 4 e 8 GPUs A100 80 GB no primeiro semestre de 2021.

“Quanto maior a capacidade, maior o potencial de inovações de IA. A GPU A100 de 80GB quebrou a barreira dos 2 TB por segundo, dando aos pesquisadores e cientistas a capacidade de criar ainda mais e de forma mais rápida”, comenta Marcio Aguiar, diretor da Nvidia Enterprise para América Latina.

Impulsionando cargas de trabalho com alta exigência de dados
Ampliando os diversos recursos da A100 de 40 GB, a versão de 80 GB é ideal para uma ampla variedade de softwares que exigem memória de dados de alta capacidade.

Para treinamento de IA, os modelos de sistema de recomendação, como o de recomendação de Deep Learning (DLRM – Deep Learning Recommendation Model), têm enormes tabelas que representam bilhões de usuários e bilhões de produtos. A A100 de 80 GB oferece uma velocidade até três vezes maior, permitindo às empresas refazerem rapidamente o treinamento desses modelos para fornecerem recomendações altamente precisas.

A A100 de 80 GB permite o treinamento de modelos maiores com mais parâmetros em um único servidor HGX, como o GPT-2, um modelo de processamento de linguagem natural com recursos generativos de texto sobre-humanos. Ela elimina a necessidade de arquiteturas paralelas de modelos ou dados, que podem ter implementação demorada e execução lenta em vários nós.

Com sua tecnologia de GPU multi-instância (MIG), a A100 pode ser particionada em até sete instâncias de GPU, cada uma com 10 GB de memória. Isso fornece um isolamento seguro do hardware e maximiza a utilização de GPU em diversas cargas de trabalho menores. Para inferência de IA em modelos de reconhecimento de fala automáticos como o RNN-T, uma única instância MIG da A100 de 80 GB pode atender a lotes muito maiores, proporcionando uma taxa de transferência de inferência 1,25 vezes maior em produção.

Em uma análise comparativa sobre big data para o setor de varejo na faixa de tamanho de terabytes, a A100 de 80 GB aumenta o desempenho em até duas vezes, tornando-se uma plataforma ideal para oferecer insights rápidos de grandes conjuntos de dados. As empresas podem tomar decisões importantes em tempo real, pois os dados são atualizados dinamicamente.

Para aplicações científicas, como previsão do tempo e química quântica, as GPUs A100 de 80 GB podem oferecer uma enorme aceleração. O Quantum Espresso, uma simulação de materiais, alcançou resultados perto de duas vezes mais rápido na taxa de transferência em um único nó da A100 de 80 GB.

“Capacidade e largura de banda de memória amplas e rápidas são vitais para obter um alto desempenho em aplicações de supercomputação”, afirma Satoshi Matsuoka, diretor do Riken Center para ciência computacional. “A Nvidia A100 com 80 GB de memória de GPU HBM2E, oferecendo a mais rápida largura de banda do mundo com 2 TB por segundo, ajudará a dar um grande impulso no desempenho da aplicação.”

Principais recursos da A100 de 80 GB

A A100 de 80 GB inclui os muitos recursos inovadores da arquitetura Nvidia Ampere:

Tensor Cores de terceira geração: oferece até 20 vezes o rendimento na taxa de transferência de IA da geração anterior Volta, com um novo formato de TF32 e 2,5 x FP64 para HPC, 20 vezes a INT8 para inferência de IA e suporte para formato de dados BF16.
Memória de GPU HBM2e maior e mais rápida: duplica a capacidade de memória e é a primeira do setor a oferecer mais de 2 TB por segundo de largura de banda de memória.
Tecnologia MIG: duplica a memória por instância isolada, fornecendo até sete MIGs com 10 GB cada.
Dispersão estrutural: oferece até o dobro da velocidade na inferência de modelos de dispersão.
NVLink e NVSwitch de terceira geração: fornecem o dobro da largura de banda de GPU para GPU em comparação à geração anterior da tecnologia de interconexão, acelerando as transferências de dados para a GPU em cargas de trabalho que fazem uso intenso de dados a 600 gigabytes por segundo.
Plataforma de Supercomputação de IA Nvidia HGX

A GPU A100 de 80 GB é um elemento-chave da plataforma de supercomputação de IA Nvidia HGX, que reúne todo o poder das GPUs Nvidia, Nvidia NVLink, rede Nvidia InfiniBand e um pacote de software NVIDIA de IA e HPC totalmente otimizado para oferecer o mais alto desempenho de software. Ela permite que pesquisadores e cientistas combinem HPC, análise de dados e métodos de computação de deep learning para impulsionar o progresso científico.

 

Comentar

Clique aqui para comentar

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou quaisquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.

Assine a nossa Newsletter

e receba informações relevantes do mercado TIC

Seu e-mail foi cadastrado com sucesso!
Captcha obrigatório

Agenda & Eventos