book_icon

Dell Technologies, Inspur e Supermicro elevam o nível no treinamento de IA com Nvidia IA

Usando a IA da Nvidia, Dell Technologies, Inspur, Microsoft Azure e Supermicro estabelecem recordes para treinar modelos de IA com rapidez nos benchmarks MLPerf mais recentes lançados

Dell Technologies, Inspur e Supermicro elevam o nível no treinamento de IA com Nvidia IA

As empresas Dell Technologies, Inspur e Supermicro estabelecem novos recordes de velocidades para treinar modelos de IA com rapidez na estreia nos benchmarks MLPerf – Azure utilizando a Inteligência Artificial (IA) da Nvidia. Além disso, a plataforma da companhia bateu recordes em todas as oito cargas de trabalho populares nos resultados do treinamento 1.1 do MLPerf.

As GPUs Nvidia A100 Tensor Core entregaram o melhor desempenho normalizado por chip. Elas foram escaladas com a rede Nvidia InfiniBand e a pilha de software da empresa para oferecer o tempo mais rápido para treinar no Selene, supercomputador de IA interno baseado no Nvidia DGX SuperPOD modular.

“Mais uma vez nos orgulha os resultados do MLPerf. Nós da Nvidia nos orgulhamos em poder contribuir para aceleração de diversas empresas e sempre superarmos nossas expectativas em cada pesquisa”, comemora Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.

Os sistemas são rápidos e flexíveis e fornecem a produtividade que os clientes precisam para acelerar seu trabalho 

Uma Nuvem navega para o topo
Quando se trata de treinar modelos de IA, a instância NDm A100 v4 do Azure é rápida, de acordo com os resultados mais recentes. Ele executou todos os testes na última rodada e aumentou para 2.048 GPUs A100.

A Azure mostrou não apenas um ótimo desempenho, mas também um desempenho que está disponível para qualquer pessoa alugar e usar hoje, em seis regiões dos EUA.

O treinamento de IA é um grande trabalho que requer muito esforço. Para isso, a Nvidia quer que os usuários treinem modelos em velocidade recorde com o serviço ou sistema de sua escolha.

Desta forma, a empresa está habilitando a IA da Nvidia com produtos para serviços em Nuvem, serviços de co-localização, corporações e centros de computação científica.

Os fabricantes de servidores mostram suas forças
Entre os OEMs, a Inspur estabeleceu o maior número de recordes em desempenho de nó único com seus sistemas de GPU de oito vias NF5688M6 e o NF5488A5 com refrigeração líquida. Dell e Supermicro estabeleceram recordes em sistemas de GPU A100 de quatro vias.

Um total de 10 parceiros Nvidia enviaram resultados na rodada, oito OEMs e dois provedores de serviços em Nuvem. Eles representaram mais de 90% de todas as inscrições.

Esta é a quinta e mais forte exibição até hoje para o ecossistema Nvidia em testes de treinamento do MLPerf.

O MLPerf é o único padrão da indústria, benchmark revisado por pares para treinamento e inferência de IA sendo uma ferramenta valiosa para clientes que avaliam plataformas e fornecedores de IA.

Servidores certificados para velocidade
Baidu PaddlePaddle, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo e Supermicro enviaram resultados em data centers locais, executando trabalhos em um ou vários nós.

Quase todos os parceiros OEM da Nvidia executaram testes em sistemas certificados pela empresa, servidores que foram validados para clientes corporativos que desejam computação acelerada.

A variedade de envios mostra a amplitude e maturidade da plataforma Nvidia, que fornece soluções ideais para empresas que trabalham em qualquer escala.

Rápido e flexível
A Nvidia IA foi a única plataforma que os participantes usaram para fazer envios em todos os benchmarks e casos de uso, demonstrando versatilidade e alto desempenho. Os sistemas são rápidos e flexíveis e fornecem a produtividade que os clientes precisam para acelerar seu trabalho.

Os benchmarks de treinamento cobrem oito das cargas de trabalho e cenários de IA mais populares da atualidade – visão computacional, processamento de linguagem natural, sistemas de recomendação, aprendizado por reforço e muito mais.

Os testes do MLPerf são transparentes e objetivos, para que os usuários possam confiar nos resultados para tomar decisões de compra informadas. O grupo de benchmarking da indústria, formado em maio de 2018, é apoiado por dezenas de líderes da indústria, incluindo Alibaba, Arm, Google, Intel e Nvidia.

20x mais acelerações em três anos
Desde os primeiros resultados, os números mostram ganhos de desempenho nas GPUs A100 de mais de 5x nos últimos 18 meses. Isso acontece graças às inovações contínuas em software, a maior parte do trabalho da Nvidia atualmente.

O desempenho da companhia aumentou mais de 20x desde a estreia dos testes MLPerf, três anos atrás. Essa aceleração massiva é resultado dos avanços que empresa realizou na oferta full-stack de GPUs, redes, sistemas e software.

Software em constante melhoria
Os avanços mais recentes vieram de várias melhorias de software. Por exemplo, usando uma nova classe de operações de cópia de memória, a Nvidia alcançou operações 2,5 vezes mais rápidas no benchmark 3D-UNet para imagens médicas.

Graças às maneiras pelas quais as GPUs podem ser ajustadas para processamento paralelo, a companhia percebeu uma velocidade de 10% no teste Mask R-CNN para detecção de objetos e um aumento de 27% para sistemas de recomendação. A NVIDIA também realizou operações independentes sobrepostas, uma técnica especialmente poderosa para trabalhos executados em muitas GPUs.

Além disso, a empresa expandiu o uso de gráficos CUDA para minimizar a comunicação com a CPU host, trazendo um ganho de desempenho de 6% no benchmark ResNet-50 para classificação de imagens.

Por fim, a Nvidia implementou duas novas técnicas no NCCL, biblioteca que otimiza a comunicação entre GPUs. A novidade acelerou os resultados em até 5% em grandes modelos de linguagem como o BERT.

Trabalho árduo
Todo o software utilizado está disponível no repositório MLPerf, para que todos possam obter resultados de classe mundial. A Nvidia dobra continuamente essas otimizações em contêineres disponíveis no NGC, hub de software para aplicações de GPU.

É parte de uma plataforma full-stack, comprovada nos mais recentes benchmarks do setor e disponível a partir de uma variedade de parceiros para enfrentar trabalhos reais de IA.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.