book_icon

Intel apresenta nova versão do Distribution of OpenVINO Toolkit

Os novos recursos incluem uma seleção maior de modelos de aprendizado profundo, mais opções de portabilidade de dispositivos e maior desempenho de inferência com menos alterações de código

Intel apresenta nova versão do Distribution of OpenVINO Toolkit

Desde o lançamento do OpenVINO em 2018, a Intel permitiu que centenas de milhares de desenvolvedores acelerassem drasticamente o desempenho da inferência de IA, começando na Borda e estendendo-se para a empresa e o cliente. Em um evento virtual na semana passada, que serviu de preparação para o MWC Barcelona 2022 (28/2 a 3/3), a empresa lançou uma nova versão do Intel Distribution of OpenVINO Toolkit. Os novos recursos são construídos com base em três anos e meio de feedback do desenvolvedor e incluem uma seleção maior de modelos de aprendizado profundo, mais opções de portabilidade de dispositivos e maior desempenho de inferência com menos alterações de código.

“A versão mais recente do OpenVINO 2022.1 se baseia em mais de três anos de aprendizado de centenas de milhares de desenvolvedores para simplificar e automatizar otimizações. A atualização mais recente adiciona descoberta automática de hardware e otimização automática, para que os desenvolvedores de software possam obter o desempenho ideal em todas as plataformas. Esse software mais o silício Intel permite uma vantagem significativa de ROI de IA e é implantado facilmente nas soluções baseadas em Intel em sua rede”, disse Adam Burns, vice-presidente de OpenVINO Developer Tools no Network and Edge Group da Intel.

Com a explosão de dados, a Intel criou um software que capacita os desenvolvedores a obter o máximo de inteligência de seus dados para resolver desafios e transformar modelos de negócios

O kit de ferramentas Intel Distribution of OpenVINO – construído com base em oneAPI – é um conjunto de ferramentas para aprendizado profundo de alto desempenho, voltado para resultados mais rápidos e precisos do mundo real implementados na produção em diversas plataformas Intel, da borda à Nuvem. O OpenVINO permite que aplicativos e algoritmos de alto desempenho sejam implementados no mundo real com um fluxo de trabalho de desenvolvimento simplificado.​

O Edge AI está mudando todos os mercados, permitindo casos de uso novos e aprimorados em todos os setores, desde manufatura e aplicativos de saúde e ciências da vida até varejo , segurança e proteção. De acordo com uma pesquisa da Omdia, a receita global do chipset de IA de Borda atingirá US$ 51,9 bilhões até 2025, impulsionada pela crescente necessidade de inferência de IA na Borda. A inferência de Borda reduz a latência e a largura de banda e melhora o desempenho para atender às demandas de processamento cada vez mais críticas de dispositivos e aplicativos emergentes da Internet das Coisas (IoT).

Paralelamente, as cargas de trabalho dos desenvolvedores estão sempre aumentando e mudando. Como resultado, eles estão exigindo processos e ferramentas mais simples e automatizados com recursos inteligentes e abrangentes para desempenho otimizado desde a criação até a implementação.

Novos recursos 

Os novos recursos tornam mais simples para os desenvolvedores adotar, manter, otimizar e implantar código com facilidade em uma ampla variedade de modelos de aprendizado profundo. Os destaques incluem:

API atualizada e mais limpa

– Menos alterações de código ao fazer a transição de estruturas: os formatos de precisão agora são preservados com menos conversão e os modelos não precisam mais de conversão de layout.

– Um caminho mais fácil para uma IA mais rápida: os parâmetros da API do Model Optimizer foram reduzidos para minimizar a complexidade.

– Treine com inferência em mente: as extensões de treinamento do OpenVINO e a estrutura de compressão de rede neural (NNCF) oferecem modelos de treinamento de modelo opcionais que fornecem aprimoramentos de desempenho adicionais com precisão preservada para reconhecimento de ações, classificação de imagens, reconhecimento de fala, resposta a perguntas e tradução.

Suporte mais amplo ao modelo

– Suporte mais amplo para modelos de programação em linguagem natural e casos de uso, como conversão de texto em fala e reconhecimento de voz: o suporte a formas dinâmicas permite melhor a família BERT e os transformadores Hugging Face.

– Otimização e suporte para visão computacional avançada: a família Mask R-CNN agora está mais otimizada e o suporte ao modelo de dupla precisão (FP64) foi introduzido.

– Suporte direto para modelos PaddlePaddle: o Model Optimizer agora pode importar modelos PaddlePaddle diretamente sem primeiro converter para outra estrutura.

Portabilidade e desempenho

– Uso mais inteligente do dispositivo sem modificar o código: o modo de dispositivo AUTO descobre a capacidade de inferência do sistema disponível com base nos requisitos do modelo, para que os aplicativos não precisem mais conhecer seu ambiente de computação antecipadamente.

– Otimização especializada incorporada ao kit de ferramentas: por meio da funcionalidade de lote automático, o desempenho do dispositivo é aumentado, ajustando e personalizando automaticamente as configurações de taxa de transferência adequadas para a configuração do sistema dos desenvolvedores e o modelo de aprendizado profundo. O resultado é paralelismo escalável e uso de memória otimizado.

– Construído para Intel Core de 12ª geração: Suporta a arquitetura híbrida para fornecer aprimoramentos para inferência de alto desempenho na CPU e GPU integrada.

Sobre a adoção do Edge

Com uma abordagem de gravação única e implementação em qualquer lugar, os desenvolvedores podem escrever um aplicativo ou algoritmo uma vez e implementá-lo na arquitetura Intel, incluindo CPU, iGPU, Movidius VPU e GNA. Com a explosão de dados, a Intel criou um software que capacita os desenvolvedores a obter o máximo de inteligência de seus dados para resolver desafios e transformar modelos de negócios. Como resultado, a adoção de inferência de IA nova e exclusiva na Borda e estendendo-se à empresa e ao cliente está crescendo.

ZeblokA plataforma de IA como serviço da empresa, chamada AI-MicroCloud, é uma plataforma MLDevOps de Nuvem a Borda que permite que os clientes misturem e combinem ISVs e fornecedores de IA em escala para fornecer aplicativos de IA de ponta e, ao mesmo tempo, oferecer suporte a um ciclo de vida de implementação completo. O software OpenVINO da Intel é integrado ao AI-MicroCloud, permitindo um desempenho de inferência de IA drasticamente aprimorado com o melhor custo por insight usando processadores Intel. A plataforma AI-MicroCloud da Zeblok está atualmente sendo avaliada para implantação com topologias de rede específicas em municípios ao redor do mundo hoje.

“Nós da Zeblok pensamos no custo por insight – essa é a nossa missão. Os processadores Intel que utilizamos são econômicos, eficientes para inferência de IA e fornecem alto ROI. Com esta nova versão do OpenVINO, o valor para nosso ecossistema ficará ainda mais empolgante”, disse Mouli Narayanan, fundador e CEO da Zeblok.

Serviço
www.intel.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.