book_icon

Cloudflare e Microsoft colaboram para executar a IA em qualquer lugar

Iniciativa pode garantir que os modelos de IA possam ser executados onde quer que o processamento faça mais sentido, desde a Nuvem em hiperescala até a Borda da rede ou mesmo no dispositivo

Cloudflare e Microsoft colaboram para executar a IA em qualquer lugar

A Cloudflare, empresa de conectividade em Nuvem, anunciou nesta quarta-feira (27/9) que está colaborando com a Microsoft para tornar mais fácil para as empresas executarem IA no local mais adequado para suas necessidades. À medida que as tarefas de inferência se tornam cada vez mais distribuídas, esta colaboração permitirá que as empresas implementem modelos de IA de forma integrada em um continuum de computação que abrange dispositivos, Bordas de rede e ambientes de Nuvem, maximizando os benefícios dos modelos de computação centralizados e distribuídos. Aproveitando o ONNX Runtime nesses três níveis, a Cloudflare e a Microsoft podem garantir que os modelos de IA possam ser executados onde quer que o processamento faça mais sentido nesta arquitetura – desde a Nuvem em hiperescala até a Borda da rede hiperdistribuída e os próprios dispositivos – que melhor aborda a largura de banda, latência, conectividade, processamento, bateria/energia e soberania de dados e demandas de localização de um determinado aplicativo ou serviço.

As empresas desejam poder mover tarefas de inferência por esse continuum de dispositivos, Borda de rede e Nuvem, dependendo do desempenho, do custo e dos requisitos regulatórios que enfrentam

O treinamento de modelos de IA requer recursos computacionais e de armazenamento significativos próximos uns dos outros, tornando as plataformas de Nuvem centralizadas o melhor ambiente para os cálculos intensivos necessários no treinamento de modelos. Embora o treinamento continue a ser centralizado, as tarefas de inferência serão cada vez mais realizadas em locais mais distribuídos, especificamente nos próprios dispositivos e em redes de Borda. Por exemplo, algumas tarefas de inferência (como um veículo autônomo freando ao avistar um pedestre) serão executadas no dispositivo físico com a menor latência possível. No entanto, para navegar pelas limitações dos dispositivos, como computação, armazenamento e energia da bateria, cada vez mais tarefas precisarão ser executadas em Borda de redes. As redes periféricas – proximidade geográfica dos usuários finais e dos dispositivos – proporcionarão um equilíbrio ideal entre recursos computacionais, velocidade, e privacidade de dados. Alguns aplicativos podem exigir a passagem por três níveis desse continuum de computação, com dispositivos, Borda de rede e ambientes de Nuvem trabalhando juntos para oferecer a melhor experiência ao usuário final.

“Juntas, a Cloudflare e a Microsoft construirão os trilhos pelos quais o tráfego e as tarefas de IA irão se mover, para adaptar a inferência de IA às necessidades e demandas exatas de cada organização”, disse Matthew Prince, CEO e cofundador da Cloudflare. “Esteja você procurando velocidade ou precisão, lidando com desafios de energia ou largura de banda de conectividade ou cumprindo requisitos de localização regional, a Cloudflare e a Microsoft podem ajudá-lo a encontrar o melhor local para suas tarefas de IA”, garantiu.

“À medida que as empresas exploram a melhor maneira de aproveitar o poder da IA ​​generativa de maneiras exclusivas para atender às suas necessidades, a capacidade de executar modelos de IA em qualquer lugar é fundamental”, disse Rashmi Misra, gerente-geral de Dados, IA e Tecnologias Emergentes da Microsoft. “Com a rede global da Cloudflare, combinada com a experiência da Microsoft em treinamento e implementação das cargas de trabalho de IA mais avançadas do mundo por meio de nossa Nuvem Azure, as empresas terão acesso a um novo nível de flexibilidade e desempenho para inferência de IA”, afirmou.

A Cloudflare e a Microsoft colaborarão para facilitar às empresas a execução de IA no local mais adequado para a carga de trabalho. Existem duas peças para fazer isso acontecer:

– O ONNX Runtime da Microsoft cria uma solução padronizada que permite que os mesmos modelos sejam implementados independentemente do ambiente, seja no dispositivo (Windows, móvel ou no navegador), na Borda da rede distribuída (Cloudflare) ou na plataforma de Nuvem centralizada do Azure.

– A Cloudflare pode fornecer a infraestrutura para rotear o tráfego entre diferentes ambientes, dependendo da conectividade, latência, conformidade ou outros requisitos.

As empresas desejam poder mover tarefas de inferência por esse continuum de dispositivos, Borda de rede e Nuvem, dependendo do desempenho, do custo e dos requisitos regulatórios que enfrentam. Os recursos de IA e a infraestrutura de Nuvem em hiperescala da Microsoft, combinados com a Borda de rede hiperdistribuída da Cloudflare, capacitarão as empresas a impulsionar a inovação e a eficiência em todo o ciclo de vida da IA. Como resultado, as empresas serão capazes de:

Encontre o melhor local para tarefas de IA: opte por implementar a inferência de IA onde quer que o processamento faça mais sentido para alcançar os resultados desejados, maximizando os benefícios dos modelos de computação centralizados e distribuídos. Por exemplo, um sistema de câmeras de segurança poderia utilizar redes de Borda para executar a detecção de objetos. Isto supera as restrições de recursos do próprio dispositivo, sem a latência de envio de dados a um servidor central para processamento.

Navegue pelas necessidades em constante mudança: execute modelos em todos os três locais e ajuste ou retroceda com base na disponibilidade, no caso de uso e nos requisitos de latência.

Implemente na Cloudflare com apenas alguns cliques: acesse modelos fáceis de implantar e recursos de ferramentas de ML no Workers AI por meio do Microsoft Azure Machine Learning..

Serviço
www.cloudflare.com
www.microsoft.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.