book_icon

F5 e Intel simplificam a segurança e a entrega de serviços de IA

Nova solução conjunta combina segurança e gerenciamento de tráfego da oferta NGINX Plus da F5 com o  kit de ferramentas Intel OpenVINO e Unidades de Processamento de Infraestrutura

F5 e Intel simplificam a segurança e a entrega de serviços de IA

A F5, empresa global de segurança e entrega de aplicativos Multicloud, anunciou nesta quarta-feira (28/8) que está trazendo recursos robustos de segurança e entrega de aplicativos para implementações de IA com tecnologia Intel. Esta nova solução conjunta combina segurança e gerenciamento de tráfego da oferta NGINX Plus da F5 com a otimização e desempenho de ponta do kit de ferramentas Intel Distribution of OpenVINO e Unidades de Processamento de Infraestrutura (IPUs) para oferecer proteção, escalabilidade e desempenho superiores para inferência avançada de IA.

À medida que as organizações adotam cada vez mais a IA para alimentar aplicativos e fluxos de trabalho inteligentes, a inferência de IA eficiente e segura se torna crítica. Essa necessidade é atendida combinando o kit de ferramentas OpenVINO – que otimiza e acelera a inferência de modelos de IA – com o F5 NGINX Plus, fornecendo gerenciamento de tráfego e segurança robustos.

Essa colaboração destaca nosso compromisso em impulsionar a inovação e oferece uma solução de inferência de IA segura, confiável e escalável q

O kit de ferramentas OpenVINO simplifica a otimização de modelos de praticamente qualquer estrutura para permitir uma abordagem de gravação única e implementação em qualquer lugar. Este kit de ferramentas é essencial para desenvolvedores que desejam criar soluções de IA escaláveis e eficientes com alterações mínimas de código.

O F5 NGINX Plus aumenta a segurança e a confiabilidade desses modelos de IA. Atuando como um proxy reverso, o NGINX Plus gerencia o tráfego, garante alta disponibilidade e fornece verificações de integridade ativas. Ele também facilita a terminação SSL e a criptografia mTLS, protegendo as comunicações entre aplicativos e modelos de IA sem comprometer o desempenho.

Para aumentar ainda mais o desempenho, as IPUs da Intel descarregam os serviços de infraestrutura da CPU do host, liberando recursos para servidores de modelo de IA. As IPUs gerenciam com eficiência as tarefas de infraestrutura, abrindo recursos para aprimorar a escalabilidade e o desempenho dos servidores de modelo NGINX Plus e OpenVINO™ (OVMS).

Essa solução integrada é particularmente benéfica para aplicativos de borda, como análise de vídeo e IoT, onde baixa latência e alto desempenho são cruciais. Ao executar o NGINX Plus na Intel IPU, a solução ajuda a garantir respostas rápidas e confiáveis, tornando-a ideal para redes de entrega de conteúdo e implantações de microsserviços distribuídos.

“A parceria com a Intel nos capacita a ultrapassar os limites da implementação de IA. Essa colaboração destaca nosso compromisso em impulsionar a inovação e oferece uma solução de inferência de IA segura, confiável e escalável que permitirá que as empresas forneçam serviços de IA com segurança e rapidez. Nossa solução combinada garante que as organizações possam aproveitar o poder da IA com desempenho e segurança superiores”, disse Kunal Anand, diretor de Tecnologia da F5.

“Aproveitar a aceleração de infraestrutura de ponta das IPUs da Intel e do kit de ferramentas OpenVINO junto com o F5 NGINX Plus pode ajudar a permitir que as empresas realizem soluções inovadoras de inferência de IA com simplicidade, segurança e desempenho aprimorados em escala para vários mercados verticais e cargas de trabalho”, disse Pere Monclus, diretor de Tecnologia do Network and Edge Group da Intel.

 

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.