book_icon

Red Hat divulga integração com Nvidia NIM a partir do Red Hat OpenShift AI

Colaboração possibilita que os usuários combinem modelos de IA treinados usando Red Hat OpenShift AI com microsserviços Nvidia NIM para desenvolver novas aplicações

Red Hat divulga integração com Nvidia NIM a partir do Red Hat OpenShift AI

Red Hat e Nvidia acabam de ampliar sua colaboração por meio do suporte integrado de microsserviços Nvidia NIM no Red Hat OpenShift AI. Com o anúncio, clientes das duas empresas serão capazes de usar o Red Hat OpenShift AI com Nvidia NIM — um conjunto de microsserviços de fácil manejo também presente plataforma de software Nvidia AI Enterprise que tem como objetivo acelerar a entrega de aplicações de IA Generativa (gen AI) para gerar mais valor corporativo a organizações que estão incorporando a Inteligência Artificial.

A medida ajudará a alimentar a interoperabilidade contínua para microsserviços Nvidia NIM dentro de futuras iterações do Red Hat OpenShift AI 

O suporte para Nvidia NIM on Red Hat OpenShift AI tem como base a otimização existente para Nvidia AI Enterprise nas tecnologias de Nuvem híbrida aberta referência do setor da Red Hat,. Como parte da nova etapa da aliança, a Nvidia irá possibilitar a interoperabilidade NIM com KServe, um projeto Open Source baseado em Kubernetes para casos de uso de IA altamente escaláveis e um contribuidor upstream core para Red Hat OpenShift AI. A medida ajudará a alimentar a interoperabilidade contínua para microsserviços Nvidia NIM dentro de futuras iterações do Red Hat OpenShift AI.

Além disso, a integração entre serviços possibilita que as empresas aumentem sua produtividade com funcionalidades de gen AI assim como expandir o atendimento aos clientes com assistentes virtuais, diminuir os casos de atendimentos de TI e acelerar operações de negócios com copilotos de domínio específicos.

Ao usar o Red Hat OpenShift AI com Nvidia NIM, organizações aproveitam:
Jornada mais curta rumo à integração ao implantar Nvidia NIM em um fluxo de trabalho comum junto com outras implantações de IA para aprimorar a consistência e facilitar o gerenciamento de tecnologia.
Escala e monitoramento integrados de implantações Nvidia NIM em coordenação com outras implementações de modelos de IA em ambientes de Nuvem híbrida.
Segurança, suporte e estabilidade de nível empresarial para garantir uma transição suave desde o protótipo à produção para empresas que operam seus negócios na IA.

Microsserviços Nvidia NIM são projetados para acelerar a implantação de gen AI nas empresas. Oferecendo suporte a uma ampla gama de modelos de IA, incluindo modelos da comunidade Open Source, Nvidia AI Foundation models e padrões customizados, os NIM entregam inferência de IA escalável e otimizada on-premises ou na Nuvem por meio de interfaces de programação de aplicações (APIs) padrão do setor.

Últimas Notícias
Você também pode gostar

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.