A Nvidia anuncia um microsserviço de IA Generativa que permite que as empresas conectem grandes modelos de linguagem personalizados a dados corporativos para fornecer respostas altamente precisas para suas aplicações de IA.
Nvidia NeMo Retriever – uma nova oferta na família Nvidia NeMo de frameworks e ferramentas para criar, personalizar e implantar modelos de IA Generativa – ajuda as organizações a aprimorar suas aplicações de IA Generativa com recursos de geração aumentada de recuperação (RAG) de nível empresarial.
Como um microsserviço de recuperação semântica de nível empresarial, o NeMo Retriever ajuda as aplicações de IA Generativa a fornecer respostas mais precisas por meio de algoritmos otimizados pela Nvidia. Os desenvolvedores que usam o microsserviço podem conectar suas aplicações de IA aos Dados comerciais, onde quer que eles residam, em Nuvens e Data Centers. Ele adiciona recursos RAG otimizados pela Nvidia às fundições de IA e faz parte da plataforma de software Nvidia AI Enterprise, disponível no AWS Marketplace.
Cadence, Dropbox, SAP e ServiceNow estão entre os pioneiros que trabalham com a Nvidia para criar recursos RAG prontos para produção em suas aplicações e serviços personalizados de IA Generativa.
“As aplicações de IA Geradora com recursos RAG são a próxima aplicação matadora da empresa”, afirma Jensen Huang, fundador e CEO da Nvidia. “Com o Nvidia NeMo Retriever, os desenvolvedores podem criar chatbots, copilotos e ferramentas de ferramentas de resumo que podem acessar seus Dados comerciais para transformar a produtividade com inteligência de IA Geradora precisa e valiosa.”
Líderes globais aprimoram a precisão do LLM com o NeMo Retriever
A Cadence, que atua em design de sistemas eletrônicos, atende empresas de computação em hiperescala, comunicações 5G, automotivo, móvel, aeroespacial, consumidor e mercados de saúde. Ela está trabalhando com a Nvidia para desenvolver recursos RAG para aplicações de IA Generativa no design de eletrônicos industriais.
“A IA Generativa apresenta abordagens inovadoras para atender às necessidades dos clientes, como ferramentas para descobrir possíveis falhas no início do processo de design”, afirma Anirudh Devgan, presidente e CEO da Cadence. “Nossos pesquisadores estão trabalhando com a Nvidia para usar o NeMo Retriever para aumentar ainda mais a precisão e a relevância das aplicações de IA Generativa para revelar problemas e ajudar os clientes a obter produtos de alta qualidade para o mercado mais rapidamente.”
Decifrando o código para aplicações precisas de IA Generativa
Ao contrário dos kits de ferramentas RAG de código aberto, o NeMo Retriever oferece suporte à IA generativa pronta para produção com modelos comercialmente viáveis, estabilidade de API, patches de segurança e suporte empresarial.
Os algoritmos otimizados pela Nvidia geram os resultados de maior precisão nos modelos de incorporação do Retriever. Os modelos de incorporação otimizados capturam as relações entre as palavras, permitindo que os LLMs processem e analisem Dados textuais.
Com o NeMo Retriever, as empresas podem conectar seus LLMs a várias fontes de dados e bases de conhecimento, para que os usuários possam interagir facilmente com os dados e receber respostas precisas e atualizadas usando prompts simples de conversação. As empresas que usam aplicações com o Retriever podem permitir que os usuários tenham acesso seguro a informações que abrangem várias modalidades de dados, como texto, PDFs, imagens e vídeos.
As empresas podem usar o NeMo Retriever para obter resultados mais precisos com menos treinamento, acelerando o tempo de lançamento no mercado e apoiando a eficiência energética no desenvolvimento de aplicações de IA Generativa.
“Com a precisão do NeMo Retriever, será possível acelerar o desenvolvimento de aplicações de IA Generativa. Isso trará benefícios para as indústrias de diversos setores”, destaca Marcio Aguiar, diretor da divisão Enterprise da Nvidia para América Latina.
Implementação confiável, simples e segura com o Nvidia AI Enterprise
As empresas podem implantar aplicações com o NeMo Retriever para serem executados durante a inferência na computação acelerada da Nvidia em praticamente qualquer Data Center ou Nuvem. O Nvidia AI Enterprise suporta inferência acelerada e de alto desempenho com Nvidia NeMo, Nvidia Triton Inference Server, Nvidia TensorRT, Nvidia TensorRT-LLM e outros softwares de IA da Nvidia.
Para maximizar o desempenho da inferência, os desenvolvedores podem executar seus modelos nos superchips Nvidia GH200 Grace Hopper Superchips com o software TensorRT-LLM.
Disponibilidade
Os desenvolvedores podem se inscrever para obter acesso antecipado ao Nvidia NeMo Retriever.
Serviço
www.nvidia.com/pt-br
Leia nesta edição:
PRÊMIO IC - DESTAQUES DE TIC 2024
Usuários e profissionais do setor de TIC escolhem os produtos e as marcas que melhor os atenderam
TELECOMUNICAÇÕES
5G: a real revolução ainda está para acontecer
ESCPECIAL - ANUÁRIO DE TIC 2024/25
Contatos estratégicos
Esta você só vai ler na versão digital
TENDÊNCIAS
As tecnologias que estão moldando o futuro do e-commerce
Baixe o nosso aplicativo