book_icon

Red Hat Enterprise Linux AI agora disponível para inovar a IA corporativa

O RHEL AI é a plataforma de modelo básico da Red Hat que permite aos usuários desenvolver, testar e executar modelos de IA generativa com mais facilidade

Red Hat Enterprise Linux AI agora disponível para inovar a IA corporativa

A Red Hat, fornecedora global de soluções open source, anunciou nesta quinta-feira (5/9) a disponibilidade geral do Red Hat Enterprise Linux (RHEL) AI em toda a Nuvem híbrida. O RHEL AI é a plataforma de modelo básico da Red Hat que permite aos usuários desenvolver, testar e executar modelos de IA generativa (GenAI) com mais facilidade para alimentar aplicativos corporativos. A plataforma reúne a família de grandes modelos de linguagem (LLM) Granite de código aberto e as ferramentas de alinhamento de modelos InstructLab, com base na metodologia Large-scale Alignment for chatBots (LAB), empacotada como uma imagem RHEL otimizada e inicializável para implementações de servidores individuais na Nuvem híbrida.

“O RHEL AI oferece a capacidade de especialistas de domínio, não apenas cientistas de dados, contribuírem para um modelo de IA de geração desenvolvido para fins específicos em toda a Nuvem híbrida, além de permitir que as organizações de TI dimensionem esses modelos para produção por meio do Red Hat OpenShift AI”, disse Joe Fernandes, vice-presidente e gerente-geral de Foundation Model Platforms da Red Hat.

A Red Hat planeja expandir ainda mais a abertura da Nuvem RHEL AI e dos parceiros OEM nos próximos meses, oferecendo ainda mais opções em ambientes de Nuvem híbrida

Embora a promessa da GenAI seja imensa, os custos associados à aquisição, treinamento e ajuste fino de LLMs podem ser astronômicos, com alguns modelos líderes custando quase US$ 200 milhões para treinar antes do lançamento. Isso não inclui o custo de alinhamento para os requisitos ou dados específicos de uma determinada organização, que normalmente requer cientistas de dados ou desenvolvedores altamente especializados. Independentemente do modelo selecionado para um determinado aplicativo, o alinhamento ainda é necessário para alinhá-lo com dados e processos específicos da empresa, tornando a eficiência e a agilidade essenciais para a IA em ambientes de produção reais.

A Red Hat acredita que, na próxima década, modelos de IA menores, mais eficientes e criados de acordo com a finalidade formarão uma combinação substancial da pilha de TI corporativa, juntamente com aplicativos nativos da Nuvem. Mas, para conseguir isso, a GenAI precisa ser mais acessível e disponível, desde seus custos até seus colaboradores e onde ela pode ser executada na Nuvem híbrida. Por décadas, as comunidades de código aberto ajudaram a resolver desafios semelhantes para problemas complexos de software por meio de contribuições de diversos grupos de usuários; uma abordagem semelhante pode diminuir as barreiras para adotar efetivamente a IA generativa.

Uma abordagem de código aberto para a GenAI

Esses são os desafios que o RHEL AI pretende enfrentar – tornando a geração de IA mais acessível, mais eficiente e mais flexível para CIOs e organizações de TI corporativas em toda a Nuvem híbrida. O RHEL AI ajuda a:

– Capacite a inovação de IA de geração com modelos Granite licenciados de código aberto de nível empresarial e alinhados com uma ampla variedade de casos de uso de IA de geração.

– Simplifique o alinhamento dos modelos de IA de geração aos requisitos de negócios com as ferramentas do InstructLab, possibilitando que especialistas e desenvolvedores de domínio dentro de uma organização contribuam com habilidades e conhecimentos exclusivos para seus modelos, mesmo sem extensas habilidades de ciência de dados.

– Treine e implemente a IA generativa em qualquer lugar da Nuvem híbrida, fornecendo todas as ferramentas necessárias para ajustar e implementar modelos para servidores de produção onde quer que os dados associados estejam. O RHEL AI também fornece uma rampa de acesso pronta para o Red Hat OpenShift AI para treinar, ajustar e atender a esses modelos em escala, usando as mesmas ferramentas e conceitos.

O RHEL AI também é apoiado pelos benefícios de uma subscrição da Red Hat, que inclui distribuição confiável de produtos corporativos, suporte à produção 24 horas por dia, 7 dias por semana, suporte estendido ao ciclo de vida do modelo e proteções legais de garantia de código aberto.

O RHEL AI se estende pela Nuvem híbrida

Trazer uma plataforma de modelo de base mais consistente para mais perto de onde os dados de uma organização residem é crucial para apoiar as estratégias de IA de produção. Como uma extensão do portfólio de Nuvem híbrida da Red Hat, o RHEL AI abrangerá quase todos os ambientes corporativos concebíveis, desde Data Centers locais até ambientes de Borda e Nuvem pública. Isso significa que o RHEL AI estará disponível diretamente da Red Hat, dos parceiros fabricantes de equipamentos originais (OEM) da Red Hat e para ser executado nos maiores provedores de Nuvem do mundo, incluindo Amazon Web Services (AWS), Google Cloud, IBM Cloud e Microsoft Azure. Isso permite que desenvolvedores e organizações de TI usem o poder dos recursos de computação do hiperescalador para criar conceitos inovadores de IA com o RHEL AI.

Disponibilidade

O RHEL AI está disponível hoje por meio do Red Hat Customer Portal para ser executado no local ou para upload na AWS e na IBM Cloud como uma oferta de “traga sua própria assinatura” (BYOS). A disponibilidade de uma oferta de BYOS no Azure e no Google Cloud está planejada para o quarto trimestre de 2024 e o RHEL AI também deve estar disponível no IBM Cloud como serviço ainda este ano.

A Red Hat planeja expandir ainda mais a abertura da Nuvem RHEL AI e dos parceiros OEM nos próximos meses, oferecendo ainda mais opções em ambientes de Nuvem híbrida.

 

Últimas Notícias
Você também pode gostar

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.