book_icon

IBM anuncia disponibilidade do modelo de IA Mistral no watsonx

A adição do LLM Mixtral-8x7B expande a estratégia aberta e multimodelo da IBM para atender aos clientes onde eles estão e dar-lhes escolha para escalar soluções de IA corporativa

IBM anuncia disponibilidade do modelo de IA Mistral no watsonx

A IBM anunciou nesta quinta-feira (29/2) a disponibilidade do popular grande modelo de linguagem (LLM) Mixtral-8x7B de código aberto, desenvolvido pela Mistral AI, em seu watsonx AI e plataforma de dados, à medida que continua a expandir os recursos para ajudar os clientes a inovar com os próprios modelos de base da IBM e aqueles de uma variedade de provedores de código aberto.

A IBM oferece uma versão otimizada do Mixtral-8x7B que, em testes internos, foi capaz de aumentar a taxa de transferência — ou a quantidade de dados que podem ser processados em um determinado período de tempo — em 50% quando comparado ao modelo normal. Isso poderia reduzir a latência em 35% a 75%, dependendo do tamanho do lote — acelerando o tempo de insights. Isso é conseguido por meio de um processo chamado quantização, que reduz o tamanho do modelo e os requisitos de memória para LLMs e, por sua vez, pode acelerar o processamento para ajudar a reduzir os custos e o consumo de energia.

O modelo Mixtral-8x7B é amplamente conhecido por sua capacidade de processar e analisar rapidamente grandes quantidades de dados para fornecer insights relevantes para o contexto

A adição do Mixtral-8x7B expande a estratégia aberta e multimodelo da IBM para atender aos clientes onde eles estão e dar-lhes escolha e flexibilidade para escalar soluções de IA corporativa em seus negócios. Por meio de décadas de pesquisa e desenvolvimento de IA, colaboração aberta com Meta e Hugging Face e parcerias com líderes de modelos, a IBM está expandindo seu catálogo de modelos watsonx.ai e trazendo novos recursos, linguagens e modalidades.

As escolhas de modelo básico pronto para empresas da IBM e sua plataforma de IA e dados watsonx podem capacitar os clientes a usar IA generativa para obter novos insights e eficiências e criar novos modelos de negócios com base em princípios de confiança. A IBM permite que os clientes selecionem o modelo certo para os casos de uso corretos e metas de preço-desempenho para domínios de negócios direcionados, como finanças.

O Mixtral-8x7B foi construído usando uma combinação de modelagem esparsa — uma técnica que encontra e usa apenas as partes mais essenciais dos dados para criar modelos mais eficientes — e a técnica de Mistura de Especialistas, que combina diferentes modelos (especialistas) que se especializam e resolvem diferentes partes de um problema. O modelo Mixtral-8x7B é amplamente conhecido por sua capacidade de processar e analisar rapidamente grandes quantidades de dados para fornecer insights relevantes para o contexto.

“Os clientes estão pedindo escolha e flexibilidade para implementar modelos que melhor se adaptem a seus casos de uso exclusivos e requisitos de negócios”, disse Kareem Yusuf, vice-presidente sênior de Gerenciamento de Produtos e Crescimento da IBM Software. “Ao oferecer o Mixtral-8x7B e outros modelos no watsonx, não estamos apenas dando a eles opções na forma de como implementar a IA, estamos capacitando um ecossistema robusto de construtores de IA e líderes de negócios com ferramentas e tecnologias para impulsionar a inovação em diversos setores e domínios”, comentou.

Esta semana, a IBM também anunciou a disponibilidade do Elyza-japanese-Llama-2-7b, um modelo japonês de LLM de código aberto da Elyza Corporation, no watsonx. A IBM também oferece os modelos de código aberto da Meta, Llama-2-13B-chat e Llama-2-70B-chat e outros modelos de terceiros no watsonx, com mais por vir nos próximos meses.

Serviço
www.ibm.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.