A IBM anunciou nesta quinta-feira (29/2) a disponibilidade do popular grande modelo de linguagem (LLM) Mixtral-8x7B de código aberto, desenvolvido pela Mistral AI, em seu watsonx AI e plataforma de dados, à medida que continua a expandir os recursos para ajudar os clientes a inovar com os próprios modelos de base da IBM e aqueles de uma variedade de provedores de código aberto.
A IBM oferece uma versão otimizada do Mixtral-8x7B que, em testes internos, foi capaz de aumentar a taxa de transferência — ou a quantidade de dados que podem ser processados em um determinado período de tempo — em 50% quando comparado ao modelo normal. Isso poderia reduzir a latência em 35% a 75%, dependendo do tamanho do lote — acelerando o tempo de insights. Isso é conseguido por meio de um processo chamado quantização, que reduz o tamanho do modelo e os requisitos de memória para LLMs e, por sua vez, pode acelerar o processamento para ajudar a reduzir os custos e o consumo de energia.
A adição do Mixtral-8x7B expande a estratégia aberta e multimodelo da IBM para atender aos clientes onde eles estão e dar-lhes escolha e flexibilidade para escalar soluções de IA corporativa em seus negócios. Por meio de décadas de pesquisa e desenvolvimento de IA, colaboração aberta com Meta e Hugging Face e parcerias com líderes de modelos, a IBM está expandindo seu catálogo de modelos watsonx.ai e trazendo novos recursos, linguagens e modalidades.
As escolhas de modelo básico pronto para empresas da IBM e sua plataforma de IA e dados watsonx podem capacitar os clientes a usar IA generativa para obter novos insights e eficiências e criar novos modelos de negócios com base em princípios de confiança. A IBM permite que os clientes selecionem o modelo certo para os casos de uso corretos e metas de preço-desempenho para domínios de negócios direcionados, como finanças.
O Mixtral-8x7B foi construído usando uma combinação de modelagem esparsa — uma técnica que encontra e usa apenas as partes mais essenciais dos dados para criar modelos mais eficientes — e a técnica de Mistura de Especialistas, que combina diferentes modelos (especialistas) que se especializam e resolvem diferentes partes de um problema. O modelo Mixtral-8x7B é amplamente conhecido por sua capacidade de processar e analisar rapidamente grandes quantidades de dados para fornecer insights relevantes para o contexto.
“Os clientes estão pedindo escolha e flexibilidade para implementar modelos que melhor se adaptem a seus casos de uso exclusivos e requisitos de negócios”, disse Kareem Yusuf, vice-presidente sênior de Gerenciamento de Produtos e Crescimento da IBM Software. “Ao oferecer o Mixtral-8x7B e outros modelos no watsonx, não estamos apenas dando a eles opções na forma de como implementar a IA, estamos capacitando um ecossistema robusto de construtores de IA e líderes de negócios com ferramentas e tecnologias para impulsionar a inovação em diversos setores e domínios”, comentou.
Esta semana, a IBM também anunciou a disponibilidade do Elyza-japanese-Llama-2-7b, um modelo japonês de LLM de código aberto da Elyza Corporation, no watsonx. A IBM também oferece os modelos de código aberto da Meta, Llama-2-13B-chat e Llama-2-70B-chat e outros modelos de terceiros no watsonx, com mais por vir nos próximos meses.
Serviço
www.ibm.com
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo