book_icon

IBM revela atualizações no watsonx e aposta em IA de código aberto

A empresa anunciou várias atualizações para sua família de assistentes watsonx, juntamente com um próximo recurso no watsonx Orchestrate para construção de assistentes de IA

IBM revela atualizações no watsonx e aposta em IA de código aberto

A IBM apresentou várias novas atualizações para sua plataforma watsonx um ano após sua introdução, bem como os próximos recursos de dados e automação projetados para tornar a Inteligência Artificial (IA) mais aberta, econômica e flexível para as empresas. “Acreditamos firmemente em trazer inovação aberta para a IA. Queremos usar o poder do código aberto para fazer com a IA o que foi feito com sucesso com Linux e OpenShift”, disse Arvind Krishna, CEO da IBM. “Aberto significa escolha. Aberto significa mais olhos no código, mais mentes nos problemas e mais mãos nas soluções. Para que qualquer tecnologia ganhe velocidade e se torne onipresente, é preciso equilibrar três coisas: competição, inovação e segurança. O código aberto é uma ótima maneira de alcançar os três”, afirmou.

A nova onda de inovação em IA tem o potencial de desbloquear cerca de US$ 4 trilhões em benefícios econômicos anuais em todos os setores. No entanto, o Índice Global de Adoção de IA anual da IBM descobriu recentemente que, enquanto 42% das empresas de escala empresarial (> de 1.000 funcionários) pesquisadas implementaram IA em seus negócios, outras 40% das empresas que estão explorando ou experimentando IA ainda não implementaram seus modelos. Para as empresas presas no sandbox, 2024 é o ano de superar barreiras de entrada, como a lacuna de habilidades, a complexidade dos dados e – talvez o mais importante – a confiança.

Testes realizados pela IBM descobriram que os modelos do Granite Code em geral mostram um desempenho muito forte em todos os tamanhos de modelo e benchmarks, muitas vezes superando outros modelos de código aberto que são duas vezes maiores em comparação com o Granite

Para enfrentar esses desafios, a IBM está anunciando várias atualizações e aprimoramentos futuros para sua família de assistentes watsonx, juntamente com um próximo recurso no watsonx Orchestrate para ajudar os clientes a construir seus próprios assistentes de IA em todos os domínios.

Os novos assistentes de IA incluem o watsonx Code Assistant for Enterprise Java Applications (disponibilidade planejada em outubro de 2024), o watsonx Assistant for Z para transformar a forma como os usuários interagem com o sistema para transferir rapidamente conhecimento e experiência (disponibilidade planejada em junho de 2024) e uma expansão do watsonx Code Assistant for Z Service com explicação de código para ajudar os clientes a entender e documentar aplicativos por meio de linguagem natural (disponibilidade planejada em junho de 2024). Leia mais sobre o Watsonx Code Assistant para aplicativos Java corporativos, o watsonx Assistant para Z e o Watsonx Code Assistant para Z.

A IBM está expandindo suas ofertas de GPU Nvidia para agora oferecer GPUs Nvidia L40S e Nvidia L4 Tensor Core, bem como suporte para Red Hat Enterprise Linux AI (RHEL AI) e OpenShift AI para ajudar empresas e desenvolvedores a atender às necessidades de IA e outras cargas de trabalho de missão crítica. Além disso, para ajudar os clientes a acelerar o tempo de implementação da IA, a IBM está usando arquiteturas implementáveis para watsonx para permitir a implementação rápida de IA e, ao mesmo tempo, capacitar as empresas com recursos de segurança e conformidade para ajudá-las a proteger seus dados e gerenciar controles de conformidade. Leia este blog para saber mais sobre os recursos do IBM Cloud.

IA de código aberto

Reforçando seu compromisso com o ecossistema de IA de código aberto, a IBM agora abriu uma família de seus modelos de linguagem e código Granite mais avançados e eficientes. Ao abrir esses modelos, a IBM está convidando clientes, desenvolvedores e especialistas globais para desenvolver esses pontos fortes e expandir os limites do que a IA pode alcançar em ambientes corporativos.

Disponível hoje sob licenças Apache 2.0 no Hugging Face e GitHub, os modelos Granite de código aberto se destacam por seu processo de desenvolvimento, qualidade, transparência e eficiência. Os modelos de código do Granite variam de parâmetros 3B a 34B e vêm em variantes de modelo base e de instrução, que são adequadas para tarefas como modernização de aplicativos complexos, geração de código, correção de bugs, explicação e documentação de código, manutenção de repositórios e muito mais. Os modelos de código, treinados em 116 linguagens de programação, alcançam consistentemente o desempenho de ponta entre LLMs de código aberto em várias tarefas relacionadas a código[i]:

Testes realizados pela IBM descobriram que os modelos do Granite Code em geral mostram um desempenho muito forte em todos os tamanhos de modelo e benchmarks, muitas vezes superando outros modelos de código aberto que são duas vezes maiores em comparação com o Granite.

Testes realizados pela IBM em benchmarks incluindo HumanEvalPack, HumanEvalPlus e benchmark de raciocínio GSM8K mostraram que os modelos de código Granite têm fortes desempenhos em síntese de código, correção, explicação, edição e tradução na maioria das principais linguagens de programação, incluindo Python, JavaScript, Java, Go, C++ e Rust.

O modelo de código base do Granite parâmetro 20B foi usado para treinar o IBM watsonx Code Assistant (WCA) para domínios especializados. Ele também alimenta o watsonx Code Assistant for Z — um produto projetado para ajudar as empresas a transformar aplicativos Cobol monolíticos em serviços otimizados para IBM Z.

 

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.