book_icon

Oracle oferece primeiro cluster de computação em Nuvem Zettascale

A OCI está recebendo pedidos para o maior supercomputador de IA na Nuvem com GPUs Nvidia, oferecendo um desempenho máximo sem precedentes de 2,4 zettaFLOPS

Oracle oferece primeiro cluster de computação em Nuvem Zettascale

A Oracle anunciou os primeiros clusters de computação em Nuvem zettascale acelerados pela plataforma Nvidia Blackwell. A Oracle Cloud Infrastructure (OCI) agora está recebendo pedidos para o maior supercomputador de IA na Nuvem, disponível com até 131.072 GPUs Nvidia Blackwell. “Temos uma das mais amplas ofertas de infraestrutura de IA e estamos oferecendo suporte a clientes que executam algumas das cargas de trabalho de IA mais exigentes na Nuvem”, disse Mahesh Thiagarajan, vice-presidente executivo da Oracle Cloud Infrastructure. “Com a Nuvem distribuída da Oracle, os clientes têm a flexibilidade de implementar serviços de Nuvem e IA onde quiserem, preservando os mais altos níveis de soberania de dados e IA”, afirmou.

A OCI agora está recebendo pedidos para o maior supercomputador de IA na Nuvem com GPUs Nvidia, oferecendo um desempenho máximo sem precedentes de 2,4 zettaFLOPS. A escala máxima da OCI Supercluster oferece mais de três vezes mais GPUs do que o supercomputador Frontier e mais de seis vezes a de outros hiperescaladores. A OCI Supercluster inclui OCI Compute Bare Metal, RoCEv2 de latência ultrabaixa com NICs ConnectX-7 e ConnectX-8 SuperNICs ou redes baseadas em Nvidia Quantum-2 InfiniBand e uma opção de armazenamento HPC.

A WideLabs usa a Oracle Cloud São Paulo Region para executar suas cargas de trabalho de IA, garantindo que os dados confidenciais permaneçam dentro das fronteiras do País. Isso permite que a WideLabs cumpra os requisitos de soberania de IA do Brasi

Os OCI Superclusters podem ser solicitados com o OCI Compute com GPUs Nvidia H100 ou H200 Tensor Core ou GPUs Nvidia Blackwell. Os Superclusters OCI com GPUs H100 podem ser dimensionados para até 16.384 GPUs com até 65 ExaFLOPS de desempenho e 13 Pb/s de taxa de transferência de rede agregada. Os OCI Superclusters com GPUs H200 serão dimensionados para 65.536 GPUs com até 260 ExaFLOPS de desempenho e 52Pb/s de taxa de transferência de rede agregada e estarão disponíveis ainda este ano.

Os OCI Superclusters com instâncias bare-metal Nvidia GB200 NVL72 refrigeradas a líquido usarão NVLink e NVLink Switch para permitir que até 72 GPUs Blackwell se comuniquem entre si em uma largura de banda agregada de 129,6 TB/s em um único domínio NVLink. As GPUs Nvidia Blackwell, disponíveis no primeiro semestre de 2025, com NVLink de quinta geração, NVLink Switch e rede de cluster permitirão uma comunicação perfeita entre GPU e GPU em um único cluster.

“À medida que empresas, pesquisadores e nações correm para inovar usando IA, o acesso a poderosos clusters de computação e software de IA é fundamental”, disse Ian Buck, vice-presidente de Computação em Hiperescala e Alto Desempenho da Nvidia. “A plataforma de computação de IA full-stack da Nvidia na Nuvem amplamente distribuída da Oracle fornecerá recursos de computação de IA em escala sem precedentes para avançar os esforços de IA globalmente e ajudar as organizações em todos os lugares a acelerar a pesquisa, o desenvolvimento e a implantação”, comentou.

WideLabs forma um dos maiores LLMs portugueses na OCI

A WideLabs, uma startup de IA aplicada no Brasil, está treinando um dos maiores LLMs do Brasil, o Amazonia IA, na OCI. Eles desenvolveram o bAIgrapher, um aplicativo que usa seu LLM para gerar conteúdo biográfico com base em dados coletados de pacientes com doença de Alzheimer para ajudá-los a preservar memórias importantes.

A WideLabs usa a Oracle Cloud São Paulo Region para executar suas cargas de trabalho de IA, garantindo que os dados confidenciais permaneçam dentro das fronteiras do País. Isso permite que a WideLabs cumpra os requisitos de soberania de IA do Brasil, sendo capaz de controlar onde sua tecnologia de IA é implementada e operada. A WideLabs usa a infraestrutura de IA da OCI com GPUs Nvidia H100 para treinar seus LLMs, bem como o Oracle Kubernetes Engine para provisionar, gerenciar e operar contêineres acelerados por GPU em um Supercluster da OCI que consiste em OCI Compute conectado à rede de cluster baseada em RMDA da OCI.

“A infraestrutura de IA da OCI nos oferece a maior eficiência para treinar e executar nossos LLMs”, disse Nelson Leoni, CEO da WideLabs. “A escala e a flexibilidade da OCI são inestimáveis à medida que continuamos a inovar no espaço da saúde e em outros setores-chave”, completou.

O Zoom, uma plataforma líder de colaboração que prioriza a IA, está usando a OCI para fornecer inferência para o Zoom AI Companion, o assistente pessoal de IA da empresa disponível sem custo adicional. O Zoom AI Companion ajuda os usuários a redigir e-mails e mensagens de bate-papo, resumir reuniões e tópicos de bate-papo, gerar ideias durante brainstorms com colegas e muito mais. Os recursos de soberania de dados e IA da OCI ajudarão o Zoom a manter os dados do cliente localmente na região e oferecer suporte aos requisitos de soberania de IA na Arábia Saudita, onde a solução da OCI está sendo lançada inicialmente.

“O Zoom AI Companion está revolucionando a maneira como as organizações trabalham, com recursos de IA generativa de ponta disponíveis sem custo adicional com as contas pagas dos clientes”, disse Bo Yan, chefe de IA da Zoom. “Ao aproveitar os recursos de inferência de IA da OCI, o Zoom é capaz de fornecer resultados precisos com baixa latência, capacitando os usuários a colaborar perfeitamente, comunicar-se sem esforço e aumentar a produtividade, a eficiência e o potencial como nunca antes”, finalizou.

 

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.