book_icon

OpenAI seleciona OCI para estender a plataforma de IA do Microsoft Azure

A OpenAI se juntará a milhares de inovadores de IA em todos os setores em todo o mundo que executam suas cargas de trabalho de IA na infraestrutura de IA do OCI

OpenAI seleciona OCI para estender a plataforma de IA do Microsoft Azure

A Oracle, a Microsoft e a OpenAl anunciaram que estão firmando uma parceria para estender a plataforma Microsoft Azure Al ao Oracle Cloud Infrastructure (OCI) para fornecer capacidade adicional para o OpenAl. A OpenAI é a empresa de pesquisa e desenvolvimento de IA por trás do ChatGPT, que fornece serviços de IA generativa para mais de 100 milhões de usuários todos os meses.

Os recursos de IA desenvolvidos especificamente pelo OCI permitem que startups e empresas criem e treinem modelos de forma mais rápida e confiável

“Estamos muito satisfeitos em trabalhar com a Microsoft e a Oracle. O OCI estenderá a plataforma do Azure e permitirá que a OpenAI continue a escalar”, disse Sam Altman, CEO da OpenAI.

“A corrida para construir o maior modelo de linguagem grande do mundo está em andamento e está alimentando a demanda ilimitada pela infraestrutura de IA Gen2 da Oracle”, disse Larry Ellison, presidente e CTO da Oracle. “Líderes como a OpenAI estão escolhendo o OCI porque é a infraestrutura de IA mais rápida e econômica do mundo”, afirmou.

A infraestrutura de IA do OCI está avançando na inovação de IA. A OpenAI se juntará a milhares de inovadores de IA em todos os setores em todo o mundo que executam suas cargas de trabalho de IA na infraestrutura de IA do OCI. Adept, Modal, MosaicML, Nvidia, Reka, Suno, Together AI, Twelve Labs, xAI e outros usam o OCI Supercluster para treinar e inferir modelos de IA de próxima geração.

Os recursos de IA desenvolvidos especificamente pelo OCI permitem que startups e empresas criem e treinem modelos de forma mais rápida e confiável em qualquer lugar na Nuvem distribuída da Oracle. Para treinar grandes modelos de linguagem (LLMs), o OCI Supercluster pode escalar até 64k GPUs Nvidia Blackwell ou GB200 Grace Blackwell Superchips conectados por rede de cluster RDMA de latência ultrabaixa e uma opção de armazenamento HPC. As máquinas virtuais OCI Compute e as instâncias de GPU Nvidia bare metal do OCI podem alimentar aplicativos para IA generativa, visão computacional, processamento de linguagem natural, sistemas de recomendação e muito mais.

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.