book_icon

Vultr lança a Cloud Inference para simplificar os aplicativos de IA globalmente

Nova oferta Inference-as-a-Service sem servidor da Vultr disponível em seis continentes e 32 locais em todo o mundo

Vultr lança a Cloud Inference para simplificar os aplicativos de IA globalmente

A Vultr, plataforma privada de computação em Nuvem do mundo, anunciou o lançamento da Vultr Cloud Inference. Esta nova plataforma sem servidor revoluciona a escalabilidade e o alcance da IA oferecendo implementação global de modelos de IA e recursos de inferência de IA. Aproveitando a infraestrutura global da Vultr, que abrange seis continentes e 32 locais, a Vultr Cloud Inference fornece aos clientes capacidade de expansão contínua, latência reduzida e maior eficiência de custos para suas implantações de IA.

O cenário digital em rápida evolução de hoje desafiou as empresas de todos os setores a implantar e gerenciar modelos de IA de forma eficiente e eficaz. Isso criou uma necessidade crescente de mais plataformas de infraestrutura de Nuvem otimizadas para inferência com alcance global e escalabilidade, para garantir um alto desempenho consistente. Isto conduz a uma mudança de prioridades, uma vez que as organizações se concentram cada vez mais nas despesas de inferência à medida que colocam os seus modelos em produção. Mas com modelos maiores vem uma maior complexidade. Os programadores são desafiados a otimizar os modelos de IA para diferentes regiões, a gerir a infraestrutura de servidores distribuídos e a garantir uma elevada disponibilidade e baixa latência.

Com a Vultr Cloud Inference, os usuários podem obter uma plataforma de inferência de IA direta e sem servidor que permite a fácil integração de modelos de IA, independentemente de onde eles foram treinados

Com isso em mente, a Vultr criou o Cloud Inference. A Vultr Cloud Inference acelerará o tempo de colocação no mercado de recursos orientados por IA, como a tomada de decisões preditivas e em tempo real, ao mesmo tempo em que oferece uma experiência de usuário atraente em diversas regiões. Os utilizadores podem simplesmente trazer o seu próprio modelo, treinado em qualquer plataforma, Cloud ou on-premises, e este pode ser perfeitamente integrado e implementado na infraestrutura global da Vultr alimentada por GPU Nvidia. Com clusters de computação exclusivos disponíveis em seis continentes, a Vultr Cloud Inference garante que as empresas possam cumprir os regulamentos locais de segurança, privacidade e residência de Dados, implantando seus aplicativos de IA em regiões que se alinham com os requisitos legais e objetivos de negócios.

“O treinamento fornece a base para que a IA seja eficaz, mas é a inferência que converte o potencial da IA em impacto. À medida que um número crescente de modelos de IA passa do treinamento para a produção, o volume de cargas de trabalho de inferência aumenta, mas a maioria da infraestrutura de IA não é otimizada para atender às necessidades de inferência do mundo”, disse J.J. Kardwell, CEO da empresa controladora da Vultr, Constant. “O lançamento da Vultr Cloud Inference permite que as inovações de IA tenham o máximo impacto, simplificando a implantação de IA e fornecendo inferência de baixa latência em todo o mundo por meio de uma plataforma projetada para dimensionamento, eficiência e alcance global.”

Com a capacidade de auto- otimizar e escalonar globalmente em tempo real, a Vultr Cloud Inference garante que os aplicativos de IA forneçam experiências consistentes, econômicas e de baixa latência para usuários em todo o mundo. Além disso, sua estrutura sem servidores elimina as complexidades de gerenciar e dimensionar, proporcionando um impacto inigualável, incluindo:

Flexibilidade na integração e migração de modelos de IA
Com a Vultr Cloud Inference, os usuários podem obter uma plataforma de inferência de IA direta e sem servidor que permite a fácil integração de modelos de IA, independentemente de onde eles foram treinados. Para modelos desenvolvidos em GPUs Vultr Cloud alimentadas pela Nvidia, no próprio centro de Dados dos utilizadores ou em outra nuvem, o Vultr Cloud Inference permite uma inferência global sem complicações.

Redução da complexidade da infraestrutura de IA
 Ao aproveitar a arquitetura sem servidor do Vultr Cloud Inference, as empresas podem concentrar-se na inovação e na criação de valor através das suas iniciativas de IA, em vez de se concentrarem na gestão de infra-estruturas.

A Cloud Inference simplifica o processo de implantação, tornando os recursos avançados de IA acessíveis a empresas sem ampla experiência interna em gerenciamento de infraestrutura, acelerando assim o tempo de colocação no mercado de soluções orientadas por IA.

Escalonamento automatizado de infra-estruturas optimizadas para inferência
 Através da correspondência em tempo real de cargas de trabalho de aplicações de IA e GPUs de Cloud otimizadas para inferência, as equipes de engenharia podem fornecer desempenho sem problemas, garantindo o uso mais eficiente dos recursos. Isso leva a economias substanciais de custos e redução do impacto ambiental, pois eles pagam apenas pelo que é necessário e usado.

Recursos de computação privados e dedicados
Com a Vultr Cloud Inference, as empresas podem aceder a um ambiente isolado para cargas de trabalho sensíveis ou de elevada procura. Isso fornece segurança e desempenho aprimorados para aplicativos importantes, alinhando-se às metas de proteção de dados, conformidade regulamentar e manutenção de alto desempenho sob cargas de alta demanda.

“A procura está aumentando rapidamente para tecnologias de IA de ponta que podem alimentar cargas de trabalho de IA em todo o mundo”, disse Matt McGrigg, diretor de desenvolvimento de negócios globais, parceiros de nuvem da Nvidia. “A introdução do Vultr Cloud Inference permitirá que as empresas integrem e implantem perfeitamente modelos de IA treinados na infraestrutura de GPU Nvidia ajudando-as a expandir seus aplicativos de IA globalmente”.

À medida que a IA continua a ultrapassar os limites do que é possível e a mudar a forma como as organizações pensam sobre a computação em nuvem e de ponta, a escala da infraestrutura necessária para treinar grandes modelos de IA e para suportar as necessidades de inferência distribuídas globalmente nunca foi tão grande. Após o recente lançamento do Vultr CDN para escalar a entrega de mídia e conteúdo em todo o mundo, o Vultr Cloud Inference fornecerá a base tecnológica para permitir a inovação, aumentar a eficiência de custos e expandir o alcance global para organizações em todo o mundo, em todos os setores, tornando o poder da IA acessível a todos.

Serviço
www.vultr.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.