A International Data Corporation (IDC) apresentou o relatório AI InfrastructureView, um estudo de benchmarking aprofundado sobre infraestrutura e tendências de adoção de serviço para casos de uso de Inteligência Artificial e Machine Learning (IA/ML). Os resultados mostram que, embora as iniciativas de IA/ML estejam ganhando força, com 31% dos entrevistados dizendo que agora têm IA em produção, a maioria das empresas ainda está em fase de experimentação, avaliação/teste ou prototipagem. Dos 31% com IA em produção, apenas um terço afirma ter atingido um estado maduro de adoção em que toda a organização se beneficia de uma estratégia de IA em toda a empresa. Para organizações que investem em IA, melhorar a satisfação do cliente, automatizar a tomada de decisões e automatizar tarefas repetitivas são os três principais benefícios declarados em toda a organização.
“A pesquisa mostra consistentemente que a falta de recursos de infraestrutura específicos é muitas vezes a causa do fracasso dos projetos de IA”, disse Peter Rutten, vice-presidente de Pesquisa e líder global de Pesquisa em Soluções de Computação Intensiva de Desempenho da IDC. “Com isso em mente, propomos investigar mais profundamente a maneira como as organizações avaliam e investem em soluções de infraestrutura como parte de sua estratégia de IA. Nossas descobertas e análises fornecem uma variedade de pontos de dados para fornecedores e provedores de serviços atenderem às necessidades de seus clientes e prospects”, comentou.
As principais descobertas
– A infraestrutura de IA continua sendo uma das decisões de infraestrutura mais importantes, mas menos maduras, que as organizações tomam como parte de sua futura empresa. As organizações ainda não atingiram um nível de maturidade em sua infraestrutura de IA – isso inclui investimentos iniciais, percebendo os benefícios e o retorno dos investimentos e garantindo que a infraestrutura seja dimensionada para atender às necessidades dos negócios. Os altos custos continuam sendo a maior barreira aos investimentos, levando muitos a executar seus projetos de IA em ambientes compartilhados de Nuvem pública. Os custos iniciais são altos, levando muitos a cortar custos e, assim, exacerbar o problema. Pessoas, processos e tecnologia continuam sendo as três áreas-chave onde estão os desafios e onde as organizações devem concentrar seus investimentos para obter maiores oportunidades.
– Lidar com dados é o maior obstáculo para as organizações que investem em infraestrutura de IA. As empresas não têm tempo para criar, treinar e implementar modelos de IA. Eles dizem que grande parte do tempo de desenvolvimento é gasto apenas na preparação de dados. Muitos também não têm a experiência ou a capacidade de preparar dados. Isso está levando a um novo mercado para modelos de IA pré-treinados. No entanto, como qualquer coisa pronta para uso, os modelos pré-treinados têm suas limitações, que incluem disponibilidade e adaptabilidade do modelo, limitações de infraestrutura para executar o modelo e conhecimento interno insuficiente. Os tamanhos dos modelos também estão crescendo, tornando difícil para eles serem executados em infraestrutura de uso geral. As organizações esperam que, depois de ultrapassarem esse obstáculo, mudem seus esforços para a inferência de IA.
– Os investimentos em infraestrutura de IA estão seguindo padrões familiares em termos de tecnologias de computação e armazenamento no local, na Nuvem pública e na Borda. As empresas estão aumentando seus investimentos em serviços de infraestrutura de Nuvem pública, mas para muitos o local é e continuará sendo a opção preferida. Hoje, para treinamento e inferência de IA, ela é dividida igualmente entre Nuvem, local e Borda. No entanto, muitas empresas estão mudando para pipelines de dados de IA que se estendem entre o Data Center, a Nuvem e/ou a Borda. O Edge oferece continuidade operacional onde há conectividade de rede limitada ou inexistente. Segurança/conformidade e custo também desempenham um papel importante. Computação acelerada por GPU, processadores de host com software de aprimoramento de IA e clusters de alta densidade são os principais requisitos para infraestrutura de computação local/na Borda e baseada em Nuvem para treinamento e inferência de IA. Computação acelerada por FPGA, processadores host com software de reforço de IA ou GPUs no local, e sistemas de expansão semelhantes a HPC são as três principais prioridades para infraestrutura de computação local/baseada na Borda para inferência de IA. Na Nuvem, as prioridades mais bem classificadas são a aceleração de GPU e um processador host com AI-boost, seguido por clusters de alta densidade. Mais cargas de trabalho de IA usam bloco e/ou arquivo do que objeto neste momento.
“Está claro para nós que a maioria das organizações embarcou ou embarcará em breve em sua jornada de IA”, disse Eric Burgener, vice-presidente de Pesquisa de Armazenamento e Infraestrutura de Sistemas Convergentes da IDC. “O que está ficando mais claro é que ganhar tempo consistente, confiável e compactado para insights e resultados de negócios requer investimentos em infraestrutura criada para o propósito e do tamanho certo”, observou.
“Performance Intensive Computing (PIC), que é o processo de realizar cálculos matematicamente intensivos em larga escala e usado para processar grandes volumes de dados ou executar conjuntos de instruções complexos da maneira mais rápida possível, é uma área de pesquisa estratégica para a IDC”, disse Ashish Nadkarni, vice-presidente do Grupo de Infraestrutura Mundial da IDC. “As soluções PIC são comumente usadas em Inteligência Artificial, modelagem e simulação – também conhecidas como computação de alto desempenho (HPC) e casos de uso de Big Data e análise (BDA)”, explicou.
Serviço
www.idc.com
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo