book_icon

Tendências para Data Centers ao longo de 2019

Neste ano, o mercado girará em torno de Edge Computing, Hyperscale Computing, 5G, e da volta do resfriamento líquido.

Em 2018, a indústria de Data Center acompanhou o desenvolvimento de tecnologias muito interessantes, mas uma delas despontou como tendência tornando-se o centro das atenções: a Edge Computing.

Pode se dizer que a tendência é resultado da movimentação direcionada dos players da Internet para ocupar instalações de Colocation, como locatários, utilizando instalações para implementar infraestrutura e aplicativos críticos mais perto dos clientes. Esse movimento é impulsionado pela demanda de Cloud e computação local, que, por sua vez, é acompanhada pela necessidade de reduzir rapidamente a latência e custos com Internet, chegando ao surgimento da Edge Computing “regional” – algo que também descrevemos como versões localizadas de “Cloud Stacks”.

Mas essa movimentação não é algo que vai parar na Edge regional. A medida que essa tendência continua a ganhar popularidade, é provável que comecemos a ver mais dessas “Cloud Stacks” instaladas nos lugares mais improváveis. Depois de muita deliberação sobre sua definição, acreditamos que 2019 é o ano em que realmente veremos a Edge em papel dominante, entrando no Canal e nos aproximando cada vez mais dos usuários em aplicações mais comerciais e de varejo, como em PDVs – pontos de vendas, por exemplo.

Hyperescalas precisam de implementações mais rápidas
Dado tudo o que aconteceu em 2018, fica claro que a demanda por Cloud Computing não será menor nem mais lenta. Muito pelo contrário! Nos próximos meses do ano tende a acelerar. O que significa que os players da Internet continuarão a construir maiores níveis de capacidade de computação na forma de Data Centers de Hiperescala.

Como consequência, esses players precisarão construir suas instalações cada vez mais rápido. Em alguns casos, projetos de 10 MW a 100 MW terão que ser projetados, construídos e aptos para operação em menos de doze meses.

Uma tecnologia-chave para cumprir prazos tão agressivos é o uso de skids modulares de potência, que combinam UPS, equipamento de manobra e software de gerenciamento em um pacote pré-fabricado, previsível e pré-testado. Como o tempo de espera para esse tipo de equipamento de energia pode, em algumas regiões, levar até 12 meses, ter uma solução construída e pronta para implementação elimina qualquer atraso durante o a fase crítica do projeto.

Pode-se também considerar que dentro dos Data Halls de outros provedores de Colocation e Hiperescala a capacidade computacional também se tornará mais modular, permitindo que o usuário simplesmente instale novos racks no lugar. Uma solução como essa precisará estar neutra em alguns aspectos, permitindo que racks e infra de TI sejam implantados rapidamente, eliminando assim a complexidade e os desafios de tempo que acompanham o usuário.

Data Centers de TI e telecom continuarão a colidir
Outra tendência que tem ganhado força em 2019 é a do 5G, mas para cumprir a promessa de latência abaixo de um milissegundo será necessário um ambiente de Computação em Nuvem distribuído e que seja escalável, resiliente e tolerante a falhas. Essa arquitetura distribuída se tornará virtualizada de uma nova maneira – ou seja, redes de acesso via rádio baseadas em nuvem – cRAN – que moverão o processamento de estações base em locais de célula para um grupo de servidores virtualizados em execução em um Data Center de Edge. A esse respeito, acreditamos que construções significativas precisarão ocorrer em escala global para que as nuvens do núcleo metropolitano estejam disponíveis ao longo de 2019 e posteriormente.

Essas instalações podem ser classificadas como “Data Centers Regionais ou Metropolitanos”, variando de 500kW a 2MW de tamanho, combinando funcionalidade de telecomunicações, roteamento de dados e gerenciamento de fluxo, com funcionalidade de TI, cache de dados, processamento e entrega.

IA e resfriamento líquido
À medida que a Inteligência Artificial continua ganhando destaque, indo de laboratórios de pesquisa às aplicações de negócios e de consumo, ela também é acompanhada de massivas demandas de processamento, espalhadas em Data Centers por todo o mundo.

Os aplicativos de IA geralmente são tão pesados que os arquitetos de hardware de TI começaram a usar GPUs para processamento principal ou como processamento suplementar. O perfil de aquecimento para servidores baseados em GPU pode ser o dobro do de servidores mais tradicionais, com um TDP – potência total de projeto de 300W vs 150W, que é um dos muitos impulsionadores por trás da volta do Resfriamento Líquido.

O resfriamento por líquido tem sido usado em aplicações de computação de alto desempenho há algum tempo, mas com o aumento de demanda por IA, essa tecnologia volta para os holofotes.

Gerenciamento de Data Center baseado em nuvem

O Dcim foi originalmente implantado como um sistema de software local, projetado para reunir e monitorar informações de infraestrutura em um único Data Center.

Enquanto os aplicativos de gerenciamento baseados em nuvem recentes são implantados com a nuvem, eles permitem que o usuário colete volumes maiores de dados de uma gama mais ampla de produtos habilitados para IoT. Além disso, o mesmo software pode ser usado em um grande número de Data Centers, grandes ou menores, implantados em milhares de locais geograficamente dispersos.

Novo produto no mercado, como de gerenciamento de Data Center “como serviço”, utiliza análise de Big Data que permite ao usuário tomar decisões mais informadas e baseadas em dados, mitigando eventos não programados ou tempo de inatividade, muito mais rápido do que as soluções tradicionais de Dcim. Sendo baseado em nuvem, o software aproveita repositórios de dados ou “Data Lakes”, que armazenam as informações coletadas para análise de tendências futuras, ajudando a planejar operações em um nível mais estratégico.

Os sistemas baseados em nuvem simplificam a tarefa de implantar novos equipamentos ou fazer atualizações em instalações existentes. Isso inclui atualizações de software para Data Centers em diferentes regiões. Em todos os casos, o gerenciamento dessas atualizações, especialmente na Edge, com apenas software de gerenciamento on-premise, deixa o usuário em uma posição desafiadora, demorada e com uso intensivo de recursos.

Por Luciano Santos,, vice-presidente de ITD da Schneider Electric Brasil

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.