book_icon

Velocidade, escala e IA confiável disponíveis em ambiente de mainframe IBM Z

O Machine Learning para IBM z/OS é uma plataforma de IA feita sob medida para ambientes IBM z/OS ajudando os clientes a gerenciar seus ciclos de vida completos do modelo de IA

Velocidade, escala e IA confiável disponíveis em ambiente de mainframe IBM Z

Nos últimos anos, houve um aumento notável na adoção de IA, com as empresas dobrando a aposta. De acordo com o IBM Global AI Adoption Index, cerca de 42% das empresas de escala empresarial pesquisadas (mais de 1 mil funcionários) relatam ter implementado ativamente IA em seus negócios. E 59% das empresas pesquisadas que já estão explorando ou implementando a IA dizem que aceleraram seu lançamento ou investimentos na tecnologia. No entanto, em meio a esse surto, navegar pelas complexidades da implementação de IA, problemas de escalabilidade e validar a confiabilidade da IA continuam a ser desafios significativos que as empresas ainda enfrentam.

Um ambiente robusto e escalável é crucial para acelerar a adoção de IA pelo cliente. Ele deve ser capaz de converter casos de uso ambiciosos de IA em realidade, permitindo que insights de IA em tempo real sejam gerados com confiança e transparência. Em um artigo publicado no site da da IBM, Tina Tarquínio, vice-presidente de Gerenciamento de Produtos IBM Z e LinuxONE e Elpida Tzortzatos, CTO de z/OS e AI para IBM Z e LinuxONE, contam sobre o uso da IA em ambientes críticos de mainframes, principalmente em aplicações de serviços financeiros.

O Machine Learning para IBM z/OS com IBM Z também pode ser usado como uma plataforma de IA local focada em segurança para outros casos de uso em que os clientes desejam promover a integridade dos dados, a privacidade e a disponibilidade de aplicativos

O que é Machine Learning para IBM z/OS?

O Machine Learning para IBM z/OS é uma plataforma de IA feita sob medida para ambientes IBM z/OS. Ele combina dados e gravidade de transações com infusão de IA para insights acelerados em escala com confiança e transparência. Ele ajuda os clientes a gerenciar seus ciclos de vida completos do modelo de IA, permitindo a implementação rápida co-localizada com seus aplicativos de missão crítica no IBM Z sem movimentação de dados e alterações mínimas de aplicativos. Os recursos incluem explicabilidade, detecção de deriva, recursos de trem em qualquer lugar e APIs amigáveis para desenvolvedores. Para obter mais detalhes, vá para a página do produto IBM Machine Learning for z/OS.

O Machine Learning para IBM z/OS pode servir vários casos de uso transacionais no IBM z/OS. Os principais casos de uso incluem:

Detecção de fraudes em tempo real em cartões de crédito e pagamentos: as grandes instituições financeiras estão cada vez mais preocupadas com as perdas devido à fraudes. Com soluções fora da plataforma, eles só puderam rastrear um pequeno subconjunto de suas transações. Em suporte a esse caso de uso, o sistema IBM z16 pode processar até 228 mil transações de cartão de crédito z/OS CICS por segundo com tempo de resposta de 6 ms, cada uma com uma operação de inferência de detecção de fraude na transação usando um Modelo de Deep Learning.

O resultado do desempenho é extrapolado dos testes internos da IBM que executam uma carga de trabalho de transação de cartão de crédito CICS com operações de inferência no IBM z16. Foi utilizada uma partição lógica z/OS V2R4 (LPAR) configurada com 6 CPs e 256 GB de memória. A inferência foi feita com Machine Learning para IBM z/OS rodando no Websphere Application Server Liberty 21.0.0.12, usando um modelo de detecção de fraude de cartão de crédito ynthetic e o IBM Integrated Accelerator for AI. O processamento em massa do lado do servidor foi ativado no Machine Learning para IBM z/OS com um tamanho de 8 operações de inferência. O benchmark foi executado com 48 threads realizando operações de inferência. Os resultados representam um IBM z16 totalmente configurado com 200 CPs e 40 TB de armazenamento. Os resultados podem variar.

Compensação e liquidação: um processador de cartões explorou o uso de IA para ajudar a determinar quais negociações e transações têm uma exposição de alto risco antes da liquidação para reduzir responsabilidades, estornos e investigações dispendiosas. Em suporte a esse caso de uso, a IBM validou que o IBM z16 com Machine Learning para IBM z/OS foi projetado para pontuar transações de negócios em escala, fornecendo a capacidade de processar até 300 bilhões de solicitações de inferência profunda por dia com 1 ms de latência.

O resultado do desempenho é extrapolado de testes internos da IBM executando operações de inferência local em uma LPAR IBM z16 com 48 IFLs e 128 GB de memória no Ubuntu 20.04 (modo SMT) usando um modelo sintético de detecção de fraude de cartão de crédito explorando o Integrated Accelerator for AI. O benchmark estava rodando com 8 threads paralelos, cada um fixado ao primeiro núcleo de um chip diferente. O comando lscpu foi usado para identificar a topologia core-chip. Um tamanho de lote de 128 operações de inferência foi usado. Os resultados também foram reproduzidos usando uma LPAR z/OS V2R4 com 24 CPs e 256 GB de memória no IBM z16. Foi utilizado o mesmo modelo de detecção de fraudes com cartão de crédito. O benchmark foi executado com um único thread realizando operações de inferência. Um tamanho de lote de 128 operações de inferência foi usado. Os resultados podem variar.

Combate à lavagem de dinheiro: um banco estava explorando como introduzir a triagem de AML em seu fluxo operacional de pagamentos instantâneos. Seu atual rastreamento de LMA no final do dia não era mais suficiente devido a regulamentações mais rígidas. Em suporte a esse caso de uso, a IBM demonstrou que o IBM z16 com z/OS oferece tempo de resposta até 20x menor e taxa de transferência até 19x maior ao colocar aplicativos e inferenciar solicitações versus enviar as mesmas solicitações de inferência para um servidor x86 comparado no mesmo data center com latência média de rede de 60 ms.

Resultados de desempenho baseados em testes internos da IBM usando uma carga de trabalho de cartão de crédito OLTP CICS com detecção de fraude na transação. Foi utilizado um modelo sintético de detecção de fraudes com cartão de crédito. No IBM z16, a inferência foi feita com MLz no zCX. O Tensorflow Serving foi usado no servidor x86 comparado. Um Linux on IBM Z LPAR, localizado no mesmo IBM z16, foi usado para fazer a ponte de conexão de rede entre a LPAR z/OS medida e o servidor x86. Latência de rede adicional foi introduzida com o comando “tc-netem” do Linux para simular um ambiente de rede com latência média de 5 ms.

IA local

O Machine Learning para IBM z/OS com IBM Z também pode ser usado como uma plataforma de IA local focada em segurança para outros casos de uso em que os clientes desejam promover a integridade dos dados, a privacidade e a disponibilidade de aplicativos. Os sistemas IBM z16, com GDPS, armazenamento da série IBM DS8000 com HyperSwap e executando um ambiente Red Hat OpenShift Container Platform, são projetados para oferecer 99,99999% de disponibilidade.

Os componentes necessários incluem IBM z16; Sistemas IBM z/VM V7.2 ou superior coletados em uma única imagem do sistema, cada um executando RHOCP 4.10 ou superior; Gerente de Operações IBM; GDPS 4.5 para gerenciamento de recuperação de dados e recuperação de máquinas virtuais em sistemas de distância metropolitana e armazenamento, incluindo carga de trabalho Metro Multisite e GDPS Global; e armazenamento da série IBM DS8000 com IBM HyperSwap. Uma carga de trabalho do MongoDB v4.2 foi usada. A tecnologia de resiliência necessária deve ser habilitada, incluindo cluster de imagem de sistema único z/VM, GDPS xDR Proxy para z/VM e Red Hat OpenShift Data Foundation (ODF) 4.10 para gerenciamento de dispositivos de armazenamento local. As interrupções induzidas por aplicativos não estão incluídas nas medições anteriores. Os resultados podem variar. Outras configurações (hardware ou software) podem fornecer características de disponibilidade diferentes.

 

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.