Uma nova pesquisa do Gartner indica que 34% das organizações já estão usando ou implementando ferramentas de segurança de aplicativos com base em Inteligência Artificial (IA) para mitigar os riscos associados à IA generativa (GenAI). Mais da metade (56%) dos entrevistados disseram que também estão explorando essas soluções.
A pesquisa Gartner Peer Community foi realizada de 1º a 7 de abril entre 150 líderes de TI e segurança da informação em organizações onde GenAI ou modelos fundamentais estão em uso, em planos de uso ou em exploração. Segundo o levantamento, 26% dos entrevistados afirmaram que estão atualmente implementando ou utilizando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%).
“Os líderes de TI e segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar uma estratégia empresarial para AI TRiSM (gerenciamento de confiança, risco e segurança)”, disse Avivah Litan , distinguished VP analyst do Gartner. “AI TRiSM gerencia fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de IA e deve ser um esforço contínuo, não um exercício único para proteger continuamente uma organização”, observou.
Embora 93% dos líderes de TI e segurança entrevistados tenham dito que estão pelo menos um pouco envolvidos nos esforços de segurança e gerenciamento de riscos da GenAI de suas organizações, apenas 24% disseram que possuem essa responsabilidade.
Entre os entrevistados que não possuem a responsabilidade pela segurança e/ou gerenciamento de riscos da GenAI, 44% relataram que a responsabilidade final pela segurança da GenAI era da TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas organizações eram os responsáveis.
Riscos mais importantes
Os riscos associados à GenAI são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis e código inseguro estão entre os riscos mais lembrados ao usar GenAI:
– 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por IA.
– 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos.
“As organizações que não gerenciam o risco de IA testemunharão que seus modelos não funcionarão conforme o esperado e, na pior das hipóteses, poderão causar danos humanos ou materiais”, disse Litan. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da IA também pode fazer com que as organizações tomem decisões de negócios erradas”, afirmou.
Serviço
www.gartner.com
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo