book_icon

Um terço das empresas já estão usando ferramentas de segurança com IA, diz Gartner

Pesquisa mostra que 34% das organizações já estão usando ou implementando ferramentas de segurança de aplicativos com base em Inteligência Artificial para mitigar os riscos associados à IA generativa

Um terço das empresas já estão usando ferramentas de segurança com IA, diz Gartner

Uma nova pesquisa do Gartner indica que 34% das organizações já estão usando ou implementando ferramentas de segurança de aplicativos com base em Inteligência Artificial (IA) para mitigar os riscos associados à IA generativa (GenAI). Mais da metade (56%) dos entrevistados disseram que também estão explorando essas soluções.

A pesquisa Gartner Peer Community foi realizada de 1º a 7 de abril entre 150 líderes de TI e segurança da informação em organizações onde GenAI ou modelos fundamentais estão em uso, em planos de uso ou em exploração. Segundo o levantamento, 26% dos entrevistados afirmaram que estão atualmente implementando ou utilizando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%).

As organizações que não gerenciam o risco de IA testemunharão que seus modelos não funcionarão conforme o esperado e, na pior das hipóteses, poderão causar danos humanos ou materiais

“Os líderes de TI e segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar uma estratégia empresarial para AI TRiSM (gerenciamento de confiança, risco e segurança)”, disse Avivah Litan , distinguished VP analyst do Gartner. “AI TRiSM gerencia fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de IA e deve ser um esforço contínuo, não um exercício único para proteger continuamente uma organização”, observou.

Embora 93% dos líderes de TI e segurança entrevistados tenham dito que estão pelo menos um pouco envolvidos nos esforços de segurança e gerenciamento de riscos da GenAI de suas organizações, apenas 24% disseram que possuem essa responsabilidade.

Entre os entrevistados que não possuem a responsabilidade pela segurança e/ou gerenciamento de riscos da GenAI, 44% relataram que a responsabilidade final pela segurança da GenAI era da TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas organizações eram os responsáveis.

Riscos mais importantes

Os riscos associados à GenAI são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar GenAI:

– 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por IA.

– 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos.

“As organizações que não gerenciam o risco de IA testemunharão que seus modelos não funcionarão conforme o esperado e, na pior das hipóteses, poderão causar danos humanos ou materiais”, disse Litan. “Isso resultará em falhas de segurança, perdas financeiras e de reputação e danos aos indivíduos decorrentes de resultados incorretos, manipulados, antiéticos ou tendenciosos. O mau desempenho da IA ​​também pode fazer com que as organizações tomem decisões de negócios erradas”, afirmou.

Serviço
www.gartner.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.