book_icon

CISOs precisam defender o AI TRiSM para melhorar os resultados da IA, diz Gartner

A IA exige novas formas de Gestão de Confiança, Risco e Segurança (TRiSM) que os controles convencionais não oferecem, afirma especialista

CISOs precisam defender o AI TRiSM para melhorar os resultados da IA, diz Gartner

Até 2026, as organizações que operacionalizarem a transparência, a confiança e a segurança da inteligência artificial (IA) verão os seus modelos de IA alcançarem uma melhoria de 50% em termos de adoção, objetivos de negócio e aceitação dos usuários, de acordo com o Gartner. Falando na semana passada no Gartner Security & Risk Management Summit em Londres (Inglaterra), Mark Horvath, vice-presidente e analista do Gartner, disse: “Os CISOs não podem permitir que a IA controle a sua organização. A IA exige novas formas de Gestão de Confiança, Risco e Segurança (TRiSM) que os controles convencionais não oferecem. Os diretores de Segurança da Informação (CISOs) precisam defender o AI TRiSM para melhorar os resultados da IA, por exemplo, aumentando a velocidade do modelo de IA até a produção, permitindo uma melhor governança ou racionalizando o portfólio de modelos de IA, o que pode eliminar até 80% de informações falsas e ilegítimas.”

A implementação do AI TRiSM permite que as organizações entendam o que seus modelos de IA estão fazendo, até que ponto eles se alinham com as intenções originais e o que pode ser esperado em termos de desempenho e valor comercial

A IA não só representa riscos consideráveis ​​para os dados, uma vez que conjuntos de dados sensíveis são frequentemente utilizados para treinar modelos de IA, como também a precisão dos resultados do modelo e a qualidade dos conjuntos de dados podem variar ao longo do tempo, o que pode causar consequências adversas.

A implementação do AI TRiSM permite que as organizações entendam o que seus modelos de IA estão fazendo, até que ponto eles se alinham com as intenções originais e o que pode ser esperado em termos de desempenho e valor comercial.

O AI TRiSM não pode ser liderado por uma única unidade de negócios. “Isso exige educação e colaboração entre equipes”, observou Jeremy D’Hoinne, vice-presidente e analista do Gartner. “Os CISOs devem ter uma compreensão clara de suas responsabilidades de IA dentro das equipes mais amplas de IA dedicadas, que podem incluir funcionários das equipes jurídica, de conformidade, de TI e de análise de dados”, afirmou.

Sem um programa AI TRiSM robusto, os modelos de IA podem funcionar contra o negócio, introduzindo riscos inesperados, o que causa resultados adversos do modelo, violações de privacidade, danos substanciais à reputação e outras consequências negativas.

Prioridades de gerenciamento de risco de IA

Como a IA pode ser vista como qualquer outra aplicação, os CISOs podem precisar recalibrar as expectativas dentro e fora da equipe. Uma vez definidas as expectativas, o CISO e as suas equipas precisam de tomar as seguintes cinco ações de gestão de riscos de IA:

– Capture a extensão da exposição inventariando a IA usada na organização e garanta o nível certo de explicabilidade.

– Conscientize a equipe em toda a organização liderando uma campanha formal de educação sobre os riscos da IA.

– Apoie a confiabilidade e a segurança do modelo, incorporando o gerenciamento de riscos nas operações do modelo.

– Elimine a exposição de dados internos e compartilhados de IA adotando programas de proteção e privacidade de dados.

– Adote medidas específicas de segurança de IA contra ataques adversários para garantir resistência e resiliência.

Serviço
www.gartner.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.