book_icon

A arte do possível: os desafios da cibersegurança na era da Inteligência Artificial

Este ano, tivemos a oportunidade de participar da RSA Conference 2024, um dos principais eventos globais de segurança cibernética, que reuniu mais de 45.000 profissionais do mundo todo. O tema central da conferência, “A arte do possível”, explorou o impacto transformador da Inteligência Artificial (IA) em diversos setores e as implicações complexas que essa tecnologia traz para a segurança cibernética.

Uma das coisas que mais ficou evidente na RSA Conference 2024 foi a consolidação do modelo “tudo como plataforma” adotado pelos principais fabricantes. Foi possível observar como os grandes players se preocuparam em se apresentar como uma solução completa, dispensando os clientes da necessidade de adotar múltiplas soluções de fornecedores diferentes. Tal consolidação é a consequência das muitas empresas de nicho que foram absorvidas pelas gigantes nos últimos meses e outras corporações que fundiram suas soluções, que se apoiaram na IA para inovar e integrar tecnologias, até então, tão distintas. O resultado é um mercado cada vez mais maduro e companhias totalmente preparadas para atender às demandas dos clientes, independentemente de quais forem os desafios.

Aliás, a adoção de IA para fins defensivos foi muito destacada. As empresas estão integrando Inteligência Artificial em suas soluções de segurança para detectar e responder a ameaças de forma mais rápida e eficiente. Isso inclui desde a identificação de caminho de ataque, recomendações até a implementação de soluções de resposta automática a incidentes. Não é à toa que a IA se apresenta como uma ferramenta poderosa para impulsionar a inovação e otimizar processos em áreas como saúde, finanças e manufatura.

No entanto, essa mesma força inovadora também abre portas para novos desafios de segurança, exigindo atenção redobrada para proteger sistemas e dados contra ameaças cibernéticas. As discussões e apresentações foram amplamente divididas em dois temas principais, destacando as duas faces da IA: a “Empower IA”, que representa seu potencial para impulsionar a eficiência e a inovação de uso de IA em soluções de segurança, e a “Protect IA”, que destaca a importância crucial de garantir a segurança e a proteção contra as crescentes ameaças da própria IA.

Com o advento da IA, muitas soluções estão se tornando mais proativas, em que os analistas recebem recomendações do que está acontecendo, o que deve ser feito e como deve ser realizado em uma política de segurança com base em melhores práticas e dados da vulnerabilidade ou incidente específico. Elas não apenas identificam pontos vulneráveis em aplicações, mas também protegem contra explorações em tempo real, isolando o ataque e mantendo a aplicação em funcionamento.

Além disso, muitas outras soluções estão incorporando IA para aprimorar a segurança de código. Durante o desenvolvimento, a IA sugere ajustes para garantir a segurança do código. Em testes defensivos por exemplo, a Inteligência Artificial está sendo utilizada para automatizar testes de movimentações laterais e simulações de malwares persistentes, fornecendo recomendações para melhorar a resiliência contra ataques.

Essas inovações demonstram um avanço significativo na segurança cibernética, em que a IA não apenas identifica e analisa ameaças, mas também responde de forma proativa para proteger os sistemas e Dados corporativos.

No outro lado a segurança de Inteligência Artificial foi também um dos temas discutidos, trazendo à tona tanto oportunidades quanto preocupações. A proteção da IA envolve aspectos críticos como a segurança dos modelos de aprendizagem, a segurança das conexões, proteção na web e governança do uso de IA Generativa com o controle dos Dados utilizados. Um ponto bastante debatido foi a “Shadow IA”, um termo que faz analogia ao “Shadow IT”.

Assim como o Shadow IT refere-se ao uso não autorizado de tecnologias da informação, a Shadow IA refere-se ao uso indevido de modelos de Inteligência Artificial. Um exemplo preocupante é a inserção de Dados confidenciais em modelos de IA Generativas sem considerar as implicações de segurança e privacidade, o que pode expor informações sensíveis e comprometer a segurança de indivíduos e organizações.

Durante o evento, foram abordadas as maneiras pelas quais as empresas podem proteger seus sistemas contra o uso indevido de IA. Soluções de ponta estão sendo desenvolvidas para garantir que os Dados pessoais sejam usados de forma ética e segura. Essas discussões ressaltam a necessidade de uma abordagem proativa e colaborativa na proteção da IA garantindo que essa tecnologia seja utilizada de forma segura e ética, protegendo tanto os Dados quanto a privacidade dos usuários.

A RSA Conference 2024 demonstrou que a jornada rumo a uma IA segura e responsável é longa, mas não impossível. Ao investir em medidas de segurança abrangentes e adotar práticas de desenvolvimento éticas, podemos garantir que a IA seja utilizada para o bem, impulsionando o progresso sem comprometer a segurança de Dados e sistemas.

A mensagem final da conferência é clara: a responsabilidade de construir uma IA segura e confiável é nossa. Devemos assumir um compromisso proativo com a segurança cibernética e trabalhar juntos para garantir que a IA realize seu verdadeiro potencial, beneficiando a sociedade sem colocar em risco a segurança de indivíduos e organizações.

Por Rodrigo Salvo, gerente de SOC e Rafael Araújo Silva, diretor de negócios da Teltec Solutions.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.