book_icon

Kaspersky analisa como a IA moldou o cenário da cibersegurança em 2023

Os investigadores da Kaspersky mostram como as ferramentas de IA ajudaram os cibercriminosos em suas atividades e as potenciais aplicações defensivas desta tecnologia

Kaspersky analisa como a IA moldou o cenário da cibersegurança em 2023

Em seu último relatório, os especialistas da Kaspersky revelam a profunda influência da IA ​​no cenário de segurança cibernética de 2023. Adotando uma abordagem multifacetada, a análise explora as implicações da IA, centrando-se em sua utilização por defensores e reguladores, e avaliando separadamente a sua potencial exploração por cibercriminosos. Este exame abrangente é uma compilação anual de previsões e relatórios aprofundados que iluminam as principais mudanças no campo dinâmico da segurança cibernética.

Entre o ritmo rápido do progresso tecnológico e das mudanças sociais, o termo “IA” posicionou-se firmemente na vanguarda das conversas globais. Com a crescente disseminação de grandes modelos de linguagem (LLMs), o aumento das preocupações com segurança e privacidade liga diretamente a IA ao mundo da segurança cibernética. Os investigadores da Kaspersky ilustram como as ferramentas de IA ajudaram os cibercriminosos em suas atividades maliciosas em 2023, ao mesmo tempo que mostram as potenciais aplicações defensivas desta tecnologia. Os especialistas da empresa também revelam o cenário em evolução das ameaças relacionadas à IA no futuro.

Serão necessárias mais regulamentações, bem como políticas dos prestadores de serviços para sinalizar ou identificar conteúdos sintéticos, com estes últimos continuando a investir em tecnologias de detecção

Vulnerabilidades mais complexas

À medida que os LLMs que seguem instruções são integrados em produtos mais voltados para o consumidor, novas vulnerabilidades complexas surgirão na intersecção da IA ​​generativa probabilística e das tecnologias determinísticas tradicionais, expandindo a superfície de ataque para os profissionais de segurança cibernética protegerem. Isso exigirá que os desenvolvedores estudem novas medidas de segurança, como a aprovação do usuário para ações iniciadas por agentes LLM.

Um assistente abrangente de IA para especialistas em segurança cibernética

Os pesquisadores e equipes vermelhas aproveitam a IA generativa para ferramentas inovadoras de segurança cibernética, potencialmente levando a um assistente usando LLM ou aprendizado de máquina (ML). Esta ferramenta poderia automatizar tarefas de red teaming, oferecendo orientação baseada em comandos executados em um ambiente de pentesting.

Redes neurais serão cada vez mais utilizadas para gerar recursos visuais para golpes

No próximo ano, os golpistas poderão ampliar suas táticas usando redes neurais, aproveitando ferramentas de IA para criar conteúdo fraudulento mais convincente. Com a capacidade de gerar imagens e vídeos convincentes sem esforço, os atores mal-intencionados representam um risco maior de escalada de ameaças cibernéticas relacionadas a fraudes e golpes.

A IA não se tornará um impulsionador de mudanças inovadoras no cenário de ameaças em 2024

Apesar das tendências acima, os especialistas da Kaspersky continuam céticos quanto à possibilidade de a IA alterar significativamente o cenário de ameaças no futuro próximo. Embora os cibercriminosos adotem IA generativa, o mesmo se aplica aos defensores cibernéticos que usarão as mesmas ferramentas ou até mais avançadas para testar o aumento da segurança de software e redes, tornando improvável que altere drasticamente o cenário de ataques.

Mais iniciativas regulatórias relacionadas com a IA, com a contribuição do setor privado

À medida que a tecnologia em rápido crescimento se desenvolve, tornou-se uma questão de elaboração de políticas e regulamentação. O número de iniciativas regulamentares relacionadas com a IA deverá aumentar. Os intervenientes não estatais, como as empresas tecnológicas, dada a sua experiência no desenvolvimento e utilização da Inteligência Artificial, podem fornecer informações valiosas para discussões sobre a regulamentação da IA ​​em plataformas globais e nacionais.

Marca d’água para conteúdo gerado por IA

Serão necessárias mais regulamentações, bem como políticas dos prestadores de serviços para sinalizar ou identificar conteúdos sintéticos, com estes últimos continuando a investir em tecnologias de detecção. Os desenvolvedores e pesquisadores, por sua vez, contribuirão com métodos de marcação de marcas d’água em mídias sintéticas para facilitar a identificação e procedência.

“A Inteligência Artificial na segurança cibernética é uma faca de dois gumes. Suas capacidades adaptativas fortalecem nossas defesas, oferecendo um escudo proativo contra ameaças em evolução. No entanto, também apresenta riscos à medida que os invasores utilizam a IA para criar ataques mais sofisticados”, disse Vladislav Tushkanov, especialista em Segurança na Kaspersky. “Atingir o equilíbrio certo, garantindo uma utilização responsável sem a partilha excessiva de dados sensíveis, é fundamental para proteger as nossas fronteiras digitais”, finalizou.

Serviço
www.kaspersky.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.