book_icon

Como funciona e os riscos da Deep Fake

Especialista do SafeLabs alerta para o perigoso potencial da ferramenta

Como funciona e os riscos da Deep Fake

Recentemente, a tecnologia conhecida como “Deep Fake” tem despertado a atenção e a curiosidade de milhões de pessoas pela internet. Diversos vídeos que mostram figuras públicas envolvidas em situações absurdas ou proferindo frases inimagináveis, na maior parte das vezes em tom humorístico.

Porém, a mesma tecnologia também pode ser usada para fins perigosíssimos. Encontramos um exemplo recente no contexto do conflito entre Rússia e Ucrânia. Viralizou um vídeo onde o presidente ucraniano Volodymyr Zelensky supostamente ordena que suas tropas larguem as armas, e se rendam ao inimigo. Todo o conteúdo, no entanto, não passa de montagem, feita para enganar soldados e a população. Além disso, outro caso infelizmente “comum” é o da inserção do rosto de jornalistas e políticas em conteúdos de teor pornográfico, como forma de ataque à reputação.

Os Deep Fakes também potencializarão um novo tipo de ataque, conhecido como “vishing”, que é a manipulação de reconhecimento facial ou vocal

“O Deep Fake é uma mídia sintética, isto é, um vídeo ou áudio manipulado ou totalmente criado por uma Inteligência Artificial”, explica William Pessoa, gerente de Operações de Cibersegurança do SafeLabs, fabricante de soluções de cibersegurança do grupo ISH Tech. “A IA se alimenta de uma base de dados, e é treinada para melhor projetar rostos, vozes, feições corporais e ângulos. Seguindo a lógica, quanto mais famosa uma pessoa, mais conteúdo a máquina terá para se alimentar, e, consequentemente, mais fidedigno será o Deep Fake.”

O especialista afirma que o avanço da tecnologia permitirá que seu uso cresça exponencialmente em crimes que vão além de personalidades famosas. “Benefícios como seguro de vida e pensão podem se tornar alvo dos golpistas, que poderão se parecer, movimentar e soar como o beneficiário”, explica. Alerta também para o crescimento de fraudes financeiras, como abertura de contas ou transferências bancárias indevidas.

Os Deep Fakes também potencializarão um novo tipo de ataque, conhecido como “vishing”, que é a manipulação de reconhecimento facial ou vocal. “Com acesso à voz de uma potencial vítima, ou enviando vídeos adulterados de seu rosto, o risco de sequestros, ainda que sejam completamente fabricados, se torna grande demais para ser ignorado por familiares e amigos”, comenta Pessoa.

A popularização do uso desses artifícios é uma tendência. Um estudo realizado pela University College London prevê que, nos próximos 15 anos, a Inteligência Artificial irá facilitar o cometimento de crimes em mais de vinte maneiras diferentes. Já o Gartner revela que, atualmente, 20% de todos os ataques cibernéticos de controle de contas aproveitam a técnica do Deep Fake, que foi classificada como a ameaça mais grave dentro dos crimes de IA.

Como identificar?
Pessoa explica que, ainda que os Deep Fakes se tornem cada dia mais impressionantes e difíceis de serem percebidos, existem algumas maneiras de desconfiar de que o conteúdo possa ser falso. “Problemas na pele, rosto, cabelo, iluminação pouco natural, vozes que parecem um pouco diferentes. Além disso, exatamente por ser uma tecnologia cada vez mais perigosa, qualquer vídeo ou áudio que soe muito absurdo, por mais real que pareça, merece uma segunda checagem”, conclui.

Sobre o SafeLabs
O SafeLabs é um fabricante do grupo ISH Tech, que tem como objetivo a pesquisa, desenvolvimento e fornecimento de soluções brasileiras para o mercado de segurança da informação. Seu portfólio de soluções contempla atualmente o Mantis, plataforma DRP (Digital Risk Protection) o Cyberpass, ferramenta de Marketing, BI e Customer Smart Data, o Harpia, Ferramenta de SIEM (Security Information and Event Management) desenvolvida para garantir monitoração e visibilidade de ambientes de forma simples e intuitiva e RaidStorm — BAS (Breach and Attack Simulation).

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.