book_icon

Think IT adverte sobre os crescentes casos de deepfakes

Especialista ressalta as implicações das técnicas de deepfakes na cibersegurança, especialmente para roubo de dados, desinformação e perda de reputação

 

Think IT adverte sobre os crescentes casos de deepfakes

O deepfake não é uma técnica tão nova; existe há alguns anos, mas era facilmente identificada a olho nu, até mesmo por leigos. Atualmente, com a IA generativa é possível apresentar uma complexidade e riqueza de detalhes na criação de deepfakes antes não imaginável. Vide o caso mais recente ocorrido no início de fevereiro: um profissional da área financeira de uma multinacional baseada em Hong Kong teria sido roubado em US$ 25 milhões em dinheiro da empresa quando golpistas criaram um deepfake de seu diretor financeiro em uma videoconferência.

Para entender e enfrentar mais esse desafio, os especialistas da Think IT analisam as implicações que o deepfake provoca às organizações e aos usuários finais. No passado, algumas pesquisas de fornecedores de cibersegurança e de alguns especialistas apontavam sobre o uso da deepfake não ser uma ameaça, e que seria muito difícil conseguir uma perfeição com o qual sistema ou pessoas pudessem ser enganados.

“Entretanto, o deepfake é muito mais que só face, é também voz, cenário, todo um contexto que colabora a enganar sistemas e pessoas. E, hoje, com a IA em conjunto com o advento da popularidade de acesso a nuvem, com grande volume de capacidades de processamento em GPUs antes impensável, você pode alugar os recursos por horas e conseguirá alocar softwares extremamente eficientes e realistas com alto consumo de processamento entregando nível altíssimo de detalhes”, comenta Marcos Pires, sócio e head da Unidade de Negócios de Cybersecurity da Think IT.

Na mente do cibercriminoso, quanto mais volume de dados ele tem, melhor, para fazer a simulação depois com o texto, a voz, os trejeitos e mesmo a inclusão de cenário comum da vitima

Além disso, Pires relembra que há grande volume de informações disponíveis e expostas na Internet sobre a maioria de nós; vídeos, fotos, textos, áudios, e isso faz com que seja muito fácil capturar muitas informações para usar Machine Learning no aprimoramento do alvo na criação do avatar digital. “Na mente do cibercriminoso, quanto mais volume de dados ele tem, melhor, para fazer a simulação depois com o texto, a voz, os trejeitos e mesmo a inclusão de cenário comum da vitima. Então, quanto mais informação da vítima, melhor vai ser a qualidade desse deepfake”, diz o executivo.

Assim, Pires destaca os principais cuidados que todos devemos ter com os detalhes. O primeiro deles é sobre o recebimento de um vídeo no qual o que se apresenta é algo pouco provável de que esteja acontecendo; então, é preciso ter atenção aos detalhes.

Neste caso, a orientação é avaliar as texturas como a aparência da pele, a forma dos olhos, os trejeitos. Às vezes a movimentação das pessoas fica levemente mecanizada, em alguns detalhes tons de pele e cabelo diferentes.

Em um contexto de engenharia social, os cibercriminosos se valem da oportunidade de excesso de informação e pela falta de tempo da maioria das pessoas para se ater os tais detalhes e claro a falta de informação, o que as levam ao erro de realizar os comandos ou as ações que o deepfake está determinando executar (como no caso da empresa de Hong Kong).

A segunda orientação extremamente importante apontada por Marcos Pires visa a proteção e prevenção do deepfake. “Uma das formas para se proteger é colocar marcas d’água sobre as fotos. Existem algumas técnicas para ‘tokenizar’ e se guardar as informações, de modo a ter um hash que identifique de forma muito clara que aquilo é um documento original. Mas nem todo o conteúdo que está na Internet é fácil de validar a origem verificada, o mercado em processo de maturação e soluções de verificação estão a caminho”, diz Pires.

Uma das formas para se proteger é colocar marcas d’água sobre as fotos

Segundo ele, em um futuro próximo, isso poderá ser uma tendência e todos os conteúdos expostos em mídias originais e mídias que tenham uma ótima reputação terão a garantia de que elas terão esse reconhecimento de uma mídia original.

Enquanto isso não acontece, existem algumas ferramentas no mercado, algumas só disponíveis para o governo e grandes bureaus de investigações, como o Sentinel, que realizam tal verificação em altíssima acuracidade.

A E-Verify é uma iniciativa de desenvolvimento de um conjunto de ferramentas para poder descobrir se aquele conteúdo é fake ou não. Outra ferramenta é a FakeCatcher, cuja acuracidade aproximada é de 96%. Essas tecnologias visualizam um vídeo original da vítima, comparam toda a fisionomia e detalhes, inclusive, da corrente sanguínea, dos pequenos vasos que são detectados quando se é filmado.

As demais recomendações de Pires são: se possível publicar menor quantidade de conteúdo e dados sobre você; deixar claro para o seu público quais são seus canais oficiais de divulgação tanto para empresas como pessoas; o treinamento e conscientização é imprescindível para que as organização e pessoas se mantenham seguras.

É bastante provável que mais ferramentas estarão disponíveis para que qualquer usuário possa identificar deepfakes, e talvez até um add-on esteja contido no browser, por exemplo, para que se verifique um conteúdo duvidoso.

Mas, o importante é que a mesma tecnologia utilizada no deepfake é benéfica na criação de simulações de medicina, treinamento virtuais, criação de cenas de risco em filmagens, propagandas com pessoas que já faleceram, e isso envolverá questões de ética, entre outras, a serem definidas em breve.

“Acredito que nos próximos quatro anos veremos mais uma revolução que ainda vai alterar de forma drástica esse cenário, e isso vai impactar todos os conceitos de cibersegurança até hoje existentes. Na Think IT, estamos acompanhando cada evolução, para o bem e para o mal, gerada pela IA para apoiar a enfrentar os desafios dessa nova era”, finaliza Pires.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.