book_icon

IA também é usada na aplicação de golpes

Acompanhando a evolução da tecnologia, criminosos têm utilizado áudios gerados por IAs e técnicas como a deepfake para fazer novas vítimas

IA também é usada na aplicação de golpes

Acompanhando a evolução da tecnologia, criminosos têm utilizado áudios gerados por IAs e técnicas como a deepfake para fazer novas vítimas. Um dos principais golpes aplicados com a ajuda da Inteligência Artificial é a manipulação ou simulação da voz.

Presente no cotidiano há algum tempo, a Inteligência Artificial ganhou popularidade nos últimos meses, principalmente devido ao lançamento de IAs Generativas, como o Chat GPT, que criam textos, imagens, áudios e vídeos com base em comandos e solicitações. A nova tecnologia promete revolucionar a sociedade e já está sendo usada em diversas áreas, desde a detecção de doenças até a otimização do trabalho.

Infelizmente, quem também acompanha essa evolução tecnológica são os criminosos. Hoje, aplicativos como o WhatsApp e ferramentas de pagamento como o Pix – lançado em 2020 – já são amplamente utilizados na aplicação de golpes, e a Inteligência Artificial está seguindo o mesmo caminho.

Os criminosos estão acompanhando os avanços na tecnologia e aprimorando técnicas, que se tornam cada vez mais complexas 

“A IA é a mais nova ferramenta dos criminosos para fazer vítimas, principalmente em fraudes financeiras e, certamente, também é uma das formas mais sofisticadas de aplicar golpes. Os criminosos estão acompanhando os avanços na tecnologia e aprimorando técnicas, que se tornam cada vez mais complexas”, explica Henrique Schneider, CEO da Netfive, empresa de TI especializada em segurança da informação.

Como os criminosos usam as IAs
Um dos principais golpes aplicados com a ajuda da Inteligência Artificial é a manipulação ou simulação da voz. Há programas capazes de “clonar” uma voz, tendo como base um áudio de poucos segundos. Assim, criminosos conseguem imitar desde o tom de fala, até pausas e a respiração da vítima e tornam pedidos de dinheiro muito mais convincentes, ao enviar áudios para amigos e familiares ou efetuar ligações que enganam até as pessoas mais próximas devido à semelhança com a voz real.

Outro tipo de golpe que utiliza a Inteligência Artificial é a técnica da deepfake, que substitui rostos e cria, assim, imagens e vídeos falsos. A IA consegue colocar um rosto no lugar de outro e simular falas e movimentos corporais, o que torna os vídeos bem realistas. Essa técnica pode ser usada para fraudar sistemas de biometria facial, por exemplo, comumente usados como etapa de segurança para o acesso a contas bancárias ou aplicativos e sites que exigem o reconhecimento facial.

Além disso, a criação de fotos e vídeos falsos por meio da deepfake também pode facilitar golpes como o do falso sequestro, na medida em que criminosos conseguiriam gerar imagens para manipular familiares e induzi-los a fazerem transferências bancárias ou passar dados como forma de pagar pelo resgate de um parente.

O que fazer para não ser vítima
Diante de golpes tão complexos, que se aproveitam de recursos criados pela Inteligência Artificial, fica a dúvida: É possível se proteger e evitar se tornar uma vítima? Henrique Schneider afirma que sim. Para o executivo, os avanços da tecnologia exigem que tenhamos um cuidado cada vez maior com nossos dados.

“Atualmente, os criminosos não estão empenhados em roubar apenas nossas senhas e dinheiro, mas também nossa imagem e até nossa voz. Por isso, redobre os cuidados ao postar algo nas suas redes sociais, principalmente se seu perfil for público, porque assim, suas informações ficam muito mais expostas e podem ser acessadas por qualquer pessoa”, alerta o CEO.

Além disso, Schneider recomenda muita atenção e uma certa dose de desconfiança ao receber mensagens de familiares e amigos pedindo dinheiro. Nesses casos, tente contatar diretamente a pessoa. Se for pessoalmente, melhor. Também é possível combinar previamente uma palavra de segurança entre os familiares ou amigos, para ser usada como forma de confirmar a identidade da pessoa.

Desconfie também de mensagens (SMS ou no WhatsApp) e e-mails com links, principalmente de remetentes que sejam diferentes do Canais oficiais das empresas. Procure sempre contatá-los por esses Canais e se possível, resolva pendências presencialmente, sobretudo as que envolverem questões financeiras. E ainda, não forneça Dados como CPF e número do cartão ou faça transferências para desconhecidos.

Foto: Freepik

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.