book_icon

Cresce casos de golpes de voz com uso de Inteligência Artificial, afirma McAfee

Criminosos clonam a voz de uma pessoa com o uso de IA, ligam para parentes e amigos dizendo estar em dificuldades e pedem que enviem certa quantidade de dinheiro

Cresce casos de golpes de voz com uso de Inteligência Artificial, afirma McAfee

A McAfee, provedora global de proteção online, publicou nesta terça-feira (2/5) o relatório The Artificial Imposter, mostrando como a Inteligência Artificial (IA) está alimentando um aumento nos golpes de voz online – apenas três segundos de áudio são necessários para clonar a voz de uma pessoa.

A McAfee entrevistou 7.054 pessoas de sete países e descobriu que um quarto dos adultos já havia experimentado algum tipo de golpe de voz de IA, com 1 em cada 10 direcionados pessoalmente e 15% dizendo que aconteceu com alguém que conheciam. E 77% das vítimas disseram que perderam dinheiro com o golpe.

Estão disponíveis ferramentas gratuitas e pagas, muitas exigindo apenas um nível básico de experiência e conhecimento para usar. Em uma instância, apenas três segundos de áudio foram suficientes para produzir uma correspondência de 85%, mas com mais investimento e esforço é possível aumentar a precisão

Além disso, os pesquisadores de segurança do McAfee Labs revelaram suas percepções e análises de um estudo aprofundado da tecnologia de clonagem de voz de IA e do uso de cibercriminosos.

Golpe de clonagem de voz com IA

A voz de cada pessoa é única, o equivalente falado de uma impressão digital biométrica, e é por isso que ouvir alguém falar é uma forma amplamente aceita de estabelecer confiança. Mas com 53% dos adultos compartilhando seus dados de voz online pelo menos uma vez por semana (via mídia social, anotações de voz e mais) e 49% fazendo isso até 10 vezes por semana, clonar alguém é uma ferramenta poderosa para o arsenal de um cibercriminoso.

Com o aumento da popularidade e adoção de ferramentas de IA, é mais fácil do que nunca manipular imagens, vídeos e, talvez o mais perturbador, as vozes de amigos e familiares. A pesquisa da McAfee revela que os golpistas estão usando a tecnologia de IA para clonar vozes e, em seguida, enviar uma mensagem de voz falsa ou ligar para os contatos da vítima fingindo estar em perigo – e com 70% dos adultos não confiantes de que poderiam identificar a versão clonada da coisa real, não é surpresa que esta técnica está ganhando força.

Quase metade (45%) dos entrevistados disse que responderia a uma mensagem de voz ou mensagem de voz supostamente de um amigo ou ente querido precisando de dinheiro, principalmente se pensassem que a solicitação veio de seu parceiro ou cônjuge (40%), pai (31%) ou filho (20%). Para pais com 50 anos ou mais, este grupo tem maior probabilidade de responder a uma criança em 41%. As mensagens com maior probabilidade de obter uma resposta foram aquelas alegando que o remetente esteve envolvido em um acidente de carro (48%), foi roubado (47%), perdeu o telefone ou a carteira (43%) ou precisou de ajuda durante uma viagem ao exterior (41%).

Mas o custo de cair em um golpe de voz de IA pode ser significativo, com mais de um terço das pessoas que perderam dinheiro dizendo que custou mais de US$ 1 mil, enquanto 7% foram enganados entre US$ 5 mil e US$ 15 mil.

A pesquisa também descobriu que o aumento de deepfakes e desinformação levou as pessoas a ficarem mais cautelosas com o que veem online, com 32% dos adultos dizendo que agora confiam menos nas mídias sociais do que nunca.

“A Inteligência Artificial traz oportunidades incríveis, mas com qualquer tecnologia há sempre o potencial de ser usada de forma maliciosa nas mãos erradas. É isso que estamos vendo hoje com o acesso e a facilidade de uso de ferramentas de IA que ajudam os cibercriminosos a ampliar seus esforços de maneiras cada vez mais convincentes”, disse Steve Grobman, CTO da McAfee.

Ferramentas disponíveis

A pesquisa do McAfee Labs revela que a clonagem de voz requer experiência limitada e apenas alguns segundos de áudio

Como parte da revisão e avaliação da McAfee sobre essa nova tendência, os pesquisadores da McAfee passaram três semanas investigando a acessibilidade, facilidade de uso e eficácia das ferramentas de clonagem de voz de IA, com a equipe encontrando mais de uma dúzia disponíveis gratuitamente na Internet.

Estão disponíveis ferramentas gratuitas e pagas, muitas exigindo apenas um nível básico de experiência e conhecimento para usar. Em uma instância, apenas três segundos de áudio foram suficientes para produzir uma correspondência de 85%, mas com mais investimento e esforço é possível aumentar a precisão. Ao treinar os modelos de dados, os pesquisadores da McAfee conseguiram uma correspondência de voz de 95% com base em apenas um pequeno número de arquivos de áudio.

Quanto mais preciso o clone, maior a chance de um cibercriminoso enganar alguém para entregar seu dinheiro ou realizar outra ação solicitada. Com essas fraudes baseadas na exploração das vulnerabilidades emocionais inerentes aos relacionamentos íntimos, um golpista pode ganhar milhares de dólares em apenas algumas horas.

“Ferramentas avançadas de IA estão mudando o jogo para os cibercriminosos. Agora, com muito pouco esforço, eles podem clonar a voz de uma pessoa e enganar um contato próximo para enviar dinheiro”, disse Grobman. “É importante permanecer vigilante e tomar medidas proativas para manter você e seus entes queridos seguros. Se você receber uma ligação de seu cônjuge ou de um membro da família em perigo e pedindo dinheiro, verifique o chamador – use uma palavra-código previamente acordada ou faça uma pergunta que só eles saberiam. Os serviços de proteção de identidade e privacidade também ajudarão a limitar a pegada digital de informações pessoais que um criminoso pode usar para desenvolver uma narrativa convincente ao criar um clone de voz”, completou.

Usando as ferramentas de clonagem que encontraram, os pesquisadores da McAfee descobriram que não tinham problemas para replicar sotaques de todo o mundo, fossem eles dos EUA, Reino Unido, Índia ou Austrália, mas vozes mais distintas eram mais difíceis de copiar. Por exemplo, a voz de uma pessoa que fala com um ritmo, ritmo ou estilo incomum exige mais esforço para ser clonada com precisão e tem menos probabilidade de ser direcionada como resultado.

O sentimento predominante entre a equipe de pesquisa, porém, é que a Inteligência Artificial já mudou o jogo para os cibercriminosos. A barreira de entrada nunca foi menor, o que significa que nunca foi tão fácil cometer crimes cibernéticos.

Serviço
www.mcafee.com

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.