‘Era minha cara’: golpistas usam inteligência artificial em videochamadas para pedir dinheiro

Você com certeza já ouviu falar de golpes virtuais como o do PIX, do boleto adulterado, do Instagram clonado ou dos links falsos de desconto. Muitos deles já se tornaram bem conhecidos do público, tanto que a maioria de nós desconfia e não cai mais. Porém, se alguém fizesse uma chamada de vídeo para os seus pais, usando a sua voz e o seu rosto – como se fosse realmente você? Isso aconteceu com a advogada Hanna Gomes:

“Era um vídeo com a minha cara, com uma roupa que parecia com a minha e com a minha voz.”
No golpe da pessoa clonada, os criminosos ligam por videochamada e, quando a vítima atende, começa a conversar com o que parece ser um amigo ou parente pedindo dinheiro. Mas, na verdade, é uma fraude feita com inteligência artificial.

Hanna contou, em suas redes sociais, que a personagem, com a imagem e a voz idênticas à dela, pediu R$ 600 para a mãe da advogada, que percebeu que havia algo errado por causa da voz distorcida na videochamada. Desconfiada, a mãe perguntou qual era o nome do vizinho e os golpistas desligaram.

“A pessoa ligou pro WhatsApp da minha mãe, já chamando de mãe – ou seja, sabendo que aquele número era dela – e pedindo dinheiro. Minha mãe só desconfiou porque a voz estava um pouco diferente, robotizada. Mas parecia com a minha voz e era a minha cara no WhatsApp”, conta ela.
O golpe hiper-realista deu um prejuízo de R$ 127 milhões a uma grande empresa em Hong Kong. Os fraudadores enviaram um link de videoconferência falso para toda a empresa e ordenaram diversas transferências, manipulando ao vivo a imagem e a voz do diretor financeiro.

Saiba o que fazer para não cair no golpe da pessoa clonada
O jornalista especializado em tecnologia Thássius Veloso explica que esse tipo de fraude precisa de programas de computador específicos, que estão se tornando cada vez mais acessíveis:

“O passo seguinte é fazer o download de outros programas mais sofisticados que permitem esse tipo de manipulação. Está se tornando mais comum, mais barato e mais efetivo produzir imagens geradas por computação gráfica e os chamados deepfakes”, explica o comentarista.
O deepfake é uma técnica que permite alterar um vídeo ou foto de uma pessoa com ajuda de inteligência artificial. O material falso é criado a partir de conteúdos verdadeiros, podendo modificar rostos ou uma frase que a pessoa falou.

Ainda não há dados específicos sobre golpes usando a inteligência artificial no Brasil. Mas os crimes cibernéticos aumentaram 65,2% em 2022, com mais de 200 mil casos, segundo o Anuário de Segurança Pública de 2023. Já os golpes, que abrangem o meio digital, aumentaram quase 38% no mesmo período, com uma média de 207 casos por hora.

O diretor-executivo do Instituto de Tecnologia e Sociedade do Rio, Fabro Steibel, dá dicas de como evitar ser vítima das fraudes na internet.:

“Os golpes mais comuns usam algum tipo de engenharia social, ou seja, eles tentam obter um dado seu a partir de outro que obtiveram — então eu sei seu nome, mas posso perguntar seu endereço. Se alguém te escreveu no whatsapp falando algo estranho, faça uma outra pergunta que só a pessoa saberia. Se você não tem filhos, pergunte quantos filhos você tem pra testar o conhecimento da outra pessoa e ter certeza do que está acontecendo. Não faça PIX a não ser que você tenha muita certeza do que acontece, já que o que mais motiva os golpes é o retorno financeiro”, detalha.
Para fugir dos golpes, a gerente de vendas Rita Abreu passou a usar uma espécie de “código” com a filha. A estratégia é perguntar qual é a palavra-chave durante ligações ou mensagens que pareçam ser falsas:

“Desde quando a gente começou a dar um pouco mais de liberdade, para poder pegar Uber sozinha e sair com os amigos, nós criamos nossa palavra-chave. Sempre que ela sai, ela compartilha as viagens com a gente. Se a gente percebe que está parando muito ou que mudou o percurso, já ligamos e tentamos fazer uso da palavra. Se acontecer de alguém ligar dizendo que está com ela, criamos essa palavra-chave pra garantir a segurança”, diz.
O especialista Thássius Veloso alerta que golpes com uso da inteligência artificial vão se tornar cada vez mais comuns e difíceis de identificar – como no caso da videochamada com uma pessoa clonada. Para ele, é necessário que as empresas desenvolvam programas que ajudem a proteger os usuários:

“É algo que as indústrias, as empresas de tecnologia, as fabricantes de celulares, os bancos vão ter que se movimentar pra resolver. Se a IA está sendo utilizada pro mal, também existe potencialidade de ser usada pro bem. Afinal, estamos falando de uma ferramenta — e a discussão é de como os seres humanos se apropriam dessa ferramenta, seja pra aumentar a produtividade, mandar mensagens mais eficazes ou pra enganar alguém e gerar o roteiro de um golpe”, afirma.

CBN

Postado em 30 de março de 2024