O influenciador Dario Centurione, do Almanaque SOS, contou em suas redes sociais que golpistas clonaram sua voz usando inteligência artificial (IA).
Acreditando que o filho tinha enviado uma mensagem pedindo dinheiro emprestado, o pai do criador de conteúdo perdeu R$ 600 depois de fazer uma transferência via Pix.
Centurione acredita que os golpistas usaram vídeos publicados por ele na internet para criar uma espécie de banco de dados da sua voz. A partir disso foi possível usar aplicativos e ferramentas de IA para “copiar” os sons e reproduzir frases como se fossem da vítima falando.
O pai do influenciador recebeu uma ligação por telefone — golpistas também podem mandar áudio pelo WhatsApp, ele conta no vídeo.
Como é possível copiar a voz de alguém?
Especialistas ouvidos por Tilt explicam que, com o avanço tecnológico, é cada vez mais comum a gente se deparar com sistemas que usam IA para de copiar a voz de uma pessoa e os trejeitos de fala dela.
“As ferramentas mais avançadas exigem conhecimentos de programação. Assim não são acessíveis para todo mundo. No entanto, não é difícil encontrar serviços com esta finalidade na internet”, diz Rodrigo Aquino, coordenador do Curso de Engenharia de Computação da ESEG- Faculdade do Grupo Etapa.
Para fazer essa cópia, os golpistas utilizam podem usar a tecnologia do tipo deepfake, onde é possível manipular áudios e simular determinadas vozes, dificultando a distinção se aquela voz é realmente da pessoa.
Euclides Lourenço Chuma, do Instituto dos Engenheiros Elétricos e Eletrônicos (IEEE), explica que, quanto melhor a qualidade do áudio de voz e a duração dele, melhor o resultado (e maior o risco).
A inteligência artificial é usada então para aprender com esse áudio e gerar novos arquivos com a voz clonada, acrescenta ele, que também é pesquisador da Universidade de Linköping, na Suécia.
Golpe é comum nos EUA
A FTC (Federal Trade Commission), órgão dos Estados Unidos regulador do comércio, emitiu recentemente um alerta aos consumidores pedindo que as pessoas fiquem atentas a chamadas usando clones de voz gerados por inteligência artificial.
“Tudo o que [o golpista] precisa é de um pequeno clipe de áudio da voz de seu familiar – que ele pode obter do conteúdo postado online – e um programa de clonagem de voz. Quando o golpista ligar para você, ele falará exatamente como seu familiar”, alertou o órgão.
O comunicado foi divulgado após os registros de golpes do tipo crescerem nos primeiros meses deste ano no país. Apesar do comunicado, a FTC não divulgou a estimativa de quantas pessoas foram lesadas.
Como se proteger
Desconfie de mensagens com caráter de urgência. “Golpistas usam situações emergenciais, como problemas de crédito, situações com parentes, para convencer mais rápido as vítimas, explica Carlos Cabral, pesquisador da Tempest, empresa especializada em cibersegurança.
Caso o contato seja em nome de uma empresa, utilize outros canais de comunicação oficiais para validar a informação, por exemplo, os números disponíveis no site oficial da empresa.
Antes de transferir ou pagar, verifique a identidade de quem está solicitando o Pix e da pessoa de destino.
Use palavras-chave com o familiar ou faça perguntas pessoais como o nome do primeiro animal de estimação ou a cor do primeiro carro.
Se possível, faça chamada de vídeo com o familiar antes de fazer qualquer tipo de transferência em dinheiro.
Não clique em links recebidos por email, mensagens de SMS, WhatsApp.