Polícia Civil alerta para golpe com telefonemas mudos usados por criminosos para clonar vozes via inteligência artificial e enganar familiares.
A Polícia Civil de São Paulo alertou sobre um novo golpe que vem se espalhando pelo país: criminosos têm utilizado ligações telefônicas de curta duração para capturar e clonar a voz de vítimas, aplicando golpes financeiros por meio de inteligência artificial.
Segundo a corporação, o golpe começa com um telefonema mudo — a chamada é encerrada poucos segundos após o atendimento, momento suficiente para que o sistema capture o timbre da voz do destinatário.
Como funciona o golpe
Com o material gravado, os criminosos utilizam ferramentas de IA capazes de reproduzir o tom e o jeito de falar da pessoa. Em seguida, entram em contato com familiares da vítima, fingindo ser ela, e fazem pedidos de dinheiro.
“Com inteligência artificial, eles clonam seu tom e jeito de falar. Depois, usam essa voz falsa para aplicar golpes, fingindo ser você e enganando até familiares”, alertou a Polícia Civil em publicação nas redes sociais.
A técnica é conhecida como deep fake, que combina sons e imagens reais para criar versões falsas e realistas. O método também vem sendo usado para acessar contas bancárias e praticar fraudes digitais.
Três segundos bastam para clonar uma voz
De acordo com especialistas, bastam três segundos de gravação para que programas de IA consigam imitar uma voz com precisão. A informação foi destacada por Daniel Barsotti, diretor de tecnologia da empresa Idwall, em entrevista à Folha de S.Paulo.
Golpistas também costumam buscar fotos, vídeos e áudios em redes sociais ou até imagens de documentos furtados, ampliando as possibilidades de falsificação.
Uma das tecnologias capazes de realizar esse tipo de clonagem foi criada pela OpenAI, empresa responsável pelo ChatGPT. Quando anunciou o recurso, em março do ano passado, a companhia afirmou que o manteria sob controle até desenvolver medidas eficazes de segurança. À época, a OpenAI informou que seriam necessários 15 segundos de gravação para reproduzir uma voz artificialmente.
Casos de estelionato batem recorde no Brasil
Segundo o Anuário Brasileiro de Segurança Pública, o país registrou 2,16 milhões de casos de estelionato em 2024, o equivalente a 247 golpes por hora.
Outra pesquisa, realizada pelo Datafolha e encomendada pelo Fórum Brasileiro de Segurança Pública, aponta que 32 milhões de brasileiros (19,1% da população com 16 anos ou mais) foram ameaçados ou chantageados por criminosos que usaram dados pessoais ou de familiares para extorquir dinheiro. O prejuízo estimado ultrapassa R$ 24,2 bilhões.
Como se proteger do golpe
A Polícia Civil recomenda não falar nada ao atender ligações de números desconhecidos. Em vez de responder com “alô” ou “sim”, a orientação é ficar em silêncio.
Se a ligação for encerrada rapidamente, o número deve ser bloqueado e denunciado. Também é importante alertar amigos e familiares sobre o golpe, para evitar que outras pessoas sejam enganadas por vozes clonadas.





0 commentarios:
Postar um comentário