As chamadas conhecidas como “ligações mudas”, que antes serviam apenas para verificar se um número estava ativo, agora são vistas como uma nova e perigosa forma de golpe. Segundo especialistas em cibersegurança, criminosos estão usando inteligência artificial para clonar vozes e enganar vítimas em golpes financeiros.
De acordo com a Polícia Civil de São Paulo, softwares de deepfake capturam o som da voz de quem atende o telefone, mesmo que a pessoa diga apenas um simples “alô”. A partir dessa gravação, os golpistas conseguem reproduzir o tom e a forma de falar da vítima, utilizando o áudio falso para ligar para familiares e amigos e pedir transferências bancárias.
O presidente do Instituto Brasileiro de Resposta a Incidentes Cibernéticos, Hiago Kin Levi, explicou que a popularização da inteligência artificial permitiu que até criminosos com pouco conhecimento técnico consigam simular vozes com precisão. O pesquisador da Kaspersky, Anderson Leite, reforçou o alerta: “Com apenas alguns segundos de gravação de áudio, já é possível gerar uma cópia convincente da voz de uma pessoa e utilizá-la em golpes de engenharia social”.
Como se proteger dos golpes
Para evitar cair nesse tipo de fraude, especialistas recomendam configurar o celular para aceitar ligações apenas de números conhecidos — recurso disponível em aparelhos Android e iPhone. Outra dica é não responder de imediato a chamadas silenciosas: a Polícia Civil orienta a permanecer em silêncio até que o outro lado se pronuncie.
Caso receba uma ligação suspeita, não forneça dados pessoais, bloqueie o número e registre um boletim de ocorrência. Além disso, é fundamental evitar publicar áudios e vídeos pessoais nas redes sociais, já que esses conteúdos também podem ser usados para treinar ferramentas de clonagem de voz.
Fonte: portal msn