Hackers podem clonar sua voz com IA em poucos segundos para aplicar golpes
A inteligência artificial (IA) otimizou processos na vida de muita gente, mas também trouxe riscos à segurança em meio a ações de criminosos. Uma das táticas mais preocupantes da atualidade é a clonagem da voz humana para aplicar golpes.
- IA vai turbinar golpes em 2026: veja como se proteger
- 8 golpes com inteligência artificial para você ficar atento
Mais sofisticado que ataques de phishing por e-mail, o ato de replicar a voz de alguém com IA para cometer fraudes vem ganhando força no mundo do crime digital. Para ter noção do perigo, um estudo da McAfee apontou que 1 em cada 4 adultos já sofreu algum tipo de golpe de clonagem de voz por IA ou conhece alguma vítima.
Entre os desdobramentos desses casos, as perdas financeiras são bastante alarmantes e podem ganhar proporções ainda maiores ao longo dos próximos anos. Uma previsão da Deloitte Center for Financial Services, por exemplo, espera que as perdas causadas por esse tipo de fraude cheguem a US$ 40 bilhões até 2027.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Mais acessível e perigoso
Um dos motivos pelos quais a clonagem de voz em golpes tem feito sucesso entre os criminosos é a facilidade por trás da ação. Com ferramentas de IA mais acessíveis, os hackers conseguem agilizar o processo e ainda replicar a voz humana de um jeito extremamente convincente, incluindo o timbre, o sotaque e até o tom emocional em casos mais sofisticados.

Dessa forma, basta apenas alguns segundos para que a voz de alguém seja manipulada com inteligência artificial, algo que é possível com apenas três segundos de uma mensagem de voz da vítima, ou de um vídeo publicado nas redes sociais.
O objetivo dos criminosos com a clonagem de voz é tornar os golpes mais persuasivos e direcionados para garantir que ele seja bem-sucedido. Logo, os hackers simulam as vozes de familiares, amigos ou autoridades para fazer com que o alvo acredite com mais facilidade no caso apresentado, tornando o cenário mais convidativo para que a fraude obtenha êxito.
Sinais de golpe por clonagem de voz
Como qualquer tipo de fraude digital, a clonagem de voz por IA também deixa alguns sinais de alerta enquanto ela acontece. Alguns dos mais evidentes são ligações de números desconhecidos, senso de urgência, ritmo vocal estranho e pausas não naturais, e uma voz sem emoção que não parece soar humana.

Diante desse cenário, vale prestar atenção a contatos vindos de fontes desconhecidas, desconfiando de contatos que pedem dinheiro com um tom urgente. Vale também criar palavras de segurança com pessoas próximas para confirmar a identidade e limitar o acesso a suas redes sociais.
Leia a matéria no Canaltech.
O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!
Esta notícia foi originalmente publicada em:
Fonte original

