O rápido desenvolvimento da inteligência artificial (IA) trouxe benefícios e riscos. Uma tendência preocupante é o uso indevido de clonagem de voz. Em segundos, golpistas podem clonar uma voz e enganar as pessoas, fazendo-as pensar que um amigo ou familiar precisa urgentemente de dinheiro.
Veículos de notícias, incluindo a CNN, alertam que esses tipos de golpes têm o potencial de impactar milhões de pessoas. Como a tecnologia facilita a invasão de nossos espaços pessoais por criminosos, ter cuidado com seu uso é mais importante do que nunca.
O que é clonagem de voz?
O surgimento da IA criou possibilidades para geração de imagens, textos, vozes e aprendizado de máquina. Embora a IA ofereça muitos benefícios, ela também fornece aos fraudadores novos métodos para explorar indivíduos em troca de dinheiro.
Você já deve ter ouvido falar de “deepfakes”, onde a IA é usada para criar imagens, vídeos e até mesmo áudio falsos, geralmente envolvendo celebridades ou políticos. A clonagem de voz, um tipo de tecnologia deepfake, cria uma réplica digital da voz de uma pessoa capturando seus padrões de fala, sotaque e respiração a partir de breves amostras de áudio.
Depois que o padrão de fala é capturado, um gerador de voz de IA pode converter a entrada de texto em uma fala altamente realista, semelhante à voz da pessoa-alvo. Com o avanço da tecnologia, a clonagem de voz pode ser realizada com apenas uma amostra de áudio de três segundos.
Enquanto uma frase simples como “alô, tem alguém aí?” pode levar a um golpe de clonagem de voz, uma conversa mais longa ajuda os golpistas a capturar mais detalhes vocais. Portanto, é melhor manter as ligações breves até ter certeza da identidade do autor da chamada.
A clonagem de voz tem aplicações valiosas em entretenimento e assistência médica – permitindo trabalho de voz remoto para artistas (mesmo postumamente) e auxiliando pessoas com deficiências de fala. No entanto, isso levanta sérias preocupações de privacidade e segurança, ressaltando a necessidade de salvaguardas.
Como está sendo explorado por criminosos
Os cibercriminosos exploram a tecnologia de clonagem de voz para se passar por celebridades, autoridades ou pessoas comuns para fins fraudulentos. Eles criam urgência, ganham a confiança da vítima e solicitam dinheiro por meio de vales-presente, transferências eletrônicas ou criptomoedas.
O processo começa com a coleta de amostras de áudio de fontes como YouTube e TikTok. Em seguida, a tecnologia analisa o áudio para gerar novas gravações. Depois que a voz é clonada, ela pode ser usada em comunicações enganosas, muitas vezes acompanhadas de falsificação de identificação de chamadas para parecer confiável.
Muitos casos de golpes de clonagem de voz chegaram às manchetes. Por exemplo, criminosos clonaram a voz de um diretor de empresa nos Emirados Árabes Unidos para orquestrar um assalto de A$ 51 milhões.
Um empresário em Mumbai foi vítima de um golpe de clonagem de voz envolvendo uma chamada falsa da Embaixada da Índia em Dubai. Na Austrália, recentemente, golpistas empregaram um clone de voz do primeiro-ministro de Queensland, Steven Miles, para tentar enganar as pessoas a investir em Bitcoin.
Adolescentes e crianças também são alvos. Em um golpe de sequestro nos Estados Unidos, a voz de uma adolescente foi clonada e seus pais manipulados para obedecer às exigências.
Quão difundido é?
Pesquisas recentes mostram que 28% dos adultos no Reino Unido enfrentaram golpes de clonagem de voz no ano passado, com 46% desconhecendo a existência desse tipo de golpe. Isso destaca uma lacuna significativa de conhecimento, deixando milhões de pessoas em risco de fraude.
Em 2022, quase 240.000 australianos relataram ter sido vítimas de golpes de clonagem de voz, resultando em uma perda financeira de A$ 568 milhões.
Como as pessoas e as organizações podem se proteger contra isso
Os riscos colocados pela clonagem de voz exigem uma resposta multidisciplinar. Pessoas e organizações podem implementar diversas medidas para se proteger contra o uso indevido da tecnologia de clonagem de voz.
Primeiro, campanhas de conscientização e educação pública podem ajudar a proteger pessoas e organizações e mitigar esses tipos de fraude. A colaboração público-privada pode fornecer informações claras e opções de consentimento para clonagem de voz.
Segundo, pessoas e organizações devem procurar usar segurança biométrica com detecção de vivacidade, que é uma nova tecnologia que pode reconhecer e verificar uma voz viva em vez de uma falsa. E organizações que usam reconhecimento de voz devem considerar adotar autenticação multifator.
Terceiro, melhorar a capacidade investigativa contra a clonagem de voz é outra medida crucial para a aplicação da lei. Por fim, são necessárias regulamentações precisas e atualizadas para os países gerenciarem os riscos associados.
A polícia australiana reconhece os benefícios potenciais da IA. No entanto, as preocupações sobre o “lado negro” desta tecnologia levaram a apelos à investigação sobre o uso criminoso da “inteligência artificial para segmentação de vítimas”.
Também há apelos por possíveis estratégias de intervenção que as autoridades policiais poderiam usar para combater esse problema. Tais esforços devem estar conectados ao Plano Nacional de Combate ao Crime Cibernético, que se concentra em estratégias proativas, reativas e restaurativas.
Esse plano nacional estipula um dever de cuidado para os prestadores de serviços, refletido na nova legislação do governo australiano para proteger o público e as pequenas empresas. A legislação visa novas obrigações para prevenir, detectar, denunciar e interromper golpes.
Isso se aplicará a organizações regulamentadas, como empresas de telecomunicações, bancos e provedores de plataformas digitais. O objetivo é proteger os clientes prevenindo, detectando, relatando e interrompendo golpes cibernéticos envolvendo fraudes.
Reduzindo o risco
Como o crime cibernético custa à economia australiana cerca de A$ 42 bilhões, a conscientização pública e salvaguardas fortes são essenciais. Países como a Austrália estão reconhecendo o risco crescente. A eficácia das medidas contra clonagem de voz e outras fraudes depende de sua adaptabilidade, custo, viabilidade e conformidade regulatória.
Todas as partes interessadas — governo, cidadãos e autoridades policiais — devem permanecer vigilantes e conscientizar o público para reduzir o risco de vitimização.
Leo SF Lin, Professor Sênior em Estudos Policiais, Charles Sturt University; Duane Aslett, Professor Sênior em Estudos Policiais, Charles Sturt University; Geberew Tulu Mekonnen, Professor, Escola de Estudos Policiais, Charles Sturt University, e Mladen Zecevic, Professor na Escola de Estudos Policiais, Charles Sturt University.
Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original.