Evitare una truffa sta diventando sempre più difficile, anche per gli utenti più attenti. Negli ultimi tempi, il pericolo maggiore arriva direttamente dallo smartphone: i truffatori riescono a imitare la voce dei familiari delle vittime, in particolare dei figli, grazie a sofisticate tecnologie di intelligenza artificiale. Questo fenomeno prende il nome di deepfake vocale, un inganno capace di abbattere le difese di chiunque.
L’inganno che colpisce il cuore
Immaginate di ricevere una chiamata da vostra figlia, in lacrime, che vi dice di essere stata rapita. Vi chiede aiuto, supplica di pagare un riscatto. La voce è la sua, il tono è quello che conoscete bene. In quel momento, ogni istinto vi dice di agire immediatamente. Ma c’è un dettaglio agghiacciante: non è lei.
L’intelligenza artificiale ha reso possibile la creazione di voci sintetiche indistinguibili da quelle reali. Basta un semplice messaggio vocale su WhatsApp o un video pubblicato su Instagram per fornire ai truffatori il materiale necessario a replicare una voce in modo perfetto.
Truffe deepfake vocali: difficili da smascherare
Secondo Evan Dornbush, ex esperto della NSA, creare una truffa vocale è oggi veloce, economico e incredibilmente realistico. Con un breve campione audio, un modello AI può riprodurre fedelmente la voce di chiunque, rendendo questi raggiri estremamente convincenti. A differenza delle vecchie truffe telefoniche, che spesso suonavano sospette, queste appaiono autentiche. Sentire la voce di un proprio caro che implora aiuto può far crollare anche la persona più razionale.
Purtroppo, questi attacchi stanno diventando sempre più frequenti e possono colpire chiunque, indipendentemente dall’età o dall’esperienza con la tecnologia.
Come difendersi dalle truffe deepfake vocali
L’FBI ha lanciato un avviso ufficiale su questi pericoli, suggerendo una strategia semplice ma efficace: creare una parola in codice da usare solo in caso di emergenza. Questa deve essere conosciuta esclusivamente da voi e dalla persona amata e può essere un ricordo d’infanzia, il nome di un animale domestico o una frase inventata.
Tuttavia, alcuni esperti temono che, in situazioni di forte stress, la vittima possa dimenticare la parola in codice, rendendo inefficace il metodo. Per questo motivo, è importante anche fare attenzione ai dettagli della chiamata: voci metalliche, frasi ripetute e mancanza di contesto sono spesso segnali di una truffa.
La tecnologia contro i deepfake: il caso Honor
Alcuni produttori stanno già lavorando a soluzioni tecnologiche per contrastare questi raggiri. Honor, ad esempio, ha introdotto nel suo Magic 7 Pro una funzione di rilevamento automatico dei deepfake. Grazie all’intelligenza artificiale, il dispositivo è in grado di analizzare audio e video sospetti, avvisando l’utente se rileva contenuti manipolati o artificiali.
Sebbene strumenti di questo tipo rappresentino un passo avanti nella lotta alle truffe, la consapevolezza rimane la migliore difesa. Parlare con i propri cari di questi rischi è un atto di prevenzione essenziale. Meglio dedicare qualche minuto alla creazione di un codice di sicurezza, piuttosto che trovarsi un giorno a rispondere a una voce che sembra familiare ma in realtà non lo è. Tu eri a conoscenza di queste truffe deepfake con AI? Dicci la tua nei commenti.
A proposito di sicurezza, hai seguito i nostri consigli su come riconoscere e difendersi dalle truffe Phishing?
Se vuoi restare aggiornato sul mondo della tecnologia seguici sui nostri social (oltre che sul blog) e da smartphone tramite il nostro canale Telegram, oppure il nuovissimo canale Whatsapp, in modo da ricevere una notifica ogni volta che viene pubblicato un articolo, o se abbiamo qualcosa in più da comunicare. #ètempoditecnologia