Editoriali

L'intelligenza può "rubarti" la voce: allarme truffe e deepfake

di Yuleisy Cruz Lezcano

Nel pieno della diffusione dell’intelligenza artificiale, le truffe telefoniche stanno assumendo forme sempre più sofisticate e insidiose. Non si tratta più soltanto di email ingannevoli o messaggi sospetti: oggi anche una semplice parola pronunciata durante una chiamata può trasformarsi in uno strumento di frode. Le autorità di sicurezza informatica, dalla Polizia Postale italiana a Europol, mettono in guardia su un fenomeno in rapida crescita che sfrutta la clonazione della voce e dell’immagine per rubare identità, autorizzare operazioni fraudolente e ingannare vittime inconsapevoli.

La voce è un dato biometrico unico, personale, paragonabile a un’impronta digitale. Grazie ai più recenti sistemi di intelligenza artificiale generativa, bastano pochi secondi di registrazione per riprodurre in modo realistico tono, accento ed emozioni di una persona. Secondo gli esperti di cybersecurity, questo consente ai criminali digitali di creare deepfake vocali capaci di superare controlli di sicurezza, convincere familiari e colleghi o addirittura aggirare sistemi di riconoscimento vocale utilizzati da banche e servizi finanziari.

Uno dei rischi più sottovalutati riguarda l’uso di risposte affermative come “sì”. Questo termine, se registrato, può essere manipolato e inserito artificialmente in conversazioni o contratti simulati per far apparire una falsa autorizzazione. È il cosiddetto “fraude del sì”, già segnalato da diverse autorità per la tutela dei consumatori. Anche saluti apparentemente innocui come “pronto” o “ciao” possono essere utilizzati da sistemi automatici per verificare che un numero sia attivo e che la voce appartenga a una persona reale, rendendo il contatto più appetibile per futuri tentativi di truffa.

La clonazione vocale viene spesso combinata con immagini e video falsificati, i cosiddetti deepfake, che rendono la truffa ancora più credibile. Fingendosi un parente, un dirigente d’azienda o un operatore bancario, i criminali possono chiedere trasferimenti urgenti di denaro, dati personali o codici di accesso. In alcuni casi, come segnalato da organismi di vigilanza finanziaria, vengono simulate vere e proprie conversazioni per validare operazioni o documenti che sembrano autentici, ma che in realtà sono costruiti artificialmente.
Per ridurre il rischio di cadere in queste trappole, le istituzioni raccomandano un atteggiamento prudente e vigile. È fondamentale verificare sempre l’identità di chi chiama prima di fornire qualsiasi risposta o informazione e diffidare di sondaggi, registrazioni automatiche o richieste improvvise. Controllare regolarmente i movimenti bancari, segnalare tempestivamente anomalie e bloccare numeri sospetti sono azioni decisive per limitare i danni. Soprattutto, non bisogna mai comunicare per telefono dati personali, password o numeri di documenti, anche quando la richiesta sembra provenire da una fonte affidabile o urgente.

In un’epoca in cui la tecnologia corre più veloce della consapevolezza collettiva, la nostra voce e la nostra immagine sono diventate beni vulnerabili. Proteggerle significa adottare una sana diffidenza e comprendere che, davanti a una chiamata inattesa, il silenzio o una risposta cauta possono essere la migliore difesa. A volte, non pronunciare nemmeno una parola è il modo più efficace per impedire che venga usata contro di noi.

Uno dei casi più clamorosi avvenuti in Italia tra il 2024 e il 2025 riguarda proprio l’uso dell’intelligenza artificiale per clonare la voce di una figura istituzionale e convincere persone a effettuare versamenti di denaro sotto false pretese. Nel febbraio 2025 truffatori hanno utilizzato una voce generata artificialmente che imitava quella del Ministro della Difesa italiano, Guido Crosetto, per contattare a telefono imprenditori e dirigenti d’azienda di alto profilo, tra cui Massimo Moratti, ex proprietario dell’Inter, e altri leader nel mondo della moda e dell’industria. I criminali, sfruttando strumenti di voice-cloning basati su tecnologie IA, hanno sostenuto di raccogliere fondi per la liberazione di giornalisti italiani presunti ostaggi nel Medio Oriente, sfruttando un fatto di cronaca che aveva attirato l’attenzione pubblica all’epoca. Questa narrazione è stata resa credibile anche grazie allo spoofing dei numeri telefonici, cioè facendo apparire le chiamate come provenienti da uffici governativi reali. Almeno un imprenditore è stato convinto a trasferire quasi un milione di euro a conti bancari esteri prima che le autorità rintracciassero e congelassero i fondi, mentre altri destinatari della truffa non hanno effettuato il pagamento solo grazie alla prudenza o alla tempestiva segnalazione alle forze dell’ordine.

La Polizia Postale italiana, insieme ad altri organismi di sicurezza e alle autorità giudiziarie, ha aperto indagini su questo episodio e ha ribadito l’esigenza di adottare misure di cautela forti contro truffe con deepfake vocali e audio generati dall’IA. In comunicati e interventi pubblici gli esperti della Postale hanno sottolineato che non esistono strumenti tecnologici in grado di garantire una difesa assoluta contro frodi di questo tipo e che la prima barriera di protezione resta la consapevolezza di chi risponde alle chiamate: verificare sempre l’identità del chiamante, non fidarsi di numeri apparentemente istituzionali, non fornire dati personali o autorizzazioni sensibili per telefono e segnalare immediatamente alle autorità qualsiasi sospetto di raggiro sono tutte indicazioni chiave fornite da fonti ufficiali.

Questo caso italiano mette in evidenza quanto sia reale e insidioso il pericolo rappresentato dalle tecnologie di intelligenza artificiale quando vengono impiegate per scopi criminali: bastano pochi secondi di voce o di immagine per creare contenuti artificiali sufficientemente credibili da ingannare anche persone esperte, e le conseguenze economiche e umane possono essere rilevanti se non si presta la massima attenzione.

La lezione che arriva dalle forze dell’ordine è chiara: non dare mai nulla per scontato al telefono, specialmente quando ti viene chiesto di compiere azioni finanziarie o di fornire informazioni sensibili, e ricordare che la tecnologia può simulare perfettamente una voce reale, ma non può sostituire verifiche di identità autentiche e confermate attraverso canali ufficiali.

Ultimo aggiornamento: 14/02/2026 18:26