Deepfake vocali: così l’AI permette attacchi di vishing in tempo reale

I deepfake AI vocali che si basano su voci clonate sono ormai una delle truffe cyber più diffuse e pericolose per gli utenti. Bastano dei software open-source e un computer per replicare le espressioni di un dirigente o di un Amministratore delegato, con grandissimi rischi per la condivisione delle informazioni sensibili.

Grazie ai deepfake AI telefonici e vocali chiunque può clonare la voce di un Amministratore delegato, di un responsabile o di un dirigente, parlando al cellulare in maniera fluida. Bastano un computer e dei software open-source. Così facendo, si possono esfiltrare dati e informazioni sensibili.

È questo il quadro che emerge dall’analisi “Real time AI-Supported Voice Conversion (Deepfake) and its applications on Vishing and Social Engineering exercises“. I recenti e continui progressi nella tecnologia AI rendono i pericoli dei deepfake telefonici più reali che mai. Un cyber criminale potrebbe creare cloni vocali realistici, utilizzando anche soli cinque minuti di audio registrato.

Ciò aumenta enormemente il rischio di vulnerabilità, in particolare per quelle organizzazioni criminali che sfruttano il rapporto di fiducia tra i dipendenti e i loro dirigenti. I casi sono ormai all’ordine del giorno, come hanno evidenziato diversi analisti.

Perché è difficile individuare questi attacchi cyber?

Per gli investigatori, tutelarsi da queste truffe presenta difficoltà molteplici. In primo luogo già nel verificare una voce soltanto da dispositivo mobile rende queste frodi davvero insidiose oltreché, almeno di partenza, ‘asimmetriche‘.

Per altro, la clonazione vocale AI si può impiegare in connessione con altre tecnologie cyber criminali, come ad esempio lo spoofing dei numeri di telefono. Una prospettiva, quest’ultima, che aumenta notevolmente l’efficacia della misura.

L’impersonificazione vocale tramite l’AI ha aumentato il livello di perfezionamento di alcuni attacchi di ingegneria sociale classici e consolidati (come il vishing). Addirittura, alcuni esperti hanno ribadito e rimarcato: “Le voci al telefono non valgono più nulla“.

Limiti e prossime fasi del deepfake AI

Insieme ai deepfake vocali c’è stata la diffusione di quelli video, con le medesime tecniche di replicazione e duplicazione. Rispetto a quest’ultima minaccia, tuttavia, sono emerse ulteriori difficoltà. Per esempio, nella sincronizzazione dei segnali audio e video modificati.

Tuttavia, data la velocità senza precedenti con cui questa tecnologia sta progredendo, si prevede che una soluzione deepfake in grado di simulare realisticamente sia l’audio che il video sia fattibile. Resta allora solo una questione di tempo.

Per approfondire

  • Leggi l’analisiReal time AI-Supported Voice Conversion (Deepfake) and its applications on Vishing and Social Engineering exercises” in PDF.

Related Posts

Ultime news

Ancona
Cyber Germania Israele
Mustang Panda
Polizia Intelligence