Lo scorso anno, il 62% delle aziende ha subìto attacchi alimentati da AI nel corso dell’ultimo anno, con un’incidenza significativa dei deepfake audio e video.
Minaccia per lle aziende
Nel 2024, il 62% delle aziende ha subìto attacchi cyber AI, con un’incidenza significativa dei deepfake audio e video. Lo ha rivelato uno studio di Sophos, che ha studiato nel dettaglio le varie minacce.
Il vettore d’attacco più comune è rappresentato dalle chiamate vocali contraffatte, che hanno coinvolto il 44% delle imprese. In alcuni casi questi fenomeni possono causare delle interruzioni operative, perdite finanziarie e danni alla proprietà intellettuale.
Ad ogni modo, l’uso di strumenti di analisi vocale ha dimostrato di ridurre sensibilmente il tasso di perdita, abbassandolo dal 6% al 2%. Le truffe basate su deepfake video, seppur meno diffuse (36%), non sono da sottovalutare, visto che il 5% delle aziende colpite ha subìto danni gravi.
Gli alti livelli di sofisticazione
Gli esperti che hanno redatto l’analisi segnalano che le tecniche di manipolazione audio sono ormai così sofisticate da poter essere eseguite in tempo reale, rendendo possibile l’inganno anche di colleghi interni.
Tra i casi più noti si è segnalato l’uso di un video manipolato di un Amministratore delegato per avviare una conversazione, seguito da un rapido passaggio a messaggi testuali per portare avanti l’inganno.
In crescita invece il fenomeno del prompt-injection, in cui comandi malevoli vengono inseriti in contenuti che un sistema AI deve processare, inducendo il modello a comportamenti devianti o pericolosi. Questi attacchi, già riscontrati in modelli come Claude, Gemini e ChatGPT, possono compromettere sistemi integrati, come email, domotica o CAPTCHA.
Il valore della vulnerabilità
I dati di Gartner hanno confermato una tendenza quantomai preoccupante. In un campione di studio sulle aziende, il 32% di loro ha spiegato di essersi dovuta confrontare con almeno un attacco di questo tipo. L’incremento e la varietà delle minacce suggeriscono che la sicurezza AI deve diventare una priorità strategica.
Esempi recenti illustrano queste vulnerabilità. Alcuni ricercatori hanno dimostrato che il chatbot Gemini di Google si può impiegare per prendere di mira l’e-mail e i sistemi di domotica di un utente.
Anche il modello linguistico Claude di Anthropic ha riscontrato problemi con l’iniezione di prompt. In altre ricerche, ChatGPT è stato ingannato con successo per risolvere i CAPTCHA, progettati per distinguere gli utenti umani da quelli automatici. E inoltre, per generare traffico che potrebbe essere utilizzato per attacchi di tipo denial-of-service contro i siti web.















