Gemini, l’AI di Google, è sempre più un vettori per i cyber criminali, in particolare per alcuni gruppi direttamente supportati dagli Stati. Il rapporto.
Gli analisti di Google hanno pubblicato un nuovo rapporto, con le prove dell’impiego da parte di gruppi di hacker criminali, supportati dagli Stati, della piattaforma AI Gemini. Prove in tal senso si riscontrano in tutte le fasi del ciclo degli attacchi informatici.
Nell’ultimo trimestre del 2025, il Google Threat Intelligence Group (GTIG) ha osservato che gli autori delle minacce integrano sempre più spesso l’AI per accelerare il ciclo di vita degli attacchi. Il risultato è stato “l’aumento di produttività nella ricognizione, nell’ingegneria sociale e nello sviluppo di malware“.
Lo studio ha inoltre rivelato che i modelli AI all’avanguardia possono aumentare la velocità, la portata e la sofisticazione di una miriade di attività illecite. Di tutto questo, stanno approfittando proprio i gruppi di “hacker criminali sponsorizzati dagli Stati“.
Esempi di studio
In quasi tutti i casi di studio, secondo il rapporto di Google, gli attori hanno utilizzato Gemini come uno strumento al pari di altri. Tuttavia, hanno impiegato la piattaforma AI per scopi specifici come:
- automazione di processi di routine.
- Conduzione di ricerche o attività di ricognizione.
- Sperimentazione di malware.
Un gruppo affiliato alla Corea del Nord, per esempio, lo ha utilizzato per sintetizzare informazioni di intelligence open source sui ruoli lavorativi e i livelli salariali di aziende di cybersicurezza e Difesa.
Un altro gruppo nordcoreano lo ha consultato “più giorni alla settimana” per supporto tecnico. Così lo ha impiegato per risolvere problemi e generare nuovo codice malware quando incontrava difficoltà durante un’operazione.
Un gruppo APT iraniano avrebbe usato Gemini per “potenziare significativamente le tecniche di ricognizione” contro alcuni soggetti. “Cina, Russia, Iran e Corea del Nord hanno inoltre utilizzato Gemini per creare articoli falsi, identità fittizie e altre risorse destinate alle operazioni di informazione“.
L’analisi dei livelli di rischio
Google ha poi sottolineato: “Non risultano casi in cui gruppi statali abbiano utilizzato Gemini per automatizzare ampie porzioni di un attacco informatico. Al contrario, per esempio, di quello che è avvenuto in una campagna sostenuta dal Governo cinese e identificata lo scorso anno da Anthropic“.
Questo suggerisce che i soggetti operativi potrebbero avere ancora difficoltà nell’implementare attacchi informatici completamente o prevalentemente automatizzati tramite l’intelligenza artificiale. Dunque, la componente “umana” risulta ancora essere prevalente, almeno nelle fasi operative.
Per approfondire
- Leggi il rapporto “GTIG AI Threat Tracker: Distillation, Experimentation, and (Continued) Integration of AI for Adversarial Use“.

















