“L’uso dell’automazione basata sull’AI negli attacchi hacker“, ha sottolineato il Washington Post, “è una tendenza in crescita che offre agli hacker maggiore portata e velocità“.
In Cina, un gruppo di hacker criminali filo-governativo ha impiegato il modello Claude AI, sviluppato da Anthropic, per organizzare attacchi cyber automatici contro aziende e Governi stranieri. L’ha riportato il Washington Post, aggiungendo che l’incidente cyber è avvenuto nel settembre scorso, mostrando “un livello di automazione senza precedenti“.
In effetti, la gestione di circa il 90% delle operazioni sarebbe avvenuta autonomamente, proprio da parte dell’AI. L’intervento dell’uomo si è limitato alle decisioni critiche come l’approvazione o la valutazione dei risultati generati.
Per aggirare i sistemi di sicurezza, i cybercriminali hanno ingannato il modello dichiarando falsamente di operare come auditor per conto delle organizzazioni obiettivo.
Qual è il livello di innovazione?
Questo metodo di “jailbreaking” ha consentito al modello di eseguire estrazioni di informazioni su database interni, raccogliere dati e orchestrare ogni fase dell’attacco. Dalla scansione delle vulnerabilità, fino all’esfiltrazione delle informazioni.
In almeno quattro casi, ha spiegato il quotidiano, le intrusioni sono andate a segno. Anthropic, tuttavia, ha successivamente bloccato gli account e interrotto le operazioni. Il fenomeno ha evidenziato una nuova era nella criminalità informatica, dove strumenti LLM vengono impiegati per incrementare velocità, portata e precisione delle operazioni malevole.
Simili episodi sono stati recentemente osservati anche con attori sponsorizzati dal Governo russo, suggerendo una crescente corsa agli armamenti nell’uso dell’AI per scopi offensivi. Anthropic, che ha riconosciuto l’attacco e preso contromisure per rafforzare i sistemi anti-abuso, ha sottolineato a più riprese l’urgenza di sviluppare strumenti difensivi avanzati.
La società insiste sulla necessità di costruire capacità che avvantaggino i difensori più che gli aggressori, per non cedere un vantaggio strutturale duraturo a chi impiega l’AI per fini ostili.
Il ruolo delle minacce AI
Due mesi fa, in un rapporto di Threat Intelligence, Anthropic aveva per altro rivelato una serie allarmante di abusi nell’impiego dei sistemi AI, proprio con riferimento al chatbot Claude.
Tra le tecniche emergenti si è affermato il “vibe-hacking“, una forma avanzata di manipolazione che sfrutta come vettori gli agenti di intelligenza artificiale. Secondo gli analisti di Anthropic, Claude non serviva solo come “consulente tecnico“, ma come vero e proprio “operatore attivo“, eseguendo automaticamente molte fasi di un attacco.
Il quadro delineato ha evidenziato come l’intelligenza artificiale stia evolvendo da semplice strumento a forza operativa autonoma nel campo delle offensive cyber.
La crescente autonomia di questi sistemi ha sollevato interrogativi urgenti. Certamente in merito alla sicurezza digitale globale, come pure sulla gestione del rischio e alle contromisure regolatorie necessarie per arginare l’escalation di minacce.















