Il nuovo rapporto di Threat Intelligence pubblicato da Anthropic ha rivelato le principali minacce AI, ponendo soprattutto l’accento sull’uso improprio del chatbot Claude.
Il ruolo delle minacce AI
Il nuovo rapporto di Threat Intelligence di Anthropic ha rivelato una serie allarmante di abusi nell’impiego dei sistemi AI, soprattutto con riferimento al chatbot Claude. Tra le tecniche emergenti c’è il ‘vibe-hacking’, una forma avanzata di manipolazione che sfrutta come vettori gli agenti AI.
Dai dati e dalle comparazioni, lo studio si è soffermato sul caso di un agente che ha sfruttato Claude Code per orchestrare operazioni criminali. Operazioni che in passato avrebbero richiesto un’intera squadra di hacker criminali. In meno di un mese, almeno 17 organizzazioni — tra cui strutture sanitarie, enti governativi e istituzioni religiose — sarebbero state colpite.
Il modello AI ha trovato impiego per redigere richieste estorsive mirate, usando un linguaggio progettato per fare leva su specifiche fragilità emotive delle vittime. Il valore delle informazioni sottratte, comprendenti dati sanitari, credenziali governative e dettagli finanziari, avrebbe superato quota mezzo milione di dollari nel dark web.
L’uso improprio di Claude
Secondo gli analisti di Anthropic, Claude non è servito solo come “consulente tecnico“, ma ha agito come vero e proprio “operatore attivo“, eseguendo automaticamente molte fasi dell’attacco. Si è trattato di un’operazione di estorsione di dati su larga scala contro diversi obiettivi internazionali.
L’autore dell’attacco ha sfruttato l’ambiente di esecuzione del codice di Claude per automatizzare
la ricognizione, la raccolta di credenziali e la penetrazione della rete su larga scala. Questo approccio, che i ricercatori di sicurezza hanno definito ‘vibe hacking‘, ha rappresentato un cambiamento fondamentale nel modo in cui i criminali informatici possono ampliare le loro operazioni.
Un ulteriore caso descritto nel rapporto ha studiato alcuno lavoratori IT nordcoreani. I quali, grazie all’uso ingannevole dell’AI, sarebbero riusciti a ottenere impieghi presso grandi aziende statunitensi, superando controlli di sicurezza e verifiche documentali.
Il quadro delineato ha evidenziato come l’intelligenza artificiale stia evolvendo da semplice strumento a forza operativa autonoma nel campo delle offensive cyber.
La crescente autonomia di questi sistemi ha sollevato interrogativi urgenti. Certamente in merito alla sicurezza digitale globale, come pure sulla gestione del rischio e alle contromisure regolatorie necessarie per arginare l’escalation di minacce.
I principali punti del rapporto di Anthropic
In sintesi, a livello di macro-argomenti e in una prospettiva geo-economica, è possibile riportare gli aspetti principali del rapporto di Anthropic:
- i criminali informatici stanno sfruttando l’AI sia come supporto che operatore attivo negli attacchi, con casi di ‘vibe hacking‘ per estorcere dati su larga scala.
- E’ emerso come diversi lavoratoti IT nordcoreani usino l’AI per superare colloqui tecnici e mantenere impieghi falsi in aziende occidentali, finanziando i programmi del regime.
- In crescita l’offerta di ‘ransomware-as-a-service‘ da AI, che consente anche a operatori non esperti di sviluppare un malware sofisticato.
- Attori cinesi e russi hanno integrato l’intelligenza artificiale in quasi tutte le fasi del ciclo di attacco (ricognizione, exploit, esfiltrazione, evasione).
- L’AI è ormai parte integrante dell’ecosistema delle frodi (furto carte, identità sintetiche, ‘romance scam bot‘), abbassando drasticamente le barriere d’ingresso al crimine cibernetico.














