OpenAI: ban ad account ChatGPT legati a gruppi malevoli cinesi e russi

OpenAI ha annunciato il ban per alcuni profili ChatGPT connessi a dei gruppi di attivisti telematici operanti in Cina e Russia. Fondamentale, nella deliberazione e nell’implementazione di questa operazione, l’apporto malevolo che questi soggetti avrebbero dato nella condivisione di informazioni.

I ban di OpenAI

OpenAI ha rivelato di aver deliberato e implementato un ban verso una serie di account ChatGPT le cui ‘basi’ sarebbero state in Cina e Russia. Si è così scelto di colpire dei profili sfruttati da “attori malevoli di lingua russa e da due gruppi di hacker di stato nazionali cinesi“.

Costoro avrebbero attivamente operato per lo sviluppo di malware, nell’automazione di profili sociali mediatici e nella ricerca sulle tecnologie di comunicazione satellitare degli USA. Questi attori hanno messo a sistema dei modelli OpenAI, con tecniche dell’ingegneria del software. Oltre alle ‘minacce’ cinesi e russe, un’attenzione particolare è arrivata nei confronti della Nord Corea.

SUW 2025

In quest’ultimo caso – e rimanendo comunque nel campo delle prime ipotesi – sono stati trovati dei tratti comuni con comportamenti coerenti ad attività già attribuite a schemi IT nordcoreani. Le difficoltà saranno allora ricostruire tutta la catena delle operazioni di merito, a partire dai comandi.

L’impegno nel comparto della cybersicurezza

Da anni OpenAI si è impegnata attivamente nel rafforzamento della sicurezza cibernetica. L’AI, infatti, costituisce un supporto nevralgico per eventuali crimini informatici.

Tanto che la prima operazione diretta di OpenAI nel settore della cybersicurezza era stata la messa a sistema di un investimento congiunto da 43 milioni di dollari, insieme al fondo Andreessen Horowitz.

Le risorse erano andate alla startup newyorkese Adaptive Security. Fondata nel 2023, negli anni quest’ultima ha saputo ritagliarsi un ruolo innovativo nella difesa contro un particolare tipo di minacce. Ossia, quelle cibernetiche generate dall’AI.

Il commento di OpenAI

In relazione agli ultimi ban, OpenAI ha ribadito il proprio impegno nell’impiego dell’AI e di come questa dovrebbe essere sfruttata. L’impiego dell’intelligenza artificiale dovrebbe infatti servire “per costruire strumenti che aiutino le persone a risolvere problemi davvero difficili“.

In merito la società ha dichiarato: “In linea con quanto abbiamo spiegato a marzo all’Office of Science and Technology Policy’s U.S. AI Action Plan, crediamo che ci debbano essere garanzie sull’AI. E’ così che si avranno benefici per il maggior numero possibile di persone. Significherebbe abilitare l’AI attraverso regole di buon senso volte a proteggere le persone da danni reali e a costruire un’AI democratica“.

E ha spiegato: “Questo tema ha incluso la prevenzione dell’uso di strumenti di intelligenza artificiale da parte di regimi autoritari per accumulare potere e controllare i propri cittadini“.

Non solo. Tali vettori possono servire per minacciare altri Stati. Oppure, per condurre delle attività come le operazioni di influenza segrete (IO), lo sfruttamento dei minori, le truffe, lo spam e le attività informatiche dannose. E insieme, si è affermato lo sfruttamento dell’AI per sviluppare nuovi strumenti all’avanguardia per coloro che si difendono da questi abusi.

Da qui, OpenAI ha aggiunto: “Utilizzando l’AI come moltiplicatore di forza per i nostri gruppi investigativi esperti, nei tre mesi trascorsi dal nostro ultimo rapporto abbiamo lavorato in maniera precisa. Abbiamo così individuato, smascherato e ridotto varie attività abusive. Tra queste, l’ingegneria sociale, lo spionaggio informatico, gli schemi di impiego ingannevoli, le operazioni di influenza occulta e le truffe“.

Related Posts

Ultime news

AI Cyber
Satelliti LEO
Australia Qantas
Banca Italia Incidenti
Cybersolvo
NATO Nuova Cyber
ASI Economia Spaziale
Cavi 2040