OpenAI si è tutelata dalle crescenti misure di spionaggio industriale e in particolare, dopo il caso ‘DeepSeek’, da quelle cinesi, innalzando le misure di sicurezza interna. In particolare, si sta operando per proteggere la proprietà intellettuale, mediante un accesso più selettivo alle informazioni sensibili.
Più sicurezza per OpenAI
OpenAI sta investendo sempre di più per rafforzare le misure di sicurezza interna, in risposta alle presunte minacce crescenti di spionaggio industriale. In particolare, le principali attenzioni sono rivolte alle aziende cinesi. Si è perciò avviata un’importante revisione delle proprie pratiche di sicurezza.
Come ha spiegato il Financial Times, la società con sede a San Francisco ha cominciato la ristrutturazione dei comparti di sicurezza lo scorso anno. Tuttavia, una più decisa accelerazione è avvenuta dopo che la start-up cinese di AI DeepSeek ha rilasciato il suo modello, in stretta e diretta concorrenza con OpenAI. Da qui, i sospetti dell’utilizzo di tecniche di “distillazione”.
La società californiana (che ha una valutazione di circa 300 miliardi di dollari), ha potenziato le misure per proteggere la proprietà intellettuale. E per farlo, sta costruendo un accesso più selettivo alle informazioni sensibili, una maggiore segmentazione interna e l’implementazione di sistemi fisici e digitali di protezione avanzata.
AI e difesa
Le accuse mosse contro DeepSeek non hanno finora trovato riscontri. La società cinese non ha fornito spiegazioni ufficiali ma l’episodio ha innescato negli USA un’intensificazione dei controlli.
Tra l’altro, negli scorsi giorni, OpenAI ha siglato un contratto di rilievo con il Dipartimento della Difesa statunitense. Con questo accordo si è definita la possibilità di sviluppare applicazioni avanzate di intelligenza artificiale a supporto di attività militari.
Si evidenzia perciò l’importanza che le misure rappresentino per l’intero ‘Sistema Paese’ USA, in relazione alla sinergia con l’amministrazione di Washington.
L’ordine del rafforzamento
Materialmente, il rafforzamento delle misure di sicurezza interna includerà alcune pratiche mirate, note come ‘tenting‘. Sono azioni che limitano la condivisione di dati tra gruppi di lavoro non autorizzati. Si aggiungeranno delle possibili strutture di calcolo isolate dal web e addirittura controlli biometrici per accedere a spazi critici.
Strutturando una politica di rete ‘deny-by-default‘, poi, si impedirebbero le connessioni non autorizzate a Internet, rendendo ardua ogni possibile esfiltrazione di dati.
Inoltre, OpenAI ha assunto figure chiave in ambito sicurezza. Tra queste, Dane Stuckey (ex Palantir) in qualità di Chief Information Security Officer. Oltreché il generale in pensione Paul Nakasone nel consiglio di amministrazione, a supporto della difesa contro minacce cibernetiche.
I dubbi
Come spesso accade in situazioni così delicate, non sono mancati i dubbi. In particolare di carattere ‘sociale’. Il potenziale clima ‘anti-cinese‘ ha portato ad ipotizzare la possibilità che possano sorgere dei timori su episodi di discriminazione etnica nel settore tecnologico statunitense.
L’adozione di queste misure avviene infatti in un contesto geopolitico sempre più competitivo tra Washington e Pechino sul fronte dell’AI. Tanto che gli USA hanno imposto delle restrizioni alle esportazioni tecnologiche. Il crescente clima di ostilità nei confronti delle presunte o potenziale spie industriali cinesi potrebbe infatti non trovare limiti, con effetti fin troppo evidenti.
OpenAI ha comunque affermato di voler guidare il settore anche nel campo della sicurezza, con un investimento deciso in programmi di privacy e protezione.
















