AI Safety Summit: “I cyberattacchi tra i rischi maggiori dell’IA”

Cosa è emerso dal Summit a Bletchley Park, vicino Londra, dal punto di vista della cybersecurity, “settore con i maggiori rischi dell’IA”. Uk e Usa annunciano la nascita dei rispettivi “AI Safety Institute” per “creare standard rigorosi utili a testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico”.

“Siamo particolarmente preoccupati dei rischi dell’intelligenza artificiale general-purpose’ nel settore della cybersecurity”. Questo è uno dei principali rischi messi in evidenza nella “dichiarazione di Bletchley” per lo sviluppo “sicuro” dell’intelligenza artificiale, firmata dall’Ue e da 28 Paesi (compresi USA e Cina) rappresentati al vertice AI Safety Summit, che si è svolto a Bletchley Park, vicino Londra, nei giorni 1 e 2 novembre, su iniziativa del governo britannico.

La biotecnologia nonché l’informazione sono gli altri settori maggiormente impattati dagli effetti negativi dell’IA di “frontiera”, sempre secondo i firmatari della dichiarazione.

Harris (Vicepresidente Usa): “Danni profondi dall’IA che abilita cyber-attacchi”

Ma è stata la vicepresidente degli Stati Uniti, Kamala Harris, alla vigilia del Summit in Uk, a cui ha partecipato al posto di Joe Biden, ha evidenziare i gravi danni che l’IA può causare nei cyberattacchi.

“L’IA ha il potenziale di offrire vantaggi, ma anche il potenziale di causare un danno profondo”, ha detto Harris, facendo esempi concreti. “Dai cyber attacchi abilitati dall’IA su una scala che va oltre qualsiasi cosa abbiamo visto prima alle armi biologiche realizzate dall’IA, che potrebbero mettere in pericolo la vita di milioni di persone, queste minacce sono spesso indicate come le ‘minacce esistenziali dell’IA’ perché, naturalmente, potrebbero mettere in pericolo l’esistenza stessa dell’umanità”, ha messo in guardia la numero 2 della Casa Bianca.

A cosa servirà l'”AI Safety Institute” degli Stati Uniti?

Poi Harris nel suo intervento al Summit ha ricordato l’impegno dell’amministrazione Biden per avere un’Intelligenza Artificiale “sicura e responsabile”, che “crei opportunità, promuova l’equità e protegga i diritti e le libertà fondamentali”. Oltre all’ordine esecutivo, il vicepresidente Usa ha annunciato la nascita “AI Safety Institute” degli Stati Uniti: “l’Istituto”, ha spiegato, “creerà standard rigorosi per testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico”.

AI Safety Institute degli Stati Uniti nasce a seguito di una delle iniziative lanciate dal governo britannico durante il Summit a Bletchley Park. Infatti, il primo AI Safety Institute è quello Regno Unito, uno strumento pensato per testate i nuovi modelli di IA, un mezzo per costruire la capacità del settore pubblico di condurre test di sicurezza e di ricercare la sicurezza dell’Intelligenza Artificiale. Gina Raimondo, a capo del Dipartimento del Commercio degli Stati Uniti, sempre durante il Summit ha spiegato che AI Safety Institute sarà presso il dipartimento da lei guidato e “sarà un consorzio formato anche da rappresentanti delle Università e dei privati”.

Per concludere la visione degli Usa sull’”AI safety”, Kamala Harris ha anche annunciato l’adesione di 30 Paesi all’impegno portato avanti dagli Stati Uniti per un uso responsabile dell’intelligenza artificiale nel settore militare. 

Ma cosa si intende per “safety”? 

Nella lingua inglese vi sono due parole diverse per esprimere il concetto italiano ampio di “sicurezza”: Safety e Security. 

Stefano Rossa, nella monografia “Cybersicurezza e Pubblica Amministrazione”, pubblicata da Editoriale Scientifica, spiega: “In inglese per Safety si intende «the state of being safe and protected from danger or harm»’, mentre per Security «the activities involved in protecting a country, building or person against attack, danger, etc.”.

Pertanto”, conclude l’autore della monografia, “nella lingua italiana il concetto di Security corrisponde all’elemento organizzativo volto a proteggere un soggetto o un oggetto, onde permettere a esso di risultare in una posizione di incolumità, termine che invece coincide con Safety: pertanto, Safety è il risultato mentre Security è il mezzo organizzativo per giungere a esso”.

Questo aspetto è fondamentale da tenere in considerazione per capire il concetto dell’AI satefy.

Meloni: “IA tema chiave del G7 in Italia il prossimo anno

Il cui tema sarà tra quelli chiave al prossimo G7, che si terrà in Italia l’anno prossimo, ha ribadito Giorgia Meloni, unico capo di Governo estero ad essere presente AI Safety Summit: “Intelligenza artificiale sarà uno dei temi al centro della Presidenza italiana del G7 del prossimo anno”.

Direttore responsabile, Giornalista

Related Posts

Ultime news