Uso malevolo dell’intelligenza artificiale, 4 tipi di cyberattacchi in grado di manipolarla

Tra le nuove preoccupazioni in materia di cybersecurity c’è l’impiego di attacchi informatici basati sull’AI. Quali sono le principali tipologie di attacco che manipolano l’intelligenza artificiale (e che tipo di danni causano).

Il crimine informatico si sta evolvendo in modo esponenziale, tra tecniche sofisticate e truffe sempre più complesse da contrastare. Anche a causa dell’uso malevolo dell’intelligenza artificiale (a questo proposito, è bene ricordare i 4 tipi di cyberattacchi che possono manipolare l’AI per causare incidenti di auto e rubare dati).

Il report di Cybersecurity Ventures stima che, a livello globale, il costo dei cyberattacchi nel 2025 supererà i dieci trilioni di dollari. Ogni anno le persone perdono 318 miliardi di dollari a causa dei criminal hacker, mentre l’impatto medio economico di una violazione dei dati per le Pmi può spaziare da 120mila a 1,24 milioni di dollari (sul tema degli strumenti per migliorare la cyber posture delle Pmi si è espressa Martina Colasante, Government affairs and public policy manager di Google Italia, intervistata da Cybersecurity Italia).

Più attacchi informatici con l’intelligenza artificiale

Con l’avanzare della tecnologia AI, gli aggressori stanno sperimentando nuovi modelli e tecniche di cyberattacco. Come illustra il MIT Technology Review, periodico bimestrale del Massachusetts Institute of Technology, gli attacchi informatici basati sull’intelligenza artificiale, ad oggi, possono essere suddivisi in alcune tipologie principali:

  • Phishing: nel mondo c’è stato un incremento di quasi il 60% di questo tipo di attacchi alimentato in parte dalla diffusione di schemi generativi guidati dall’intelligenza artificiale, come il phishing vocale (vishing) e il deepfake phishing. Nel 2021, spiega Medium, un team della Government Technology Agency del governo di Singapore ha diffuso i risultati di un test in cui aveva inviato 200 email di phishing, talune create dai componenti dell’agenzia, altre generate da una piattaforma AI as a Service (AIaaS). Ebbene, il team di ricerca ha rilevato che un numero più elevato di persone ha cliccato sui collegamenti nei messaggi generati dall’intelligenza artificiale rispetto a quelli scritti dall’uomo;
  • Deepfake: in gran parte creati dall’AI generativa, i deepfake stanno diventando sempre più conosciuti e temuti. Come nel caso della tecnica di Deep learning “voice cloning”. Un esempio tangibile sono state le elezioni in Slovacchia del 2023: circa 48 ore prima dell’apertura delle urne – spiega Sky News – è stata pubblicata una registrazione audio in cui venivano replicate le voci di Michal Šimečka, leader del partito liberale Progressista Slovacchia, e Monika Tódová, cronista del quotidiano nazionale “Denník N”. A più ampio raggio, tra i casi più recenti di deepfake, c’è quello del dipendente di Arup che ha trasferito 26 milioni di dollari a cybercriminali dopo una videocall generata con l’AI;
  • Documenti falsi creati con l’AI: dove non “arriva” la tecnologia deepfake, ci sono sempre servizi come OnlyFake, piattaforma che ammette di sfruttare le reti neurali e l’intelligenza artificiale per creare false identità (dalle patenti di guida ai passaporti alle carte d’identità) in modo convincente e veloce. Disponibile in vari paesi, il suo funzionamento è stato approfondito dal team di giornalisti di 404 Media. In particolare, i cronisti hanno scoperto che il servizio è stato utilizzato con successo per bypassare i controlli KYC (Know Your Customer) su vari scambi di criptovaluta. Il portale, infatti, accetta anche saldi in criptovalute, mediante il servizio di pagamenti commerciali di Coinbase;
  • Jailbreak a ripetizione: in uno studio condotto dal laboratorio di intelligenza artificiale Anthropic, il team di ricerca ha descritto un attacco tanto semplice quanto impattante: il “jailbreak a ripetizione”. Il jailbreak di un Large Language Model (LLM) rappresenta un attacco informatico che induce un modello di linguaggio basato sull’AI a violare le proprie policy di sicurezza interne e a produrre output che sarebbero stati altrimenti censurati (oppure circoscritti). Da parte sua, il cybercriminale potrebbe architettare una serie di instradamenti di dialogo all’apparenza inoffensivi, ma rivolti in maniera tale da indurre il modello a navigare progressivamente lontano dalle sue “misure di sicurezza”.

Predire se l’AI potrà rivelarsi malevola

Giunti a questo punto, l’interrogativo è tutt’altro che banale: sussiste la possibilità di predire se l’AI si rivelerà “nociva”. Sì, secondo un team di ricerca della Washington University. Ed è un’opportunità più vicino di quanto si creda. Gli autori del lavoro pubblicato sulla rivista Pnas Nexus (titolo del contributo: “Controlling bad-actor-artificial intelligence activity at scale across online battlefields”) credono infatti che i cyberattori malevoli ricorreranno sempre di più all’AI per “veicolare di continuo contenuti tossici” all’interno delle comunità”.

In che modo? “Utilizzando le prime iterazioni degli strumenti di intelligenza artificiale – illustra ancora la ricerca – poiché tali programmi hanno meno filtri progettati per scongiurare l’utilizzo da parte di malintenzionati e sono programmi disponibili gratuitamente, che ben si adattano anche a computer portatili”.

Related Posts

Ultime news

cybersicurezza