Università di Torino, l’uso illecito dell’AI durante un esame fa scattare l’allarme sicurezza

L’utilizzo dell’intelligenza artificiale durante un esame che si è tenuto presso l’università di Torino, durante l’appello dello scorso Gennaio non è stato solo un caso. Oltre all’aspetto morale della vicenda, il tutto ha destato preoccupazioni anche dal punto di vista della vulnerabilità del sistema degli esami. La sicurezza informatica, dunque, è garanzia necessaria anche per garantire il corretto e imparziale svolgimento di questi compiti.

AI In aiuto degli esaminandi

Una sessione di esami presso l’Università di Torino è divenuta un ‘caso’, dimostrando come l’utilizzo dell’intelligenza artificiale possa evidenziare una vulnerabilità. Quella che in effetti è stata una scorciatoia da parte degli studenti, ha in realtà sottolineato l’importanza, per le istituzioni, di migliorare i propri livelli di sicurezza informatica.

Altro aspetto da non sottovalutare, il fatto che l’oggetto della controversia risalisse allo scorso Gennaio. Tuttavia, se ne è avuto notizia pochi giorni fa. Le indagini, infatti, sono rimaste riservate per diversi mesi.

Come ha spiegato Torino News 24, nell’esame di merito del corso di Storytelling – attraverso la piattaforma Moodle – numerosi studenti sarebbero rimasti immobili di fronte ai loro computer. Il tutto ha ovviamente destato sospetti, sul momento, al docente controllore. Sospetti, aumentati al termine delle due ore della prova, visto che i test erano quasi identiche e senza errori.

Il campanello d’allarme

L’idea è che taluni soggetti esterni siano riusciti ad entrare nei sistemi informatici durante la prova. Questo ingresso ‘illecito’ avrebbe consentito agli attori il completamento dei compiti (questionari) al posto degli studenti presenti. Tanto che, sui 200 iscritti all’appello di gennaio, le autorità hanno identificato 67 sospetti.

L’elemento più preoccupante è che le domande oggetto dell’esame – 30 quesiti a risposta multipla – erano state caricate sulla piattaforma Moodle il giorno stesso dell’esame. L’AI, dunque, in questo caso ha rappresentato un vettore pericoloso, ponendo l’accento sul livello di criticità nelle catene del valore.

Secondo quanto ha spiegato Nicola Vanin sui suoi profili sociali le risposte da dare risiederebbero “in una strategia di cybersicurezza robusta e multi-livello“. La quale dovrebbe includere, in primo luogo, dei sistemi di autenticazione avanzati. Non solo mediante password, ma anche con il riconoscimento biometrico per l’accesso agli esami telematici.

In secondo luogo, sono fondamentali il monitoraggio in tempo reale e la crittografia end-to-end per la protezione dei dati. E insieme, Audit di sicurezza regolari.


Related Posts

Ultime news

ACN Sanità
Cyberbullismo 114
Roma Tre
NSO WhatsApp
Bassetti AI
ACN Sanità
India Pakistan
Intelligence Italiana