Online, l’AI sta prendendo sempre di più il posto dei moderatori. Le inefficienze di base, però, rischiano di moltiplicare le vulnerabilità cyber.
Meno moderatori e più AI sul web
In un’epoca in cui le grandi piattaforme digitali cercano di ridurre i costi e aumentare la velocità operativa, l’AI sta sostituendo costantemente i moderatori nella gestione dei contenuti online. Spesso, però, a farne le spese sono la qualità e la sicurezza cyber dei servizi.
Come ha evidenziato Bloomberg, negli ultimi mesi si sono moltiplicate le denunce sull’inefficienza dei sistemi automatici nel rilevare abusi, disinformazione politica e ingiurie sui minori. Sotto accusa è finito soprattutto TikTok ma in generale il fenomeno è ormai diffuso.
Le stesse tecnologie che dovrebbero alleviare il peso psicologico dei moderatori spesso generano errori grossolani, aumentando il carico di lavoro e alimentando la paura del licenziamento.
I limiti del servizio
I chatbot basati sull’intelligenza artificiale di oggi sono pensati di supportare gli esseri umani nelle conversazioni emotive. Ciò non significa che lo stesso tipo di tecnologia sia pronta a proteggere gli utenti di Internet da traumi e condotte lesive.
Bloomberg ha parlato con tredici moderatori e tutti, tranne uno, hanno affermato che gli strumenti forniti rendono il loro lavoro più difficile. Non sono dunque un supporto, bensì un ostacolo.
“Non possiamo fare affidamento sui suggerimenti dell’AI”, ha sottolineato Zhanerke Kadenova, lavoratrice per un’azienda di moderazione in Kazakistan che collabora con una grande azienda tecnologica. “Il più delle volte non sono pertinenti, ossia circa l’80% dei casi. Non li prendiamo nemmeno in considerazione”.
Aumentano i rischi cyber
Nonostante gli investimenti e le promesse delle aziende — tra cui Meta, Roblox, X e TikTok — i sistemi AI hanno a più riprese dimostrato tutti i loro limiti strutturali. Restano in effetti ancora incapaci di gestire con efficacia la complessità linguistica, culturale e contestuale necessaria per un’adeguata valutazione dei contenuti.
In molti casi, le decisioni automatizzate richiedono revisioni manuali o generano appelli da parte degli utenti, rallentando l’intero processo. La preoccupazione maggiore riguarda i contenuti pericolosi rivolti ai minori, che i criminali cyber riescono facilmente a far passare sotto il radar delle AI sfruttando linguaggi allusivi o modificando termini chiave.
Il crescente affidamento sull’intelligenza artificiale – alimentato anche da pressioni legislative e interessi economici – rischia di rendere le piattaforme meno sicure e più vulnerabili agli abusi.
Moderatori, esperti e attivisti hanno più volte fatto degli appelli, ribadendo che senza una componente umana significativa nella moderazione, le conseguenze saranno molto gravi e diffuse. Per tutti gli utenti ma soprattutto i più giovani. Il compromesso tra efficienza automatica e giudizio umano rimane ancora irrisolto, nonostante la complessità e la mole delle sfide in materia.

















