Vedere non basta più: quando con l’AI si falsifica la realtà. Il caso Lotito

La tecnologia può mentire, poi sta a noi scegliere se essere complici del falso o in qualche modo ricercare e accertare la verità.

La vicenda in questione presenta delle caratteristiche ormai tristemente note: il coinvolgimento di un personaggio famoso, l’ambiguità delle dichiarazioni che avrebbe rilasciato e, infine, l’indagine (giudiziaria e non) sulla legittimità del contenuto in questione.

Questa volta l’interessato è Claudio Lotito, presidente della Lazio e senatore, la cui figura è stata associata a un video salito agli onori della cronaca e divenuto “virale”. Al centro, una telefonata con un tifoso, durante la quale il presunto Lotito insulta e critica i propri calciatori e l’allenatore. Subito dopo è arrivata la denuncia, che parla di “cellulare clonato” e violazione della privacy. Tra le ipotesi, anche quella che la telefonata sia stata realizzata tramite l’uso dell’intelligenza artificiale.

È molto semplice costruire fake news di questo tipo, ma è purtroppo complesso verificare, tracciare la differenza tra il vero e falso. Dobbiamo sempre porci la domanda se quella che abbiamo davanti è un’informazione vera o falsa. In questa nuova era dell’intelligenza artificiale vedere non significa più credere. Serve avere anche uno spirito di osservazione e un’educazione digitale per avere un livello di sicurezza adeguato, perché in gioco ci sono la reputazione di persone e intere realtà pubbliche e private. Con l’IA è possibile falsificare contenuti sia audio che video, i cosiddetti deep fake. Chiunque lo può fare, realizzando video e voci, con percentuali di verosimiglianza vicine al 98%.

Negli Stati Uniti, ad esempio, nell’ultimo periodo si è verificato un fenomeno molto preoccupante: in alcune scuole sui cellulari di studenti e non solo sono girati video falsi di alunne, ragazze minorenni inserite all’interno di video pornografici, con un impatto sociale terribile per le ragazze.

È necessario tenere conto che questo meccanismo parte da modelli di intelligenza artificiale estremamente avanzati e che vengono definiti ‘Reti generative avversarie’, tecnicamente ‘Gan’ (Generative Adversarial Networks). Si tratta sostanzialmente di trame in grado di imparare a rendere volti e voci, addirittura espressioni e movimenti facciali propri degli esseri umani.

Va detto, inoltre, che esistono app, altrettanto sofisticate, anche online, che, a pagamento, consentono la creazione di audio e video. Questo per dire che non è una tecnologia disponibile solo agli addetti al settore ma che, invece, è ormai è disponibile anche al grande pubblico. Bastano solo pochi dollari o bitcoin, utili ormai a comprare la “verità”.

Related Posts

Ultime news

Italia 2025
Ransomware Australia
NSA Cyber Spionaggio
Italia Maggio 2025
OpenAI Ban ChatGPT
Polizia Postale Phishing
Paragon Governo