I social non distinguono chi fa disinformazione da chi cerca di contrastarla

Questa mattina abbiamo pubblicato un post sul problema crescente delle fake news e dei contenuti generati con l’intelligenza artificiale, spesso quasi indistinguibili dalla realtà. Il post è stato però limitato dalla piattaforma perché conteneva, a scopo di debunking, una frase falsa attribuita a Ilaria Salis. L’obiettivo era smontare quella fake news, non rilanciarla, ma il sistema automatico non ha considerato il contesto, rilevando solo che quella frase era già stata classificata come falsa.

È un esempio di un problema più ampio: sistemi di moderazione sempre più automatizzati che faticano a distinguere tra disinformazione e chi prova a contrastarla. Il risultato è paradossale: vengono limitati contenuti che cercano di analizzare o contestualizzare – come successo anche nel caso Barbero – mentre altri post inventati continuano a circolare senza ostacoli. Questo evidenzia un nodo di trasparenza nel fact-checking delle piattaforme. Le note citano organizzazioni esterne, dando l’impressione di una revisione editoriale mirata, quando spesso sembra intervenire soprattutto un riconoscimento automatico di contenuti già segnalati. Così si rischia di attribuire errori umani a processi in gran parte algoritmici, con ricadute sulla credibilità del fact-checking.

In questi giorni ha fatto discutere anche la foto degli scontri tra manifestanti e polizia a Torino, pubblicata su profili istituzionali. Diverse analisi hanno segnalato possibili anomalie compatibili con manipolazioni tramite IA. Fonti della Polizia hanno dichiarato all’HuffPost Italia che l’immagine era tra quelle più virali circolate online e che non è stata generata o alterata dalla Polizia di Stato.

Questo è solo uno dei casi più recenti: continuano a circolare fake news generate con l’IA, talvolta razzisti o usati a fini politici, abbastanza realistici da ottenere migliaia di condivisioni. Serve più trasparenza e moderazione più chiara da parte delle piattaforme, ma anche maggiore educazione digitale. Noi continueremo a occuparcene, analizzando casi concreti e suggerendo strumenti utili per riconoscere contenuti alterati, perché non siano gli algoritmi a decidere cosa consideriamo vero.
02:54
  • Copiato negli appunti https://www.vdnews.it/tecnologia-e-scienza/2026/02/09/video/i-social-non-distinguono-chi-fa-disinformazione-da-chi-cerca-di-contrastarla-21165421/
  • Copiato negli appunti <iframe src="https://www.vdnews.it/embed/tecnologia-e-scienza/2026/02/09/video/i-social-non-distinguono-chi-fa-disinformazione-da-chi-cerca-di-contrastarla-21165421/" width="640" height="360" frameborder="0" scrolling="no"></iframe>

Potrebbe piacerti anche