Come capire se un'immagine è stata fatta dall'AI
di Tommaso ProverbioIl 41% delle fake news più virali del 2023 conteneva immagini generate dall’intelligenza artificiale. La disinformazione visiva è ormai un fenomeno globale, e il rischio di cadere in trappola è sempre più alto.
Forse ricordi la foto del Papa con il piumino di Balenciaga, o quella dell’arresto di Donald Trump. Immagini che hanno ingannato milioni di persone in tutto il mondo, alimentando narrazioni false e polarizzando il dibattito pubblico.
Il problema? La qualità di queste immagini è sempre più alta. Strumenti come MidJourney e Stable Diffusion riescono a generare dettagli iperrealistici, rendendo quasi impossibile distinguere il vero dal falso a occhio nudo.
Per difenderci esistono tool utili per riconoscere le immagini AI. Ad esempio IdentifAI, che utilizza reti neurali per analizzare pixel e metadati, individuando segni di manipolazione.
Oppure TinEye, che permette di fare una ricerca inversa per scoprire se un’immagine è stata modificata o proviene da fonti poco affidabili. O ancora Google Lens, che può aiutare a verificare se la stessa immagine è stata pubblicata altrove con un contesto differente.
Oltre a questi strumenti ci sono alcuni dettagli che possono tradire un’immagine fake: mani con dita deformi, occhi asimmetrici, sfondi sfocati o irregolarità nelle scritte.
Non possiamo fermare questa tecnologia, ma possiamo imparare a riconoscerla e a non diventare strumenti involontari della disinformazione.
Ne parliamo in questo nuovo episodio di DEEP.
01:21
Forse ricordi la foto del Papa con il piumino di Balenciaga, o quella dell’arresto di Donald Trump. Immagini che hanno ingannato milioni di persone in tutto il mondo, alimentando narrazioni false e polarizzando il dibattito pubblico.
Il problema? La qualità di queste immagini è sempre più alta. Strumenti come MidJourney e Stable Diffusion riescono a generare dettagli iperrealistici, rendendo quasi impossibile distinguere il vero dal falso a occhio nudo.
Per difenderci esistono tool utili per riconoscere le immagini AI. Ad esempio IdentifAI, che utilizza reti neurali per analizzare pixel e metadati, individuando segni di manipolazione.
Oppure TinEye, che permette di fare una ricerca inversa per scoprire se un’immagine è stata modificata o proviene da fonti poco affidabili. O ancora Google Lens, che può aiutare a verificare se la stessa immagine è stata pubblicata altrove con un contesto differente.
Oltre a questi strumenti ci sono alcuni dettagli che possono tradire un’immagine fake: mani con dita deformi, occhi asimmetrici, sfondi sfocati o irregolarità nelle scritte.
Non possiamo fermare questa tecnologia, ma possiamo imparare a riconoscerla e a non diventare strumenti involontari della disinformazione.
Ne parliamo in questo nuovo episodio di DEEP.