I social sono pieni di facce che sembrano vere, parlano come noi, si muovono come noi, dicono: “Noi esistiamo”. Ma non esistono. Sono prodotti da Veo 3, il nuovo modello di intelligenza artificiale generativa presentato da Google. Ed è così realistico che mette a disagio: volti, corpi, emozioni simulati con tale precisione da rendere quasi impossibile distinguere il reale dal sintetico. Ma dietro la meraviglia si nasconde una domanda urgente: che fine fa il lavoro umano in questo futuro fabbricato da pochi per essere consumato da tutti?

Con Veo 3, non serve più un attore, un regista, un fonico o un montatore. Serve un prompt. L’intelligenza artificiale text-to-video di Google è in grado di generare clip di altissima qualità partendo da semplici descrizioni scritte. Le immagini si muovono in modo credibile, i dialoghi sono sincronizzati con il labiale e l’audio (effetti sonori inclusi) è generato direttamente dall’algoritmo. In otto secondi, con una manciata di parole, puoi produrre una scena cinematografica. E se non ti basta, ci pensa Flow, l’editor AI di Google, ad “allungare” il contenuto o modificarlo con un altro prompt. Fine del set, fine del mestiere.

L’impatto è già reale: nei settori creativi – cinema, pubblicità, giornalismo, comunicazione – l’IA sta diventando il sostituto low cost della manodopera umana. E non è solo questione di disoccupazione, ma di potere. Chi controlla questi strumenti ha la capacità di determinare cosa è reale, cosa è credibile, cosa vale la pena vedere. Una centralizzazione della produzione culturale senza precedenti, in mano a poche Big Tech.

[[ge:espresso:vdnews:19311242]]

Nel frattempo, su TikTok, X e Instagram, impazzano video generati da Veo 3 in cui i protagonisti – anch’essi generati – negano di essere finti. L’effetto è disturbante, inquietante. Si chiama uncanny valley: quella sottile distanza tra l’umano e il quasi-umano che ci provoca disagio. Ma quanto ancora ce ne accorgeremo? E soprattutto: ci interessa davvero?

La nuova frontiera della disinformazione è qui. Con strumenti come Veo 3, costruire un telegiornale falso, un’intervista mai avvenuta, un disastro naturale inventato è questione di pochi click. I video possono sembrare reali, vengono condivisi velocemente e spesso rilanciati da account apparentemente autorevoli. È il trionfo del “sembra, quindi è”. Una manipolazione emotiva e politica tanto potente quanto invisibile.

Nel 2023, gli sceneggiatori di Hollywood erano scesi in sciopero anche per questo: difendersi da un’IA che già allora minacciava i loro mestieri. Oggi il pericolo è esploso. Gli algoritmi non hanno scioperi, non fanno errori, non chiedono diritti. Lavorano 24 ore al giorno, senza mai spegnersi. Ma chi li programma, chi li addestra, con che dati? Google non ha mai chiarito se i video di YouTube siano stati usati – in violazione dei termini – per “nutrire” l’IA. E questo solleva enormi dubbi su copyright, trasparenza e consenso.

Serve una risposta politica, non tecnica. Non basta meravigliarsi. Servono leggi, regolamentazioni, strumenti di verifica automatica e formazione digitale di massa. Dobbiamo attrezzarci a riconoscere la finzione, a sviluppare una nuova alfabetizzazione visiva. E dobbiamo lottare per un’IA che non sostituisca l’umano, ma lo rafforzi. Perché un mondo in cui tutto è generabile da una manciata di codici, è anche un mondo dove il lavoro creativo, il pensiero critico e la testimonianza umana rischiano di esser sempre più rari.
E la verità non solo non sarà più distinguibile dal falso, ma non importerà nemmeno saperlo.