I colossi cinesi spengono l’AI durante gli esami: è questa la scuola del futuro?
di Tommaso ProverbioMaturità 2025: mentre migliaia di studenti italiani affrontano gli esami, in Cina i giganti tech come Alibaba, ByteDance, Tencent, DeepSeek e Moonshot hanno disattivato i loro chatbot di intelligenza artificiale durante il Gaokao, l’esame di ammissione all’università più selettivo al mondo. Per 48 ore, app come Kimi, Doubao o Qwen si sono oscurate con l’obiettivo di impedire che l’IA potesse aiutare i candidati a copiare. Ma dietro la tutela della regolarità si nasconde una domanda molto più grande: chi ha il potere di spegnere l’intelligenza artificiale? E a quali condizioni?
L’episodio cinese è emblematico. Durante il Gaokao, il governo ha ordinato a tutte le principali aziende tech di disattivare temporaneamente i propri chatbot. Per due giorni le app si sono rifiutate di rispondere, segnalando che il servizio era sospeso “per garantire la regolarità dell’esame”. Non solo: nelle scuole sono entrati in azione riconoscimento facciale, controlli biometrici, jammer per bloccare il segnale, ispezioni dei dispositivi personali, tutto per impedire anche il minimo imbroglio.
E mentre in Cina si mettevano i sigilli ai modelli linguistici, in Italia – del tutto casualmente – ChatGPT andava in down globale. Reddit e X (ex Twitter) si sono riempiti di post disperati e meme autoironici: “Costretti a usare il cervello”, “Ritorno all’età della pietra”. Ma sotto il sarcasmo, c’è un dato concreto: l’intelligenza artificiale è ormai un’appendice della mente di milioni di persone – studenti e lavoratori. Per molti, è diventata una vera e propria infrastruttura cognitiva.
Quello che accade in Cina potrebbe sembrare estremo, ma crea un precedente. E la questione non riguarda solo Pechino: anche in Europa e negli Stati Uniti si discute da tempo della possibilità di limitare l’accesso all’IA in momenti sensibili. Basti ricordare che l’Italia ha già bloccato ChatGPT nel marzo 2023 per decisione del Garante della Privacy. Negli Stati Uniti, la California aveva persino proposto una legge per imporre un “kill switch” obbligatorio nei modelli di IA avanzati, una sorta di bottone rosso da premere in caso di emergenza. Poi la norma è stata accantonata per il timore di scoraggiare gli investimenti tecnologici.
Spegnere l’IA non è più solo una possibilità tecnica: sta diventando una scelta politica, e riguarda almeno tre grandi questioni. La sicurezza, per evitare che l’intelligenza artificiale venga usata per barare, diffondere disinformazione o violare la privacy. L’uguaglianza, per garantire che l’accesso a questi strumenti non diventi un privilegio per pochi. E la libertà, per capire quando un blocco è giustificato – e quando, invece, rischia di trasformarsi in censura.
Il punto non è solo se si può spegnere l’intelligenza artificiale, ma chi ha il potere di farlo. In Cina, la decisione è arrivata dall’alto, e le aziende hanno obbedito senza obiezioni. In un sistema democratico, le cose dovrebbero essere più complesse: chi può decidere di sospendere un sistema di IA? Un’autorità indipendente? Un giudice? Il Parlamento? E soprattutto: con quale legittimazione, su quali basi, secondo quali criteri? Il rischio è che un meccanismo pensato per regolare diventi uno strumento per controllare, comprimendo libertà fondamentali come l’accesso all’informazione o la libertà di espressione.
Intanto l’idea di spegnere l’IA in alcune occasioni – esami, elezioni, eventi sensibili – si sta facendo strada anche tra i decisori europei. In Italia, il nuovo DDL sull’Intelligenza Artificiale prevede che i sistemi utilizzati nella Pubblica Amministrazione girino su server nazionali, per garantire sovranità e sicurezza. È un primo passo verso una forma più strutturata di controllo.
Ma attenzione: regolare non significa reprimere, e sospendere un servizio essenziale non può diventare la scorciatoia per evitare di affrontare i veri nodi, che sono l’educazione digitale, l’etica dell’uso, l’infrastruttura pubblica. Altrimenti, il rischio è di costruire un futuro in cui accendere o spegnere l’intelligenza artificiale diventa uno strumento di potere, più che di giustizia.
Ora che l’IA è parte integrante della nostra vita quotidiana, decidere chi ha il diritto di spegnerla significa anche decidere chi ha il potere di governare il futuro.