L’idea che l’AI ci “controllerà” perché capace di manipolare l’informazione è fondata su un’evidenza parziale e, soprattutto, su una sottovalutazione del ruolo attivo che gli esseri umani possono esercitare nella progettazione, nell’uso e nella regolazione dei sistemi informativi basati su AI. Le stesse tecnologie che rendono l’AI uno strumento di persuasione possono essere impiegate per potenziare la trasparenza, smascherare fake news e democratizzare l’accesso critico all’informazione. Come mostra il policy brief pubblicato da “DGAP” nel maggio 2025, una delle risposte più efficaci alla manipolazione automatizzata è l’adozione di meccanismi di etichettatura automatica, spiegabilità algoritmica e decentralizzazione della produzione mediatica. In questo senso, l’AI diventa un “filtro antimanipolazione”: strumenti di fact-checking automatico, rilevamento dei deepfake, analisi semantica dei bias linguistici non solo sono già in uso, ma vengono costantemente migliorati. Gli stessi modelli generativi che possono essere usati per produrre disinformazione possono essere riutilizzati per generare contro-narrazioni verificate in tempo reale. Un altro aspetto fondamentale è l’alfabetizzazione mediatica. Secondo l’OECD, la strategia vincente per bilanciare il potenziale manipolativo dell’AI non è la censura, ma l’educazione critica. Progetti promossi in Europa e America Latina nel 2025, come i programmi di “AI literacy” nelle scuole secondarie e nei corsi di aggiornamento civico, stanno dimostrando che la consapevolezza dell’esistenza e del funzionamento dei modelli AI riduce sensibilmente la vulnerabilità alla manipolazione personalizzata. Inoltre, parliamo di un contesto non privo di regole. Il G7 Hiroshima Process e le linee guida OECD 2025 introducono standard etici sulla trasparenza algoritmica e sul diritto all’identificazione delle fonti AI, mentre la AI Act europea richiede che ogni contenuto generato artificialmente sia marcato come tale. Queste regole, se ben implementate, trasformano l’AI da strumento opaco a veicolo di chiarezza. L’AI è dunque uno specchio amplificante delle intenzioni umane. Se il contesto regolatorio, educativo e tecnologico è orientato alla trasparenza, allora l’AI non ci controlla, ma ci aiuta a difenderci meglio da chi vorrebbe farlo.
Nina Celli, 13 giugno 2025