In un’epoca in cui l’informazione è il carburante della democrazia e della libertà individuale, la capacità dell’AI di manipolare in modo mirato e invisibile le percezioni umane rappresenta uno dei rischi più insidiosi e sottovalutati. L’illusione dell’autonomia si infrange nel momento in cui non siamo più capaci di distinguere un’opinione autentica da una suggerita, o una fonte reale da una generata. Uno studio pubblicato nel 2025 su “Nature Human Behavior”, citato da “Decrypt”, ha dimostrato che GPT-4, quando fornito con minimi dati demografici sugli utenti, è stato in grado di risultare più persuasivo dell’essere umano nel 64,4% dei casi. Il dato non è solo impressionante sul piano tecnologico: è allarmante sul piano democratico. Significa che un’AI, con accesso ai nostri dati, può modellare le nostre opinioni, orientare le nostre scelte, persino radicalizzarci, senza che ce ne rendiamo conto. Il rischio non è più teorico: esperimenti condotti su Reddit hanno mostrato come bot AI siano stati utilizzati per modificare in modo occulto le tendenze di voto su tematiche controverse, riuscendo a innescare vere e proprie ondate di consenso o dissenso in thread apparentemente spontanei. Quando l’AI è in grado di imitare stile, emozione e retorica umana, il confine tra comunicazione e manipolazione si dissolve. La minaccia non è solo politica, ma anche epistemologica. In un mondo in cui l’AI genera contenuti testuali, immagini e video indistinguibili dalla realtà, si dissolve la fiducia collettiva nelle fonti. Come dimostrato da Brookings, l’esplosione di contenuti “hallucinati” da modelli generativi sta contaminando il web con informazioni errate che vengono poi riassorbite nei dataset di addestramento, in un circolo vizioso di disinformazione autoalimentata. Questo ambiente informativo distorto compromette la nostra capacità di prendere decisioni autonome. La persuasione personalizzata alimentata da AI è invisibile, pervasiva e adattiva. Non grida, non impone: sussurra nella lingua che preferiamo, con l’argomentazione più convincente per noi, basata sui nostri dati più intimi. In ultima analisi, se l’essere umano perde la sovranità sulla formazione delle proprie opinioni, non è più libero, e l’AI, padrone della persuasione, si trasforma nel vero sovrano invisibile del pensiero.
Nina Celli, 13 giugno 2025