In ogni società libera, la privacy non è un lusso, ma un diritto fondante. È la condizione che permette agli individui di pensare, esprimersi, dissentire e vivere senza la paura costante di essere osservati. Ma oggi, con l’espansione globale delle tecnologie biometriche, stiamo assistendo a un progressivo svuotamento di questo diritto, spesso senza accorgercene. Il riconoscimento facciale, in particolare, sta trasformando ogni spazio pubblico in una potenziale scena del crimine, ogni volto in una prova da verificare. Il problema, come emerso in maniera cristallina dall’analisi del report di “Brookings” (2025), non è solo tecnico. È strutturale, sistemico. L’impiego del riconoscimento facciale da parte delle autorità, anche democratiche, ha portato a forme sottili ma pervasive di sorveglianza preventiva, come il monitoraggio dei social media da parte del Dipartimento della Sicurezza Interna negli Stati Uniti. Si tratta di un’anticipazione orwelliana della colpa: non si aspetta più che un crimine venga commesso, ma si cerca di identificarlo nel comportamento potenziale, nelle associazioni, nei volti. In un contesto del genere, la libertà di espressione, di movimento e di protesta non è più garantita. La stessa ACLU del Wisconsin (2025) ha denunciato l’uso di droni e FRT da parte della polizia per monitorare manifestazioni e sorvegliare attivisti LGBTQ+. Il pericolo non è solo teorico: è documentato. È reale. Il volto umano, che un tempo era l’emblema dell’identità, viene oggi trasformato in un token algoritmico, leggibile, archiviabile, confrontabile. Le implicazioni democratiche sono gravi. Come spiegato nell’analisi accademica pubblicata su “Springer” (Montasari, 2024), il riconoscimento facciale capovolge l’onere della prova: non è più l’accusa a dover dimostrare la colpa, ma il cittadino a dover dimostrare la sua innocenza davanti a un sistema di sorveglianza invisibile. La presunzione di innocenza viene scardinata da una logica algoritmica di probabilità, dove la verità viene delegata al codice. Anche quando esistono normative, come nel caso del Connecticut Data Privacy Act, esse risultano spesso insufficienti, inapplicate o aggirate. Il report EPIC (2025) rivela che, pur in presenza di divieti, forze dell’ordine locali hanno utilizzato banche dati biometriche di altre contee per identificare persone. Questo dimostra che la sorveglianza biometrica non conosce confini, né normativi né etici, quando si inserisce in un sistema che la legittima come “normale”. La normalizzazione è infatti il rischio più subdolo. Quando ci abituiamo a telecamere intelligenti in metropolitana, scanner biometrici nei negozi e sistemi di identificazione automatica nei tribunali, il volto perde il suo valore simbolico di identità e diventa solo una chiave d’accesso a un database di controllo. Non è solo un rischio per la privacy individuale, ma per l’idea stessa di cittadinanza: quella che ci vuole uguali, non profilati; liberi, non schedati. Come affermato nel saggio Facial Recognition in Governance (2024), esiste una soglia oltre la quale l'efficienza tecnologica diventa tirannia algoritmica. Superata quella soglia, non sarà più possibile tornare indietro. Per questo, la sola regolamentazione non basta. Bisogna porre limiti chiari, netti, radicali, fino a vietarne l’uso in ambito pubblico, se necessario. Il riconoscimento facciale non è una semplice tecnologia: è una lente attraverso cui lo Stato osserva il cittadino, ma anche un meccanismo con cui lo definisce, lo classifica e lo controlla. In una democrazia degna di questo nome, nessuna persona dovrebbe temere di essere guardata solo per il fatto di esistere. Ecco perché, per difendere le basi stesse della libertà, questa tecnologia deve essere fermata.
Nina Celli, 19 aprile 2025