C’è qualcosa di irrimediabile nel riconoscimento facciale. A differenza di una password, che si può cambiare, o di una carta d’identità, che si può sostituire, il volto è permanente, insostituibile, inalterabile. È l’unico documento che ci accompagna dalla nascita alla morte. E una volta che viene acquisito da un sistema di sorveglianza – pubblico o privato – non esiste più alcun modo realistico per riprenderselo. Le implicazioni di questa caratteristica sono enormi. Come sottolineato nel report di “Identity.com” (2025), i furti di dati biometrici non sono un’eventualità, ma una realtà già documentata: 27,8 milioni di record rubati da Biostar2, il database di sicurezza fisica utilizzato in aziende, scuole e ospedali. E se oggi questi dati vengono usati per accedere a edifici o conti bancari, domani potrebbero essere impiegati per profilare cittadini, manipolare voti, o criminalizzare identità. Questa vulnerabilità strutturale è ciò che distingue il riconoscimento facciale da qualsiasi altra forma di tecnologia digitale. Non stiamo parlando solo di sorveglianza, ma di una forma di schedatura permanente, basata su dati biologici. Secondo lo studio accademico Beyond Surveillance (“Frontiers in Big Data”, 2024), l’esistenza stessa di database biometrici modifica la relazione tra cittadini e Stato: non sei più un soggetto di diritto, ma un oggetto analizzabile. Ogni spostamento, ogni interazione, ogni espressione facciale può essere convertita in metadato. Le conseguenze sono già visibili. Come mostra il report di EPIC (2025), a San Francisco – città che aveva formalmente vietato l’uso della FRT – la polizia ha continuato a utilizzarla attraverso collaborazioni con contee adiacenti. Questo dimostra che anche quando esiste una legge, la tecnologia crea le condizioni per essere aggirata, sfruttando zone grigie e assenza di accountability. L’illusione del controllo normativo crolla di fronte alla pervasività e portabilità del software. C’è poi un problema di asimmetria informativa. I cittadini non sanno quando vengono scansionati, chi gestisce i loro dati, dove vengono archiviati, e per quanto tempo. Questa opacità erode la fiducia democratica, come ha messo in luce il Center for Democracy & Technology analizzando le AI Inventories delle agenzie federali: molte di esse non indicano nemmeno i fornitori dei software utilizzati, né pubblicano valutazioni d’impatto. Il risultato è una democrazia opaca, dove la trasparenza è un privilegio e non un diritto. Persino le promesse di giustizia algoritmica sono, a oggi, insoddisfacenti. Lo dimostrano i dati raccolti da “Brookings” e “CDT”: i sistemi continuano a sbagliare con maggiore frequenza nel riconoscere donne, persone nere e minoranze etniche. Eppure, vengono implementati lo stesso, perché l’efficienza tecnica viene anteposta all’equità sociale. Ma il vero problema è ancora più profondo. Come affermato nel libro di Reza Montasari (“Springer”, 2024), la tecnologia cambia il significato stesso della privacy. Una volta che accettiamo che i nostri volti possano essere letti, analizzati e confrontati in tempo reale, la soglia culturale dell’accettabilità si abbassa. Si normalizza la sorveglianza. Si assorbe l’idea che la sicurezza giustifichi ogni cosa. Il riconoscimento facciale non è semplicemente una tecnologia da regolare. È una frontiera che, una volta oltrepassata, non permette ritorni. Per questo non bastano controlli, limiti o audit: serve un principio netto. Serve affermare che il volto umano non può essere trattato come una password pubblica. In una società democratica, la protezione della nostra identità più profonda – il nostro volto – deve rimanere inviolabile.
Nina Celli, 19 aprile 2025