Immagina di camminare per strada, di partecipare a una manifestazione, o semplicemente di entrare in un negozio. Senza che tu lo sappia, il tuo volto viene scansionato, confrontato con milioni di immagini, archiviato in un database che non hai mai autorizzato. Non hai commesso nessun crimine, non hai dato il tuo consenso, eppure sei diventato un dato, un codice biometrico, una sequenza in un sistema di sorveglianza invisibile. Questo non è un romanzo distopico: è la realtà documentata dell’uso del riconoscimento facciale nel mondo contemporaneo. Le prove raccolte dalle 17 fonti analizzate parlano chiaro. Il riconoscimento facciale è intrusivo, inaffidabile e discriminatorio, ed è già stato utilizzato per commettere abusi gravi. Il caso emblematico di LaDonna Crutchfield, arrestata ingiustamente a Detroit a causa di un errore di identificazione, mostra quanto possa essere devastante l’uso sconsiderato di questa tecnologia (Reason.com, 2025). E non si tratta di un caso isolato: la città di Detroit è stata oggetto di tre cause legali per arresti ingiustificati basati su FRT (JURIST, 2025). Questa tecnologia non solo amplifica le disuguaglianze, ma opera spesso in assenza di trasparenza e controllo pubblico. Come denunciano l’ACLU del Wisconsin e il Center for Democracy & Technology, molte forze dell’ordine americane utilizzano il riconoscimento facciale senza alcun coinvolgimento democratico, senza valutazioni d’impatto e senza strumenti di verifica indipendenti. Le comunità più colpite? Sempre le stesse: afroamericani, minoranze etniche, persone LGBTQ+, manifestanti politici. Il caso Clearview AI è emblematico. Secondo “Reuters” (2025), l’azienda ha costruito un database con oltre 30 miliardi di immagini raccolte illegalmente, e ha patteggiato in tribunale offrendo quote societarie in cambio della chiusura della class action. È un precedente pericoloso: i cittadini sono diventati merce di scambio, e i loro volti una valuta da trattare nei mercati della sorveglianza. Anche nei contesti legislativi più avanzati, le tutele non sono sufficienti. Il rapporto di EPIC (2025) rivela che a San Francisco, dove l’uso del FRT è formalmente vietato, la polizia ha aggirato il divieto collaborando con contee limitrofe. Il divieto formale non è garanzia di rispetto sostanziale, e ciò che non è visibile può essere più pericoloso. Come sottolineato dallo studio accademico di Montasari (“Springer”, 2024), il problema è strutturale. La tecnologia di riconoscimento facciale nasce per classificare, confrontare, individuare, e non può essere addomesticata senza perdere la sua funzione principale. Ogni implementazione “etica” rischia di essere una foglia di fico, dietro cui si cela una logica di sorveglianza diffusa e normalizzata. Non è sufficiente regolamentare, perché ciò che viene normalizzato oggi sarà irriformabile domani. I sistemi biometrici sono per loro natura persistenti, difficili da cancellare, soggetti a furti (come il caso Biostar2) e alla monetizzazione incontrollata. Come dichiarato nel rapporto “Identity.com”, “non esiste modo di cambiare volto come si cambia una password”. Il riconoscimento facciale non è solo una questione tecnica o giuridica, ma una sfida politica ed esistenziale. È una tecnologia che ristruttura il potere: chi guarda e chi è guardato, chi controlla e chi è controllato. In un mondo che valorizza la dignità, la libertà e l’autonomia dell’individuo, questa tecnologia non può e non deve essere accettata. Per difendere la privacy, bisogna dire no. E dirlo ora, prima che sia troppo tardi.
Nina Celli, 19 aprile 2025