La tecnologia di riconoscimento facciale può essere utilizzata per la sorveglianza passiva e senza mandato, senza che la persona osservata ne sia a conoscenza. In Russia, il riconoscimento facciale è stato utilizzato per monitorare e arrestare i manifestanti che sostenevano il politico dell’opposizione incarcerato Alexei Navalny. I russi temono che un nuovo sistema di pagamento con riconoscimento facciale per la metropolitana di Mosca possa aumentare questo tipo di arresti (ACLU, Facial Recognition, “aclu.org” consultato il 15 ottobre 2021; Pjotr Sauer, Privacy Fears as Moscow Metro Rolls out Facial Recognition Pay System, “theguardian.com”, 15 ottobre 2021; Gleb Stolyarov, Gabrielle Tétrault-Farber, ‘Face Control’: Russian Police Go Digital against Protesters, “reuters.com”, 11 febbraio 2021).
Ring, l'azienda produttrice di campanelli con intelligenza artificiale, ha collaborato con più di 400 dipartimenti di polizia a partire dal 2019, consentendo alla polizia di richiedere filmati dalle telecamere dei campanelli degli utenti. Sebbene agli utenti fosse consentito negare l'accesso a qualsiasi filmato, gli esperti di privacy temono che lo stretto rapporto tra Ring e la polizia possa pregiudicare la privacy dei clienti, soprattutto quando i campanelli registrano proprietà altrui (Drew Harwell, Doorbell-Camera Firm Ring Has Partnered with 400 Police Forces, Extending Surveillance Concerns, “washingtonpost.com”, 28 agosto 2019).
L'intelligenza artificiale ti segue anche nelle tue commissioni settimanali. Target ha utilizzato un algoritmo per determinare quali acquirenti erano incinte e ha inviato loro coupon specifici per bambino e gravidanza per posta, violando la privacy medica di coloro che potrebbero essere incinte, così come di coloro i cui modelli di acquisto potrebbero semplicemente imitare le persone incinte (David A. Teich, Artificial Intelligence and Data Privacy – Turning a Risk into a Benefit, “forbes.com”, 10 agosto 2020; Kashmir Hill, How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did, “forbes.com”, 16 febbraio 2012).
Inoltre, l’intelligenza artificiale può essere una manna dal cielo per i truffatori. Nel 2020, un gruppo di 17 criminali ha frodato 35 milioni di dollari in una banca negli Emirati Arabi Uniti utilizzando la tecnologia AI “deep voice” per impersonare un dipendente autorizzato a effettuare trasferimenti di denaro. Nel 2019, i ladri hanno tentato di rubare 240.000 dollari utilizzando la stessa tecnologia AI per impersonare l’amministratore delegato di un’azienda energetica nel Regno Unito (Thomas Brewster, Fraudsters Cloned Company Director’s Voice In $35 Million Bank Heist, Police Find, “forbes.com”, 14 ottobre 2021).