Immagina un futuro in cui ogni scelta importante è delegata a un sistema artificiale: diagnosi mediche, assunzioni lavorative, valutazioni scolastiche, persino sentenze giudiziarie. Questo scenario non è pura distopia, ma una traiettoria già visibile, come dimostrano esperimenti attuali e policy emergenti. Il potere decisionale, in molte sfere della vita, sta passando dall’uomo alla macchina. E con esso, anche l’autonomia che definisce la dignità e la responsabilità umana. In Colorado, ad esempio, è già legge la regolamentazione di sistemi AI “ad alto rischio” che influenzano decisioni in ambiti fondamentali come salute, educazione e giustizia. Il problema non è solo tecnico: è etico. Se un algoritmo decide chi ha accesso a una cura, chi ottiene un prestito o un lavoro, su quali basi vengono prese queste decisioni? E soprattutto: a chi possiamo attribuire la responsabilità? I sistemi AI basati su deep learning, come GPT-4, hanno mostrato una capacità superiore a quella umana nel persuadere e argomentare, se dotati di dati personali minimi. La loro capacità di influenzare, sommata alla velocità e consistenza delle risposte, li rende candidati ideali per “automatizzare” le decisioni in contesti pubblici e privati. Ma cosa accade quando delegare non è più una scelta, ma un obbligo imposto da efficienza, costi o standard normativi? La ricerca OECD del 2025 sui “AI Capability Indicators” segnala che le AI moderne hanno già superato il livello 3 su 5 in compiti come linguaggio, visione e memorizzazione – avvicinandosi rapidamente all’equivalente umano. Questo le rende affidabili abbastanza da essere preferite nei contesti istituzionali, ma non abbastanza trasparenti da garantire responsabilità. Il rischio è la nascita di una nuova forma di tecnocrazia opaca: governi e aziende che, pur restando formalmente umani, agiscono su consiglio di sistemi opachi, non verificabili, difficilmente contestabili. Se le macchine iniziano a decidere cosa è giusto, chi merita cosa e in che modo, l’essere umano non sarà più il protagonista morale della propria storia, ma un destinatario passivo di output calcolati. Più l’AI diventa “utile”, più rischia di sostituire il giudizio umano con la sua replica. Questo trasferimento decisionale progressivo, se non bilanciato da controllo umano significativo, conduce inevitabilmente a una perdita di autonomia e a una forma sofisticata di controllo dell’uomo da parte dell’AI.
Nina Celli, 13 giugno 2025