Uno degli argomenti più insidiosi contro l’imposizione di limiti etici all’intelligenza artificiale riguarda la loro reale efficacia. In un contesto di ipercompetizione tra aziende e Stati, l’etica rischia di diventare un’operazione di facciata, una strategia di marketing più che un principio operativo. In questo scenario, le “etichette etiche” – come “fair”, “responsible AI” o “AI for good” – possono trasformarsi in forme di greenwashing tecnologico, ovvero in strumenti per legittimare comportamenti discutibili dietro una patina di responsabilità morale. Un’analisi lucida di questo fenomeno è offerta da Robert Prentice nel suo saggio pubblicato dall’Università del Texas. L’autore evidenzia come la retorica sull’etica dell’IA venga spesso manipolata da aziende e stakeholder per mascherare finalità commerciali o politiche. Citando la teoria dell’“illusione di profondità esplicativa”, Prentice dimostra che la maggioranza degli utenti e dei policy maker crede di comprendere l’etica dell’IA molto più di quanto sia effettivamente vero, alimentando così una narrazione rassicurante ma superficiale. Anche Bao Tran, nell’analisi sui bias algoritmici, denuncia che molte aziende dichiarano di avere meccanismi etici senza dimostrarne la reale applicazione. Solo il 20% dei modelli IA esaminati ha processi decisionali spiegabili e molti sistemi impiegati nel settore pubblico – come il riconoscimento facciale o l’analisi predittiva – operano senza supervisione effettiva. L’etica, in questi casi, è un adesivo posto sopra modelli opachi e difficilmente auditabili. La stessa dinamica si riscontra nell’ambito giornalistico, come documentato da “OpenTools”. Alcune testate hanno presentato come “etica” la sostituzione dei redattori con IA generativa, salvo poi dover ritirare articoli per errori gravi, allucinazioni informative o casi di plagio. L’etichetta etica è servita a sedare le critiche iniziali, ma non ha prevenuto le conseguenze reputazionali e legali. Secondo l’OECD, il moltiplicarsi di codici di condotta privati – non vincolanti e spesso autoreferenziali – sta creando un panorama frammentato e poco credibile. Le imprese dichiarano di rispettare “principi etici” ma raramente rendono pubblici i criteri, i test o le sanzioni previste in caso di violazione. Questo mina la fiducia e crea un effetto boomerang: l’uso dell’etica come strumento comunicativo finisce per delegittimare l’etica stessa. In un contesto dove la velocità dell’innovazione supera la capacità normativa, la rincorsa a “certificare” la bontà dei modelli rischia di creare una burocrazia dell’etica incapace di incidere realmente sulle pratiche di sviluppo. Se l’etica dell’IA viene trasformata in una vetrina e non in un impegno verificabile, rischia di alimentare una pericolosa ipocrisia. Meglio pochi vincoli chiari e controllabili che una selva di dichiarazioni morali prive di sostanza.
Nina Celli, 28 giugno 2025