Una delle principali obiezioni all’imposizione di vincoli etici universali all’intelligenza artificiale risiede nella natura intrinsecamente soggettiva dell’etica stessa. Ogni società interpreta concetti come giustizia, libertà, equità o responsabilità in modi diversi, a seconda del contesto storico, culturale e politico. Cercare di standardizzare principi etici per una tecnologia che opera a livello globale rischia quindi di produrre norme culturalmente sbilanciate, ideologicamente parziali o addirittura impraticabili. Questo problema è emerso chiaramente nell’analisi di Toni Nasif, che sottolinea come le divergenze culturali nella percezione dei “valori” ostacolino la definizione di standard etici condivisi. In Asia, ad esempio, l’uso dell’IA per la sorveglianza è spesso giustificato in nome della stabilità; in Europa, lo stesso approccio sarebbe considerato inaccettabile. Tentare di imporre un’etica globale all’IA significa, di fatto, proiettare un sistema di valori localizzato su una tecnologia universale. Anche il Brookings Institution, attraverso le riflessioni di Molly Kinder, mette in luce questa tensione. Nell’intervista sulla “dimensione morale del lavoro”, Kinder osserva che l’idea di “dignità del lavoro” è centrale nella dottrina cattolica, ma potrebbe non essere prioritaria in sistemi culturali dove la produttività o il collettivismo prevalgono sul riconoscimento individuale. In un mondo multipolare, imporre limiti etici all’IA significa anche entrare in conflitto con visioni alternative della società e della tecnologia. La stessa Commissione Europea, promotrice dell’AI Act, ha dovuto rivedere più volte la definizione di “uso inaccettabile” dell’IA. Alcuni Paesi membri contestavano il divieto assoluto del riconoscimento facciale in spazi pubblici, mentre altri ne richiedevano un’applicazione più estensiva. Questo dimostra come persino all’interno di una comunità politica integrata come l’UE, l’etica applicata all’IA resti controversa e divisiva. L’articolo di Shrutika Poyrekar, su “Medium”, analizza un esperimento condotto su Reddit in cui chatbot IA hanno interagito con utenti umani all’insaputa di questi ultimi. Mentre alcuni studiosi ne hanno lodato il valore sperimentale, altri lo hanno bollato come “manipolazione”. Chi decide dove si trova il confine tra ricerca e violazione? Chi stabilisce quando una simulazione diventa inganno? L’etica non è un algoritmo. Non può essere programmata né applicata in modo neutro e univoco. La sua soggettività la rende inadatta a fungere da fondamento per regolamentazioni globali della tecnologia. Meglio affidarsi a framework flessibili, adattabili e localizzati, piuttosto che tentare di codificare una morale artificiale per un mondo troppo complesso per accoglierla.
Nina Celli, 28 giugno 2025