Uno degli argomenti più controversi contro l’imposizione di limiti etici all’intelligenza artificiale riguarda la natura stessa della tecnologia. A differenza di qualsiasi altra innovazione del passato, l’IA – specialmente nelle sue forme generative – evolve in modo non sempre prevedibile. Pretendere di imporle vincoli etici concepiti dall’uomo rischia di essere non solo inefficace, ma concettualmente anacronistico: come se si volesse addestrare un organismo alieno con le regole morali di un umano. L’articolo pubblicato dal Brookings Institution pone questa questione in termini profondamente filosofici. In un passaggio suggestivo, Molly Kinder si chiede: “Cosa perdiamo se l’IA ci priva del lavoro che ci rende umani?”. La sua domanda si colloca in una prospettiva esistenziale, secondo cui l’IA non minaccia solo i posti di lavoro, ma la concezione stessa della dignità umana. Ma proprio da questa riflessione emerge il limite della risposta etica: se l’IA cambia ciò che significa “essere umani”, allora anche l’etica umana potrebbe non essere più sufficiente a contenerla. Questo paradosso è ben espresso anche da Elana Banin, che nel suo saggio per il World Economic Forum sottolinea come molte delle applicazioni IA nel campo militare, politico ed economico stiano già operando in una zona grigia tra umano e non umano, tra controllabile e non controllabile. La linea tra uso civile e uso coercitivo dell’IA si sta dissolvendo. In questo scenario, l’etica tradizionale – fondata su intenzionalità, consapevolezza e responsabilità – mostra i suoi limiti: come attribuire colpa o merito a un sistema che agisce senza intenzione, ma con conseguenze significative? Un altro esempio viene dall’uso di IA generativa nei contesti creativi, come descritto da Shrutika Poyrekar. L’esperimento condotto su Reddit, dove bot IA hanno interagito in segreto con utenti reali, ha scatenato un dibattito acceso: era un’azione immorale o un’innovazione legittima? La risposta non è univoca, proprio perché l’IA opera al di fuori delle intenzioni umane classiche. Il concetto di “consenso informato”, cardine dell’etica tradizionale, vacilla quando l’interazione è tra uomo e macchina camuffata da uomo. Secondo Hinesh Jaswani, i modelli linguistici come ChatGPT e Claude potrebbero trarre vantaggio da una forma di “etica interattiva” – una capacità di porsi domande morali durante la conversazione – piuttosto che da vincoli esterni. Ma questa proposta conferma implicitamente che l’etica, per essere efficace, deve evolversi insieme alla tecnologia, non essere imposta dall’esterno con strumenti giuridici nati per società statiche. L’IA non è una macchina nel senso tradizionale: è un’entità semi-autonoma, che apprende, simula intenzionalità e genera contenuti in modo non deterministico. In questo contesto, l’etica umana rischia di diventare un linguaggio obsoleto, incapace di regolare un sistema che opera al di fuori delle sue premesse. Serve forse una nuova epistemologia dell’etica, non un’imposizione di codici morali costruiti per un altro tempo e per soggetti profondamente diversi.
Nina Celli, 28 giugno 2025