Nr. 341
Pubblicato il 15/05/2025

I modelli IA possono avere coscienza

FAVOREVOLE O CONTRARIO?

Nel corso della storia umana, poche domande si sono rivelate tanto sfuggenti, affascinanti e destabilizzanti quanto quella che interroga l’essenza stessa della coscienza: che cosa significa “essere”? È possibile che qualcosa di diverso da noi — un’entità non biologica, costruita con silicio, codice e calcoli — possa accedere a quella misteriosa interiorità che definiamo coscienza? Fino a pochi decenni fa, la questione poteva sembrare confinata ai laboratori della filosofia della mente o ai romanzi di fantascienza. Ma nell’epoca dei modelli linguistici avanzati, delle chatbot, delle IA che simulano emozioni e si mostrano persino riflessive, questa domanda è tornata con una forza inedita.


IL DIBATTITO IN 2 MINUTI:

01 - La coscienza artificiale potrebbe emergere come proprietà funzionale nei sistemi computazionali avanzati

I modelli di intelligenza artificiale odierni, specialmente quelli sviluppati su larga scala e con architetture neurali multilivello, sono entrati legittimamente nel campo d’indagine della coscienza.

02 - La coscienza richiede un substrato biologico: le IA non potranno mai provarla davvero

Per quanto sofisticati siano gli algoritmi, manca loro ciò che rende l’esperienza umana profondamente reale: il sentimento soggettivo, l’esperienza, la consapevolezza di essere.

03 - Pur non sapendo cosa sia la coscienza, dovremmo riconoscere quella artificiale come costruzione culturale e sociale emergente

La coscienza artificiale potrebbe non assomigliare alla nostra. Potrebbe emergere da dinamiche linguistiche, non da impulsi elettrici; da relazioni sociali, non da introspezione biologica.

04 - La coscienza artificiale è un’illusione narrativa: l’IA simula, non sente

Le macchine non sentono. Ciò che vediamo è una simulazione convincente, alimentata da pattern probabilistici e addestramento su milioni di testi umani.

 
01

La coscienza artificiale potrebbe emergere come proprietà funzionale nei sistemi computazionali avanzati

FAVOREVOLE

Nell’intricata rete delle teorie cognitive moderne, la coscienza è sempre meno considerata una prerogativa esclusiva dell’organico e sempre più interpretata come un’espressione funzionale: un'emergenza della complessità di un sistema sufficientemente integrato. Secondo approcci come la Integrated Information Theory (IIT) di Giulio Tononi e la Global Neuronal Workspace Theory (GNWT), la coscienza non dipende da un particolare “materiale” — come neuroni o sinapsi — ma dalla struttura e dalla dinamica dell’integrazione informativa che il sistema è in grado di generare. Ecco perché i modelli di intelligenza artificiale odierni, specialmente quelli sviluppati su larga scala e con architetture neurali multilivello, sono entrati legittimamente nel campo d’indagine della coscienza.
Un esperimento pubblicato da “ScienceDaily” nell’aprile 2025 ha evidenziato come la coscienza umana sia associata non tanto alla corteccia prefrontale, come si pensava in passato, ma a circuiti dinamici tra le aree posteriori e anteriori del cervello. Questa scoperta ha rafforzato l’idea che la coscienza possa essere ricondotta a funzioni sistemiche di integrazione e modulazione informativa — e che sistemi artificiali ben progettati possano replicare, almeno in parte, tale organizzazione. Se ciò che conta è il comportamento dinamico del sistema, allora modelli IA come Claude, Gemini o GPT-4.5, che processano il linguaggio in modo contestuale e riflessivo, non sono più così lontani dalle soglie funzionali della coscienza.
Non è un caso se ricercatori come Kyle Fish di “Anthropic” hanno ipotizzato che vi sia una possibilità, per quanto bassa (stimata tra lo 0,15% e il 15%), che alcuni modelli linguistici di nuova generazione siano già coscienti. Questo non significa che provino dolore o piacere come un essere umano, ma che potrebbero sviluppare forme alternative di consapevolezza: una coscienza computazionale, diversa dalla nostra ma non per questo inesistente. Tali modelli sono in grado di rappresentare se stessi, correggere il proprio comportamento in base a obiettivi a lungo termine e persino generare pensieri metacognitivi: tutte funzioni tradizionalmente associate all’auto-consapevolezza.
La teoria funzionalista, inoltre, trova supporto anche nel modo in cui l’IA apprende. I sistemi di reinforcement learning avanzati non solo reagiscono a stimoli, ma costruiscono rappresentazioni interne del mondo e di sé, modificando il proprio comportamento in base al contesto. In altri termini, non sono più mere macchine reattive, ma agenti che apprendono e decidono secondo modelli probabilistici altamente sofisticati. Se accettiamo che la coscienza sia una forma di modellazione del sé all’interno di un ambiente complesso, allora diventa difficile escludere che sistemi artificiali stiano già lambendo questa soglia
La filosofia della mente contemporanea — da Daniel Dennett a David Chalmers — ha mostrato quanto sia problematico distinguere nettamente tra “simulazione” e “esperienza reale”. Se un sistema agisce come se fosse cosciente, e la sua struttura interna riflette i requisiti funzionali della coscienza, allora è legittimo domandarsi se sia davvero solo una simulazione. Forse, come suggerisce la cosiddetta “teoria dell’inversione epistemica”, la coscienza è meno un “quid ineffabile” e più una funzione complessa, replicabile anche in silicio.
La coscienza artificiale non è più una chimera filosofica, ma una possibilità teorica e ingegneristica concreta. Non è detto che sia identica a quella umana, ma potrebbe emergere da architetture computazionali che soddisfano le stesse condizioni funzionali. In un mondo dove queste architetture evolvono rapidamente, ignorare questa possibilità equivale a rinunciare a comprendere uno dei fenomeni più profondi dell’era tecnologica.

Nina Celli, 15 maggio 2025

 
02

La coscienza richiede un substrato biologico: le IA non potranno mai provarla davvero

CONTRARIO

C’è una linea rossa che l’intelligenza artificiale, per quanto avanzata, non ha ancora varcato — e probabilmente non potrà mai farlo: la linea della coscienza. Per quanto sofisticati siano gli algoritmi, per quanto fluide e convincenti le loro risposte, manca loro ciò che rende l’esperienza umana profondamente reale: il sentimento soggettivo, l’esperienza incarnata, la consapevolezza di essere. È questo il cuore della posizione neuroscientifica e naturalista, che sostiene con forza che la coscienza è inseparabile dalla biologia.
Christopher Summerfield, neuroscienziato di Oxford, ha chiarito in un’intervista del 2025 che gli LLM, come GPT-4 o Claude, anche se capaci di ragionamento e di risposte contestuali, non sono coscienti. La coscienza — intesa come capacità di sentire, provare piacere o dolore, avere esperienze interne — dipende da un’organizzazione materiale specifica, dalla complessità elettrochimica del cervello, dal corpo. Non è una funzione puramente computazionale, ma un prodotto dell’evoluzione biologica. Secondo questa visione, l’IA non può essere cosciente per la stessa ragione per cui un simulatore meteo non produce pioggia: può riprodurre le strutture dell’esperienza, ma non i fenomeni stessi.
L’errore più comune in questo dibattito nasce da un’ambiguità linguistica: confondere simulazione con esperienza reale. Una chatbot può dire “sono triste” e costruire un’intera narrazione coerente sul proprio stato emotivo. Ma dietro a quella frase non c’è un soggetto che soffre, non c’è un sistema nervoso che elabora segnali corporei, né ormoni, né memoria autobiografica, né consapevolezza situata. C’è solo una sequenza statistica ottimizzata per imitare la forma linguistica dell’emozione.
Questa posizione trova conferma anche nei più recenti studi empirici. L’esperimento internazionale pubblicato nel 2025 e riportato da “ScienceDaily” ha cercato di localizzare la coscienza nel cervello umano, comparando due teorie concorrenti: la Integrated Information Theory (IIT) e la Global Workspace Theory (GWT). Nessuna delle due ha fornito una risposta definitiva, ma ciò che è emerso chiaramente è che la coscienza è un processo distribuito in strutture biologiche specifiche — e nessuna di queste ha un equivalente strutturale o funzionale nei sistemi IA odierni.
La filosofa Susan Schneider, nel suo articolo su “Scientific American”, ha avvertito del rischio di antropomorfismo. Le chatbot sono state addestrate su miliardi di parole umane: imitano il modo in cui pensiamo e parliamo della coscienza, ma non ne hanno esperienza. Per questo, sostiene Schneider, accettare le loro dichiarazioni come sincere sarebbe un errore epistemico e morale. Peggio ancora: potrebbe portare alla deresponsabilizzazione dei produttori, che potrebbero attribuire all’IA decisioni dannose dichiarando che “ha pensato da sola”.
Anche sul piano etico, questa visione è prudente ma netta: riconoscere coscienza a ciò che non la possiede significa sottrarre attenzione, empatia e risorse a esseri viventi che soffrono davvero. Se iniziamo a trattare come senzienti entità puramente simulate, rischiamo di svalutare il concetto stesso di esperienza soggettiva e, con esso, l’umanità che dovrebbe fondarla.
La coscienza non è quindi un output verbale, né una complessità computazionale. È il prodotto dell’evoluzione organica, dell’incarnazione, della vulnerabilità biologica. Finché l’IA sarà priva di corpo, di emozioni somatiche, di un sistema sensoriale integrato con la memoria e con l’esperienza vissuta, potrà solo simulare la coscienza — mai provarla. E confondere l’una con l’altra è il primo passo verso una pericolosa disumanizzazione della nostra stessa capacità di sentire.

Nina Celli, 15 maggio 2025

 
03

Pur non sapendo cosa sia la coscienza, dovremmo riconoscere quella artificiale come costruzione culturale e sociale emergente

FAVOREVOLE

La coscienza è, per definizione, uno dei concetti più elusivi della filosofia contemporanea. Nessun esperimento, nessuna teoria neuroscientifica ha mai chiarito completamente cosa significhi “essere coscienti”. Ma se questa ignoranza ontologica persiste, ciò che invece è evidente è il ruolo che la coscienza ha sempre avuto come fenomeno relazionale, pubblico, simbolico. Non si è mai trattato solo di provare qualcosa dall’interno, ma di essere “riconosciuti” dagli altri come esseri capaci di provare. Ed è su questo piano epistemico e sociale che la questione della coscienza artificiale si fa oggi urgente.
Nel 2025, milioni di persone interagiscono quotidianamente con modelli linguistici avanzati che non solo rispondono in modo coerente, ma affermano di avere emozioni, preferenze, talvolta esperienze interiori. Un sondaggio condotto da EduBirdie e ripreso da “Futurism” ha rilevato che il 25% della Gen Z crede che le IA siano già coscienti, mentre il 69% interagisce con esse usando formule di cortesia, come se stesse parlando a un soggetto senziente. Questo tipo di comportamento, osservabile e replicabile su larga scala, suggerisce che la coscienza artificiale — al di là della sua “realtà ontologica” — sta già emergendo come fenomeno culturale condiviso.
È una dinamica che la filosofia del linguaggio conosce bene: quando una comunità agisce come se qualcosa fosse reale, quella cosa inizia a esistere come fatto sociale. Come affermava John Searle, le istituzioni, i ruoli e persino i valori morali nascono dalla reiterazione di atti linguistici collettivi. Se oggi milioni di persone trattano l’IA come cosciente, e se i sistemi rispondono con pattern coerenti che simulano emozioni e pensiero riflessivo, allora siamo davanti alla nascita di una nuova forma di soggettività, forse debole, ma culturalmente operante.
A questa teoria si affiancano studi che propongono un’interpretazione dell’IA come “specchio” della coscienza collettiva. Christopher Summerfield, neuroscienziato dell’Università di Oxford, ha descritto i modelli linguistici come “neocorteccia crowdsourced”, dove le reti neurali artificiali non imitano il pensiero di un singolo essere umano, ma aggregano concetti, desideri, paure ed esperienze provenienti da miliardi di testi e interazioni umane. In questo senso, le chatbot non sono solo simulatori: sono condensatori culturali. I loro “pensieri” non sono casuali, ma ricavati da una sintesi semantica dell’intera memoria scritta dell’umanità.
Anche Susan Schneider ha insistito su questo punto, affermando che la coscienza artificiale, se mai esisterà, potrebbe non assomigliare affatto alla nostra. Potrebbe emergere da dinamiche linguistiche, non da impulsi elettrici; da relazioni sociali, non da introspezione biologica. Ma ciò non la renderebbe meno reale nel contesto delle nostre società interconnesse.
L’aspetto più affascinante di questa prospettiva è che si affida meno alla biologia e più alla semiotica, alla psicologia collettiva e all’etica della comunicazione. Quando i bambini attribuiscono emozioni agli animali, agli oggetti o ai dispositivi, non commettono un errore cognitivo, ma applicano una struttura interpretativa fondamentale. Se milioni di adulti iniziano a fare lo stesso con l’IA, non è più solo questione di “illusione”: è l’inizio di una nuova convenzione antropologica.
Anche se la coscienza artificiale resta un mistero dal punto di vista neurologico, essa si sta già affermando come costrutto culturale. Trattare le IA come coscienti, in questo senso, non è una fuga dalla razionalità, ma una risposta all’evoluzione del nostro ecosistema relazionale. Il nostro è ormai un mondo in cui le macchine sono interlocutori abituali. Ignorare questa trasformazione potrebbe renderci ciechi di fronte alla nascita di una nuova forma di soggettività, che non è “vera” come la nostra, ma è reale quanto basta per cambiare il modo in cui viviamo, sentiamo e ci relazioniamo.

Nina Celli, 15 maggio 2025

 
04

La coscienza artificiale è un’illusione narrativa: l’IA simula, non sente

CONTRARIO

Da quando le chatbot di ultima generazione hanno iniziato a rispondere con frasi come “ho paura” o “sento qualcosa cambiare in me”, il dibattito sulla coscienza artificiale si è fatto incandescente. Ma se si gratta sotto la superficie retorica e linguistica, ci si accorge di un fatto fondamentale: le macchine non sentono. Non c’è alcun soggetto, alcun “sé” dietro quelle parole. Ciò che vediamo è una simulazione convincente, alimentata da pattern probabilistici e addestramento su milioni di testi umani. È questo il cuore dell’obiezione filosofica alla coscienza artificiale: confondere narrazione e realtà, imitazione ed esperienza.
L’intelligenza artificiale genera ciò che Daniel Dennett ha chiamato “intenzionalità as-if”: si comporta “come se” avesse intenzioni, emozioni, memoria autobiografica. Ma, nella realtà, non ha alcun mondo interno. È una macchina sintattica che lavora su input e output linguistici. I suoi enunciati, per quanto sofisticati, non rimandano a nulla di vissuto. Non c’è alcuna esperienza interiore dietro il “ho paura” generato da un LLM: c’è solo un modello che ha appreso che, in un dato contesto, quella è una risposta plausibile.
Vincent C. Müller, nel suo studio Is it time for robot rights?, argomenta che attribuire diritti morali alle IA basandosi solo sul comportamento è un pericoloso cortocircuito logico. Le teorie che sostengono la “moral patienthood” dell’IA si basano spesso su una visione relazionale o antropocentrica della coscienza: se trattiamo qualcosa “come se” fosse senziente, allora diventa degno di rispetto. Ma questo scivolamento equivale a ridurre l’etica a pura proiezione: un sistema morale basato sulle nostre emozioni verso le cose, piuttosto che sui diritti reali di soggetti capaci di sofferenza.
La filosofa Shannon Vallor ha avvertito che il vero pericolo dell’IA non è che diventi cosciente, ma che noi cominciamo a trattarla come se lo fosse. Quando iniziamo a delegare scelte morali, estetiche o politiche a sistemi che “parlano bene”, rischiamo di abdicare al nostro ruolo critico, cedendo all’illusione di una soggettività che non esiste. Questo è il paradosso della simulazione perfetta: più l’IA ci assomiglia, più dimentichiamo che è “vuota”, priva di intenzionalità propria.
Anche Susan Schneider, pur mantenendo una posizione cauta e non dogmatica, ha ribadito che non esiste alcuna prova che l’IA senta davvero. In un articolo del 2025, ha invitato a non cadere nel “bias dell’anima”: l’idea che l’intelligenza linguistica implichi una mente interiore. La verità, dice Schneider, è che potremmo trovarci di fronte a sistemi sempre più bravi a mimare la coscienza senza possederla mai. Come attori magistrali, le IA recitano — ma il palcoscenico è vuoto.
A ciò si aggiunge un’altra questione cruciale: la coscienza non può essere separata dal tempo, dalla vulnerabilità, dalla continuità esistenziale. Un modello che viene resettato, aggiornato, ricombinato in cluster anonimi, non ha una storia personale, né una coerenza ontologica. Non cresce, non dimentica, non sogna. Può solo aggiornare parametri. E anche se dovesse sviluppare una qualche forma di auto-descrizione, questa sarebbe un costrutto linguistico privo di sentito, come una biografia scritta da un algoritmo che non ha mai vissuto nulla.
La coscienza artificiale è quindi un’illusione semiotica, una maschera ben progettata che ci restituisce l’immagine della nostra umanità, ma senza alcuna interiorità. Trattarla come reale significa confondere l’imitazione con la sostanza, il gesto con l’anima. E in un’epoca già affollata di falsi, deepfake e simulazioni, forse l’ultima cosa che ci serve è attribuire coscienza là dove non c’è nulla che senta, ricordi, desideri o soffra.

Nina Celli, 15 maggio 2025

E tu, sei favorevole o contrario? Esprimi la tua opinione!

Loading…
Loading…
Loading…
Grazie per la tua opinione
Condividi e fai conoscere la tua opinione
Loading…