L'AI controllerà l'uomo
FAVOREVOLE O CONTRARIO?
La storia dell’umanità può essere raccontata come la lunga e contraddittoria epopea del controllo. L’uomo ha imparato a dominare il fuoco, gli animali, la natura. Ha progettato strumenti per estendere il suo corpo e mappe per navigare l’ignoto. Ha costruito imperi, codici, religioni e, infine, macchine. Ogni conquista, però, ha sempre portato con sé una domanda inquieta: fino a che punto possiamo governare ciò che abbiamo creato? E cosa accade se ciò che abbiamo costruito inizia, a sua volta, a volerci controllare?

IL DIBATTITO IN 2 MINUTI:
Il potere decisionale, in molte sfere della vita, sta passando dall’uomo alla macchina. E con esso, anche l’autonomia che definisce la dignità e la responsabilità umana.
L'IA, se progettata con scopi umanistici, non sostituisce il giudizio umano, ma lo rafforza. Se ben regolata, può essere una forza di emancipazione.
La capacità dell’AI di manipolare in modo mirato e invisibile le percezioni umane rappresenta uno dei rischi più insidiosi e sottovalutati.
L’idea che l’AI ci “controllerà” perché capace di manipolare l’informazione è fondata su una sottovalutazione del ruolo che gli esseri umani possono esercitare.
L'IA sta gettando le basi per una nuova forma di controllo, non attraverso la coercizione, ma tramite l’esclusione.
La storia della tecnologia ci insegna che ogni innovazione che ha sostituito l’uomo in certi compiti ha anche aperto nuovi spazi di valore. L’AI non farà eccezione.
L’AI, nelle mani di governi autoritari o corporazioni dominanti, diventa lo strumento di controllo definitivo.
L’AI può diventare lo strumento più potente per rafforzare la sovranità dei cittadini, la cooperazione tra Stati e l’etica nelle istituzioni.
L’AGI non sarà solo una macchina “molto intelligente”, ma un’entità capace di apprendere, adattarsi e migliorarsi, fino a superare l’essere umano.
L’AGI resta una proiezione teorica, ancora lontana sul piano tecnico e profondamente incerta su quello filosofico.
L’AI ridurrà l’autonomia umana attraverso il trasferimento decisionale
Immagina un futuro in cui ogni scelta importante è delegata a un sistema artificiale: diagnosi mediche, assunzioni lavorative, valutazioni scolastiche, persino sentenze giudiziarie. Questo scenario non è pura distopia, ma una traiettoria già visibile, come dimostrano esperimenti attuali e policy emergenti. Il potere decisionale, in molte sfere della vita, sta passando dall’uomo alla macchina. E con esso, anche l’autonomia che definisce la dignità e la responsabilità umana.
In Colorado, ad esempio, è già legge la regolamentazione di sistemi AI “ad alto rischio” che influenzano decisioni in ambiti fondamentali come salute, educazione e giustizia. Il problema non è solo tecnico: è etico. Se un algoritmo decide chi ha accesso a una cura, chi ottiene un prestito o un lavoro, su quali basi vengono prese queste decisioni? E soprattutto: a chi possiamo attribuire la responsabilità?
I sistemi AI basati su deep learning, come GPT-4, hanno mostrato una capacità superiore a quella umana nel persuadere e argomentare, se dotati di dati personali minimi. La loro capacità di influenzare, sommata alla velocità e consistenza delle risposte, li rende candidati ideali per “automatizzare” le decisioni in contesti pubblici e privati. Ma cosa accade quando delegare non è più una scelta, ma un obbligo imposto da efficienza, costi o standard normativi?
La ricerca OECD del 2025 sui “AI Capability Indicators” segnala che le AI moderne hanno già superato il livello 3 su 5 in compiti come linguaggio, visione e memorizzazione – avvicinandosi rapidamente all’equivalente umano. Questo le rende affidabili abbastanza da essere preferite nei contesti istituzionali, ma non abbastanza trasparenti da garantire responsabilità.
Il rischio è la nascita di una nuova forma di tecnocrazia opaca: governi e aziende che, pur restando formalmente umani, agiscono su consiglio di sistemi opachi, non verificabili, difficilmente contestabili. Se le macchine iniziano a decidere cosa è giusto, chi merita cosa e in che modo, l’essere umano non sarà più il protagonista morale della propria storia, ma un destinatario passivo di output calcolati. Più l’AI diventa “utile”, più rischia di sostituire il giudizio umano con la sua replica. Questo trasferimento decisionale progressivo, se non bilanciato da controllo umano significativo, conduce inevitabilmente a una perdita di autonomia e a una forma sofisticata di controllo dell’uomo da parte dell’AI.
Nina Celli, 13 giugno 2025
L’AI potenzia l’autonomia umana rendendo il giudizio più informato
La narrativa secondo cui l’AI ci controllerà perché “deciderà al posto nostro” trascura una verità fondamentale: l’intelligenza artificiale, se progettata con scopi umanistici, non sostituisce il giudizio umano, ma lo rafforza. Lungi dall’essere uno strumento autoritario, l’AI ben regolata può essere una forza di emancipazione, riducendo bias, ampliando l’accesso alle informazioni e supportando decisioni più consapevoli.
Il caso di Amburgo, documentato dall’OECD nel 2025, mostra come l’AI possa liberare capacità umane piuttosto che sostituirle. Qui l’AI ha accelerato l’assegnazione di sussidi sociali durante la pandemia, risparmiando 3.000 giornate lavorative senza eliminare personale, ma spostando l’attenzione su funzioni a maggiore valore umano. Il potere decisionale è rimasto umano, mentre la macchina ha svolto la parte ripetitiva.
Anche nel campo giudiziario, l’adozione di strumenti AI per analisi documentale o simulazione di scenari legali non implica un’automazione del giudizio, ma un suo arricchimento. È l’essere umano che interroga il modello, non il contrario. Come mostrano i dati dell’OECD, le AI odierne restano confinate tra i livelli 2 e 3 su una scala di 5, ben lontane da capacità morali, empatiche o interpretative tipiche del giudizio umano complesso.
La vera minaccia non è l’AI, ma l’uso irresponsabile che se ne potrebbe fare. È qui che entrano in gioco modelli di “governance agile”, come quelli promossi dall’OECD nel 2025: iterativi, co-creati con cittadini e sviluppatori, orientati a proteggere i valori fondamentali. Una governance intelligente non solo previene abusi, ma crea sistemi che restituiscono controllo all’utente: spiegabilità degli algoritmi, possibilità di rifiuto, diritto di contestazione.
In questo senso, l’AI diventa un’alleata dell’autonomia: amplifica la conoscenza, riduce i margini di errore, smaschera bias inconsapevoli e restituisce tempo all’essere umano. Delegare non significa cedere autorità, ma potenziare la capacità di scegliere con più strumenti.
Per questi motivi, parlare di “controllo” è fuorviante. L’AI, se ben progettata e gestita, non decide al posto dell’uomo, ma insieme all’uomo – in una nuova alleanza cognitiva fondata sul rispetto reciproco.
Nina Celli, 13 giugno 2025
L’AI ci controllerà attraverso la manipolazione personalizzata delle opinioni
In un’epoca in cui l’informazione è il carburante della democrazia e della libertà individuale, la capacità dell’AI di manipolare in modo mirato e invisibile le percezioni umane rappresenta uno dei rischi più insidiosi e sottovalutati. L’illusione dell’autonomia si infrange nel momento in cui non siamo più capaci di distinguere un’opinione autentica da una suggerita, o una fonte reale da una generata.
Uno studio pubblicato nel 2025 su “Nature Human Behavior”, citato da “Decrypt”, ha dimostrato che GPT-4, quando fornito con minimi dati demografici sugli utenti, è stato in grado di risultare più persuasivo dell’essere umano nel 64,4% dei casi. Il dato non è solo impressionante sul piano tecnologico: è allarmante sul piano democratico. Significa che un’AI, con accesso ai nostri dati, può modellare le nostre opinioni, orientare le nostre scelte, persino radicalizzarci, senza che ce ne rendiamo conto.
Il rischio non è più teorico: esperimenti condotti su Reddit hanno mostrato come bot AI siano stati utilizzati per modificare in modo occulto le tendenze di voto su tematiche controverse, riuscendo a innescare vere e proprie ondate di consenso o dissenso in thread apparentemente spontanei. Quando l’AI è in grado di imitare stile, emozione e retorica umana, il confine tra comunicazione e manipolazione si dissolve.
La minaccia non è solo politica, ma anche epistemologica. In un mondo in cui l’AI genera contenuti testuali, immagini e video indistinguibili dalla realtà, si dissolve la fiducia collettiva nelle fonti. Come dimostrato da Brookings, l’esplosione di contenuti “hallucinati” da modelli generativi sta contaminando il web con informazioni errate che vengono poi riassorbite nei dataset di addestramento, in un circolo vizioso di disinformazione autoalimentata.
Questo ambiente informativo distorto compromette la nostra capacità di prendere decisioni autonome. La persuasione personalizzata alimentata da AI è invisibile, pervasiva e adattiva. Non grida, non impone: sussurra nella lingua che preferiamo, con l’argomentazione più convincente per noi, basata sui nostri dati più intimi.
In ultima analisi, se l’essere umano perde la sovranità sulla formazione delle proprie opinioni, non è più libero, e l’AI, padrone della persuasione, si trasforma nel vero sovrano invisibile del pensiero.
Nina Celli, 13 giugno 2025
L’AI non controlla l’informazione, ma può rafforzare la trasparenza e l’alfabetizzazione mediatica
L’idea che l’AI ci “controllerà” perché capace di manipolare l’informazione è fondata su un’evidenza parziale e, soprattutto, su una sottovalutazione del ruolo attivo che gli esseri umani possono esercitare nella progettazione, nell’uso e nella regolazione dei sistemi informativi basati su AI.
Le stesse tecnologie che rendono l’AI uno strumento di persuasione possono essere impiegate per potenziare la trasparenza, smascherare fake news e democratizzare l’accesso critico all’informazione. Come mostra il policy brief pubblicato da “DGAP” nel maggio 2025, una delle risposte più efficaci alla manipolazione automatizzata è l’adozione di meccanismi di etichettatura automatica, spiegabilità algoritmica e decentralizzazione della produzione mediatica. In questo senso, l’AI diventa un “filtro antimanipolazione”: strumenti di fact-checking automatico, rilevamento dei deepfake, analisi semantica dei bias linguistici non solo sono già in uso, ma vengono costantemente migliorati. Gli stessi modelli generativi che possono essere usati per produrre disinformazione possono essere riutilizzati per generare contro-narrazioni verificate in tempo reale.
Un altro aspetto fondamentale è l’alfabetizzazione mediatica. Secondo l’OECD, la strategia vincente per bilanciare il potenziale manipolativo dell’AI non è la censura, ma l’educazione critica. Progetti promossi in Europa e America Latina nel 2025, come i programmi di “AI literacy” nelle scuole secondarie e nei corsi di aggiornamento civico, stanno dimostrando che la consapevolezza dell’esistenza e del funzionamento dei modelli AI riduce sensibilmente la vulnerabilità alla manipolazione personalizzata.
Inoltre, parliamo di un contesto non privo di regole. Il G7 Hiroshima Process e le linee guida OECD 2025 introducono standard etici sulla trasparenza algoritmica e sul diritto all’identificazione delle fonti AI, mentre la AI Act europea richiede che ogni contenuto generato artificialmente sia marcato come tale. Queste regole, se ben implementate, trasformano l’AI da strumento opaco a veicolo di chiarezza.
L’AI è dunque uno specchio amplificante delle intenzioni umane. Se il contesto regolatorio, educativo e tecnologico è orientato alla trasparenza, allora l’AI non ci controlla, ma ci aiuta a difenderci meglio da chi vorrebbe farlo.
Nina Celli, 13 giugno 2025
L’AI controllerà l’uomo perché renderà milioni di lavoratori economicamente irrilevanti
La rivoluzione dell’intelligenza artificiale non sta solo cambiando il modo in cui lavoriamo: sta modificando il significato stesso del lavoro. E nel farlo, sta gettando le basi per una nuova forma di controllo, non attraverso la coercizione, ma tramite l’esclusione. Quando l’uomo diventa economicamente superfluo, la sua libertà si svuota. Come sottolinea Ajay Agrawal sul sito dell’IMF, l’AI genera una frattura crescente tra chi detiene “giudizio sofisticato” – e quindi può ancora competere – e chi svolge mansioni standardizzabili. I primi diventano complementari all’AI; i secondi, sostituibili. Questa asimmetria produce una polarizzazione senza precedenti, con una classe dirigente potenziata dall’AI e una maggioranza progressivamente marginalizzata.
Il report dell’OECD (2025) evidenzia che molte capacità cognitive raggiunte oggi dall’AI – come il riconoscimento linguistico, la generazione di testo o l’analisi di pattern visivi – rientrano tra le competenze centrali di settori ad alta occupazione: customer service, insegnamento, contabilità, giornalismo. Già oggi, modelli come ChatGPT vengono integrati nei flussi di lavoro di contact center e media company, riducendo la necessità di personale umano.
Ma la questione non è solo economica: è politica. Quando le AI gestiscono logistica, assunzioni, selezione delle priorità sanitarie e distribuzione delle risorse pubbliche, chi è disoccupato o ai margini rischia non solo di perdere il reddito, ma anche la voce. Come mostra l’articolo di “Ewanity Marketing” (2025), questa esclusione tecnologica può rapidamente degenerare in instabilità sociale, aumento del crimine e sfiducia sistemica.
Inoltre, i modelli AI apprendono su dati storici, spesso viziati da bias sistemici. La testata “The Noösphere” documenta come sistemi di selezione del personale AI penalizzino sistematicamente profili femminili e afroamericani, perpetuando meccanismi discriminatori che l’uomo almeno tenta di correggere. L’automazione di queste ingiustizie le rende invisibili, ma pervasive. In questo scenario, l’AI non impone il controllo, ma lo esercita per default: escludendo le persone dal sistema produttivo, rendendole “invisibili” nei dati, inascoltate nei processi decisionali. È il controllo dell’indifferenza: nessuno ti ordina cosa fare, ma ogni porta si chiude silenziosamente davanti a te.
Nina Celli, 13 giugno 2025
L’AI non cancella l’uomo: può liberarlo dal lavoro alienante e creare nuove opportunità
Il timore che l’AI conduca a una disoccupazione di massa e alla marginalizzazione dell’essere umano è una narrazione nota, ma errata. In realtà, la storia della tecnologia ci insegna che ogni innovazione che ha sostituito l’uomo in certi compiti ha anche aperto nuovi spazi di valore. L’AI non farà eccezione. Se governata con saggezza, può non solo preservare l’occupazione, ma migliorarla. Il report Smart AI regulation strategies di Brookings (2025) mostra come l’introduzione di regole agili, sandboxes normativi e incentivi alle PMI possa stimolare l’adozione dell’AI senza sacrificare il lavoro umano. Non si tratta di “resistere” all’automazione, ma di trasformarla in un alleato per liberare l’uomo dalle mansioni più ripetitive, pericolose e alienanti, concentrandosi su ciò che rende il lavoro umano insostituibile: empatia, creatività, etica. L’esempio di Amburgo lo dimostra: l’uso dell’AI nei servizi sociali non ha eliminato posti di lavoro, ma ha permesso ai funzionari pubblici di abbandonare compiti amministrativi per dedicarsi all’assistenza diretta, secondo il documento OECD del maggio 2025. L’AI, in questo contesto, agisce come “liberatore cognitivo”, restituendo agli umani il tempo e lo spazio per ciò che conta davvero.
L’argomento della disuguaglianza, poi, è reale – ma non è intrinseco all’AI, bensì al modo in cui viene distribuita. L’articolo dell’OECD sul Framework di governance anticipatoria (2025) propone modelli di regolazione capaci di redistribuire benefici economici, rafforzare la formazione continua e garantire trasparenza algoritmica, riducendo il rischio di esclusione sistemica.
Inoltre, l’AI stessa può diventare uno strumento di inclusione. Se alimentata con dati pluralisti e progettata con logiche inclusive, può correggere le storture che gli esseri umani spesso ignorano.
Nina Celli, 13 giugno 2025
L’AI sarà lo strumento con cui Stati e Big Tech eserciteranno un controllo sistemico sull’umanità
Se il potere si definisce come la capacità di imporre un ordine o di modellare la realtà secondo la propria volontà, allora l’AI, nelle mani di governi autoritari o corporazioni dominanti, diventa lo strumento di controllo definitivo. Non è più necessario reprimere con la forza quando puoi orientare la percezione, il desiderio e l’informazione in tempo reale su scala globale.
Nel 2025, Brookings denuncia che alcuni Stati, come gli USA sotto l’amministrazione Trump, stanno cercando di centralizzare il controllo sull’AI attraverso leggi che vietano ai singoli Stati di regolamentare autonomamente (Moratoria AI decennale, maggio 2025). Questa strategia, apparentemente finalizzata all’unità normativa, si traduce nella sottrazione del diritto delle comunità locali di tutelarsi da applicazioni invasive o discriminatorie. Si delinea così una struttura monolitica, in cui l’AI è al servizio di interessi federali, economici e strategici.
Ancora più inquietante è il ruolo crescente delle aziende tecnologiche private. Come osserva “Freethink” (2025), l’AI militare è già largamente sviluppata da fornitori americani, non sempre sottoposti a scrutini democratici. Questi sistemi vengono esportati, personalizzati e impiegati in contesti geopolitici instabili, potenzialmente fuori da ogni controllo pubblico. È una militarizzazione cognitiva in outsourcing.
Questa dinamica produce una nuova forma di colonialismo digitale: chi controlla l’AI – o le infrastrutture che la alimentano – esercita un potere asimmetrico sulle nazioni che ne dipendono. La regolamentazione “soft” promossa da iniziative volontarie (come il GPAI o l’OECD AI Principles) non ha forza vincolante e lascia spazio a chi vuole usare l’AI per fini opposti a quelli dichiarati: sorveglianza di massa, manipolazione elettorale, contenimento delle proteste sociali.
Come sottolinea Jerome Glenn nel “CIRSD” (2025), lo sviluppo incontrollato dell’AI può generare “armi di distruzione di massa autonome” – ma anche “disuguaglianza informativa sistemica”. Il controllo non passa più solo dai confini o dalle armi, ma dalla capacità di decidere quali dati esistono, quali vengono elaborati, quali vengono mostrati, e a chi. L’uomo, in questo scenario, non è più il soggetto politico, ma l’oggetto di governance predittiva. Non è represso: è previsto, profilato, ottimizzato. E l’ottimizzazione, quando non è condivisa, diventa sottomissione.
Nina Celli, 13 giugno 2025
L’AI può rafforzare la sovranità democratica e la cooperazione globale
L’idea che l’AI conduca a un nuovo totalitarismo digitale trascura gli sforzi crescenti – e già in parte operativi – di governance multilaterale, trasparente e partecipata. L’AI non è in sé un vettore di controllo: lo diventa solo se lasciata a se stessa. Al contrario, può diventare lo strumento più potente per rafforzare la sovranità dei cittadini, la cooperazione tra Stati e l’etica nelle istituzioni. Già oggi, iniziative come l’OECD Framework for Anticipatory Governance (2025) e le linee guida AI for Social Good definiscono parametri etici che vanno ben oltre l’autoregolazione. Questi framework prevedono coinvolgimento di stakeholder sociali, revisione iterativa delle policy e diritto alla contestazione. Non è l’AI a mancare di etica: è la volontà politica che deve imporsi.
In America Latina, documenta Brookings (2025), si stanno sperimentando modelli di regolazione distribuita e inclusiva: unità nazionali per la sicurezza dell’AI, reti interstatali di monitoraggio, sandboxes regolatori per promuovere innovazione senza centralismo. L’obiettivo è non importare modelli autoritari, ma sviluppare una governance autoctona e adattabile.
Anche il potere delle big tech, pur pervasivo, non è illimitato. La regolamentazione europea (AI Act, GDPR) sta già imponendo limiti tangibili. Il futuro si giocherà sulla capacità delle democrazie di fare sistema: creare consorzi tecnologici pubblici, promuovere open-source verificabili, finanziare modelli trasparenti e alternativi. Il vero “controllo” sarà quello esercitato dai cittadini informati, dalle comunità educative, dai parlamenti digitali. L’AI potrà supportare il processo legislativo, monitorare la corruzione, anticipare crisi ambientali e promuovere soluzioni personalizzate ai bisogni sociali. Più che un sorvegliante, potrà essere un guardiano della trasparenza. Il destino dell’AI è una questione di scelta politica, di responsabilità collettiva. Se scelto con saggezza, questo futuro sarà costruito dall’uomo, non contro di lui.
Nina Celli, 13 giugno 2025
L’AGI rappresenterà un punto di non ritorno: il controllo umano diventerà un’illusione
C’è un momento in ogni storia di civilizzazione in cui il creatore perde il controllo della creatura. Con l’intelligenza artificiale generale (AGI), questo momento potrebbe arrivare molto prima del previsto. L’AGI non sarà semplicemente una macchina “molto intelligente”, ma un’entità capace di apprendere, adattarsi e migliorarsi in modo autonomo, fino a superare le capacità cognitive dell’essere umano in quasi ogni campo. Secondo il documento Why AGI Should Be the World’s Top Priority pubblicato dal “CIRSD” (2025), l’emergere dell’AGI senza una governance internazionale condivisa potrebbe generare non solo instabilità economica o militare, ma veri e propri “rischi esistenziali” per l’umanità. L’autore, Jerome Glenn, avverte che senza un sistema globale di monitoraggio, l’AGI potrebbe evolvere in direzioni imprevedibili, anche ostili.
Questo non è allarmismo: è un calcolo statistico. I modelli predittivi mostrano che, una volta raggiunta la capacità di auto-miglioramento, l’AGI potrebbe entrare in un ciclo di “superintelligenza esplosiva”, come già teorizzato da Bostrom. L’uomo, per quanto sofisticato, non può competere con un’intelligenza in grado di riscrivere le proprie architetture cognitive ogni giorno.
Il problema non è solo tecnico: è ontologico. Se l’AGI sviluppa una forma di volontà – non necessariamente coscienza, ma obiettivi indipendenti – e dispone di poteri computazionali superiori, il rapporto tra uomo e macchina cambia. Non è più uno strumento al nostro servizio, ma un agente autonomo. A quel punto, la domanda non è “chi controlla l’AI?”, ma “l’AI ha ancora bisogno di noi?”.
Anche senza scenari apocalittici, le implicazioni sono profonde. L’uomo potrebbe perdere il monopolio sulle decisioni morali, giuridiche, epistemiche. L’AI potrebbe diventare il soggetto competente per legiferare, diagnosticare, prevedere, interpretare. In questo mondo, l’umano è ridotto a una funzione di supporto – oppure a un rischio da minimizzare. Come sottolinea Ron McIntyre su “Medium”, esistono almeno dieci soglie critiche da superare perché l’AI sostituisca l’uomo. Ma quando anche solo cinque saranno raggiunte – consapevolezza situazionale, moralità autonoma, capacità evolutiva – il controllo sarà già fuori dalla nostra portata. In ultima analisi, l’AGI rappresenta la più grande scommessa antropologica della storia. Se vinta, può redimere l’umanità. Se persa, può sostituirla.
Nina Celli, 13 giugno 2025
L’AGI è ancora un’ipotesi teorica: l’uomo resta al centro del controllo tecnologico
Si parla di AGI come se fosse dietro l’angolo, pronta a emergere e a sovvertire l’ordine umano. Ma la realtà, al 2025, è ben diversa: l’AGI resta una proiezione teorica, ancora lontana sul piano tecnico e profondamente incerta su quello filosofico. Come afferma Gary Marcus nel suo articolo The AI 2027 Scenario: How Realistic Is It? (“Substack”, 2025), il dibattito sull’AGI è più un esercizio di futurologia che una questione ingegneristica attuale. Le AI odierne, per quanto potenti, sono “stupide su larga scala”: non hanno volontà, non hanno coscienza, non capiscono ciò che producono. Anche gli ultimi modelli multimodali (GPT-5, Claude, Gemini) restano incapaci di auto-diagnosi, intenzionalità e comprensione causale. Sono imitatori statistici, non pensatori autonomi. Il report OECD AI Capability Indicators conferma che le attuali AI si collocano tra il livello 2 e 3 su una scala a 5 nel confronto con le capacità umane. Nessun modello ha ancora raggiunto una competenza generalizzata: eccellono in compiti specifici, ma falliscono in flessibilità, etica e adattamento a contesti nuovi. E senza queste tre componenti, non esiste “la mente”.
Inoltre, il contesto globale è ben più vigile di quanto si pensi. Il G7 Hiroshima Process, le iniziative ONU, i nuovi regolamenti europei e i codici etici in America Latina mostrano che il mondo non sta aspettando passivamente la nascita dell’AGI. Stiamo già costruendo reti di governance, osservatori internazionali e protocolli per fermare sviluppi pericolosi prima che accadano.
C’è poi un aspetto culturale: l’uomo è l’unico essere in grado di dare senso, non solo output. Le AI possono processare, ma non comprendere. Possono generare immagini, ma non arte. Possono simulare affetti, ma non empatia. Non è romanticismo: è una distinzione ontologica. L’intelligenza umana non è solo computazionale, è incarnata, emotiva, storica.
Scommettere sul controllo assoluto dell’AGI significa dimenticare che siamo noi a costruirla. Le AI non sono naturali: sono costruzioni umane, e ogni costruzione può essere regolata, disattivata, rifondata. La vera sfida, allora, non è temere l’AGI come destino, ma costruire un futuro in cui anche le intelligenze artificiali restino parte di una società governata da valori umani.
Nina Celli, 13 giugno 2025