Oltre ai dubbi sulle performance tecniche, gli oppositori mettono in luce le problematiche etiche e legali irrisolte legate alla guida autonoma. Un classico esempio è il cosiddetto trolley problem applicato alle auto: se un incidente è inevitabile, come dovrebbe programmare il veicolo le proprie azioni? Dovrebbe sbandare mettendo a rischio il suo passeggero per salvare più pedoni? Oppure tutelare sempre gli occupanti a scapito di terzi? Questa scelta, di carattere morale, sarebbe presa dall’algoritmo del veicolo al posto di un essere umano, sollevando questioni di responsabilità: chi è eticamente e giuridicamente colpevole in tali frangenti? Attualmente, non c’è consenso su come risolvere questi dilemmi: alcune linee guida (come quelle di una commissione etica in Germania nel 2017) suggeriscono che la macchina non dovrebbe mai discriminare tra persone (non “scegliere” di colpire un anziano invece di un bambino, ad esempio), ma in pratica programmare un’IA per situazioni estreme è difficilissimo e qualunque scelta farà potrebbe essere giudicata inaccettabile a posteriori dall’opinione pubblica. Questo porta al secondo punto: il quadro normativo e assicurativo è incompleto. In caso di incidente con un’auto autonoma, le attuali leggi faticano a individuare il responsabile: il proprietario del veicolo? Il produttore dell’auto? Lo sviluppatore del software? L’operatore remoto (se presente)? Nei pochi casi finora occorsi, spesso la colpa è ricaduta su un umano ausiliario – ad esempio la backup driver di Uber nel 2018 è stata perseguita penalmente, mentre Uber come azienda non ha avuto imputazioni. Ma con veicoli pienamente autonomi (senza più un addetto al monitoraggio), questa scorciatoia non reggerà e serviranno nuove leggi. Il Regno Unito nel 2024 ha emanato norme che trasferiscono la responsabilità primaria alle assicurazioni (che poi potranno rivalersi sul produttore) e altre giurisdizioni stanno sperimentando approcci simili. Tuttavia, resta molta incertezza, specie in ambito penale: se un’auto robot causa un morto per un bug, si può incriminare una società? O il programmatore? E con quale accusa – negligenza, omicidio colposo tecnologico? Queste questioni non sono affatto risolte e i critici avvertono che l’assenza di regole chiare rischia di lasciare le vittime in un limbo e minare la fiducia del pubblico. Un terzo aspetto è il bias con cui la società potrebbe trattare gli incidenti degli AV. Ricerche mostrano che la gente tende a dare la colpa al veicolo autonomo anche quando non ha colpa, immaginando che “un umano avrebbe evitato l’incidente”. Ciò significa che produttori e operatori di AV potrebbero trovarsi sommersi da cause legali e richieste di risarcimento ogni volta che accade qualcosa, anche ingiustamente. Questo scenario si sta già profilando: famiglie di vittime di crash con Teslapilot hanno scritto al governo USA denunciando di temere un indebolimento della supervisione NHTSA sotto le pressioni di Elon Musk e snocciolando i dati di incidentalità dei sistemi Tesla. Queste famiglie chiedono di mantenere obblighi stringenti sulle segnalazioni e le responsabilità per i costruttori, perché temono che diversamente la sicurezza pubblica verrebbe sacrificata. Il fatto stesso che un gruppo di cittadini debba appellarsi così al regolatore indica che le regole attuali non sono considerate sufficienti a tutelare utenti e vittime. Inoltre, più concretamente, finché la guida autonoma convivrà con quella tradizionale, sorgono problemi legali inediti: ad esempio, se un’auto autonoma commette un’infrazione al codice, chi paga la multa? Diversi Paesi stanno aggiornando i codici della strada per prevedere queste eventualità. In Francia e Italia, per ora, si richiede che ci sia sempre un responsabile umano pronto a intervenire durante i test, proprio per avere un riferimento giuridico. Ma quando la transizione avanzerà verso veicoli senza volante né pedali, servirà un impianto normativo del tutto nuovo. I critici sottolineano che non siamo pronti: le leggi avanzano molto più lentamente della tecnologia e l’introduzione massiccia di auto robot con lacune legislative aprirebbe un periodo di conflitti legali e vuoti di responsabilità assai pericoloso. Anche sul fronte etico-filosofico, la società non ha ancora dibattuto abbastanza: si è disposti ad accettare che una macchina prenda decisioni di vita o di morte in caso di emergenza? Ad oggi, molte persone risponderebbero di no, e alcuni sondaggi indicano che 87% degli americani vuole obbligatoriamente un umano a bordo dei veicoli autonomi come supervisore. In definitiva, mancano ancora sia il consenso sociale che gli strumenti giuridici per gestire un mondo di automobili senza conducente. Lanciarvisi senza aver prima risolto questi dilemmi significherebbe creare un far west normativo e mettere a repentaglio principi etici fondamentali, oltre che lasciare potenzialmente senza giustizia le vittime di eventuali malfunzionamenti.
Nina Celli, 31 ottobre 2025