Chi si oppone o è scettico verso la diffusione degli AV mette al primo posto la mancata maturità della tecnologia e i rischi che ne derivano. Nonostante le promesse, finora le auto a guida autonoma hanno mostrato limiti importanti nella sicurezza: i critici sostengono che affidare completamente la guida a un’intelligenza artificiale in ambienti complessi sia prematuro e potenzialmente pericoloso. Vengono citati diversi incidenti e casi di malfunzionamento che hanno coinvolto veicoli con pilota automatico, spesso con ampio risalto mediatico. Il caso emblematico è la tragedia di Elaine Herzberg (Tempe, 2018): un SUV Uber in modalità autonoma non riconobbe un pedone che attraversava la strada e lo investì mortalmente, senza che il sistema frenasse in tempo. L’NTSB rilevò che l’algoritmo di Uber aveva “disattivato” la frenata d’emergenza automatica e non era programmato per “capire” un pedone fuori dalle strisce con una bici (segnali dei punti ciechi cognitivi che un’AI può avere in situazioni non previste). Questo incidente fu un campanello d’allarme: se un team all’avanguardia come Uber ATG poteva fallire in modo così grave, significava che la tecnologia di percezione e decisione degli AV non era infallibile. Un altro episodio grave: a ottobre 2023, a San Francisco, un’auto autonoma Cruise ha trascinato per 6 metri una donna appena investita da un’altra vettura, non riconoscendo immediatamente l’ostacolo sotto le ruote. L’azienda – nonostante il suo veicolo non fosse la causa primaria dell’investimento – è stata criticata per non aver previsto uno scenario del genere e per aver gestito male l’incidente (inizialmente non segnalato accuratamente alle autorità). Questo portò le autorità della California a sospendere sine die la licenza a Cruise, segnando un freno normativo e reputazionale pesante per il settore. Anche Tesla, pur offrendo un sistema di assistenza (Autopilot/FSD) e non un’auto completamente autonoma, è al centro di controversie sulla sicurezza: secondo i dati NHTSA riportati da un gruppo di familiari di vittime, dal 2019 ci sono stati oltre 1.800 incidenti e decine di morti in USA mentre si usavano i sistemi Tesla di guida assistita. Questi numeri alimentano l’argomento che la tecnologia attuale, specie in mano ai consumatori, non è sufficientemente robusta da prevenire comportamenti pericolosi o errori fatali. I detrattori segnalano che le AI di guida faticano ancora in situazioni complesse e poco strutturate: incroci affollati con pedoni indisciplinati, lavori in corso non mappati, eventi improvvisi come oggetti che cadono in strada. In tali casi spesso intervengono i “safety driver” (nei test) per evitare incidenti, ma in un futuro scenario senza supervisore umano ci si chiede se l’auto riuscirà sempre a cavarsela. “Abbiamo visto cosa significa davvero la guida automatizzata – è pericolosa, disastrosa e nettamente inferiore a un conducente umano altamente addestrato”, ha dichiarato un rappresentante dei Teamsters riportando l’esperienza dai test in California. Questa frase riassume il sentiment di chi è contro: oggi un bravo autista umano è ancora migliore di un’AI, e forzare la transizione ora metterebbe in pericolo il pubblico. Un rapporto dell’Associazione Governativa per la Sicurezza Stradale (GHSA) evidenzia che, qualora gli AV iniziassero a circolare insieme agli umani, bisognerà gestire con estrema attenzione il “mix” perché “ci vorranno decenni prima che tutti i veicoli in strada siano autonomi, se mai accadrà, e fino ad allora gli AV dovranno condividere la strada in sicurezza con i guidatori tradizionali”. In altre parole, finché la penetrazione sarà bassa, il vantaggio netto sulla sicurezza potrebbe non manifestarsi, anzi potrebbero sorgere nuovi rischi dall’interazione tra auto robot e umane (si pensi a un umano che fa manovre spericolate confidando che l’AV vicino frenerà comunque). Va anche considerato che gli AV attuali spesso si bloccano o esitano in situazioni ambigue, causando incidenti indiretti: a San Francisco non sono rari i casi di robotaxi fermi in mezzo alla carreggiata per eccesso di prudenza, creando intralcio e tamponamenti. Dunque, i critici affermano che prima di poter dichiarare “più sicure” le self-driving car, serve perfezionare notevolmente algoritmi e sensori, altrimenti si rischia di sostituire incidenti da errore umano con incidenti da errore del software. E quando un incidente avviene per colpa di una macchina, si crea anche un problema di fiducia pubblica: studi psicologici mostrano che le persone tendono a incolpare molto di più un’auto robot che un umano per un incidente identico, il che può portare a reazioni sociali e regolatorie drastiche (come il già citato ritiro dei permessi a Cruise). In sintesi, questa tesi sostiene che la tecnologia AV non è ancora affidabile al 100%, ma la sicurezza stradale richiede uno standard vicinissimo alla perfezione se si vuole togliere completamente il controllo umano. Finché non si raggiungerà quel livello (e potrebbe volerci più tempo del previsto), l’introduzione precipitosa di veicoli autonomi su strade aperte è vista come un azzardo inaccettabile con vite umane in gioco. Meglio mantenere i guidatori umani, con tutti i loro difetti, ma almeno dotati di buon senso e improvvisazione, piuttosto che delegare troppo presto a un’intelligenza artificiale che potrebbe non capire un imprevisto e causare tragedie.
Nina Celli, 31 ottobre 2025