Un ulteriore argomento pro-ban sposta l’attenzione dai minori alle aziende tecnologiche, ritenute finora inadempienti nella tutela dei più giovani. Il divieto under-16 è visto come un modo per costringere i social network a cambiare condotta: se vogliono evitare di perdere utenti e incorrere in multe salate, dovranno implementare serie misure di verifica e protezione, investendo in soluzioni che finora hanno evitato per non intaccare i profitti. “I social hanno uno scopo, ma devono anche avere un dovere di cura verso i ragazzi online, ed è ciò che questa legge impone”, ha dichiarato la ministra Wells. In pratica, la norma assegna alle piattaforme una responsabilità legale diretta sul mantenere i minori fuori dai loro servizi: non possono più nascondersi dietro la scusa “vietato ai minori di 13 anni” nei Termini d’Uso (clausola aggirata su larga scala), ma devono attivamente scovare ed eliminare gli under-16, o ne pagheranno le conseguenze. Questo obbligo ha già provocato un cambio di passo: colossi come Meta e Snapchat hanno dovuto implementare tecnologie avanzate (IA di stima dell’età, partnership con servizi di verifica) e rimuovere centinaia di migliaia di account di ragazzi. In sostanza, il governo australiano – e chi ne sostiene l’azione – manda il segnale che “l’era del Far West digitale è finita”: le Big Tech vanno regolamentate e richiamate alla loro responsabilità sociale, specialmente verso gli utenti più vulnerabili: i minori. Questa filosofia è in linea con altre iniziative australiane degli ultimi anni (il News Media Bargaining Code per far pagare le news ai tech, le leggi contro i contenuti illegali online ecc.). Nel caso specifico del ban under-16, i fautori puntano il dito contro le pratiche predatorie delle piattaforme: algoritmi deliberatamente progettati per massimizzare il tempo di schermo, notifiche e feed infiniti che creano dipendenza (la cosiddetta economia dell’attenzione). La ministra Wells, in un discorso pubblico, ha citato un creatore di funzioni social definendo questi algoritmi “cocaina comportamentale” usata per tenere i ragazzi incollati allo schermo. Documenti interni emersi in una causa legale californiana – ricordati da Wells stessa – mostrerebbero che società come Meta e TikTok sanno bene che i loro prodotti possono essere pericolosi per i minori, ma hanno sistematicamente ignorato o bloccato le proposte di migliorarne la sicurezza per non diminuire l’engagement dei teen (e i ricavi pubblicitari associati). Ad esempio, dipendenti Meta suggerirono varie funzioni di mitigazione del rischio, ma i dirigenti le bocciarono temendo un calo del coinvolgimento dei ragazzi; dirigenti Snap hanno ammesso che utenti adolescenti “totalmente dipendenti da Snapchat non hanno spazio per nient’altro nella vita”. Perfino YouTube sapeva internamente che puntare a “più uso quotidiano non era compatibile col benessere digitale”, ma non vi ha rinunciato. Queste rivelazioni – sottolineano i sostenitori del ban – smascherano l’ipocrisia delle Big Tech e giustificano interventi drastici: “Le compagnie hanno guadagnato miliardi sulle famiglie australiane perché restiamo anche solo due secondi in più a guardare un video… Dal 10 dicembre iniziamo a riprenderci quel potere per i giovani australiani”, ha scandito Wells. Dunque, anziché aspettarsi che siano i ragazzini o i genitori a “vincere” contro sistemi progettati per essere irresistibili, lo Stato sposta la pressione su chi quei sistemi li gestisce: se i social non sanno rendersi sicuri per i minori, allora i minori non ci devono stare. Questa impostazione ribalta l’onere della protezione e, secondo i favorevoli, “spinge i colossi hi-tech a trovare soluzioni che finora non avevano incentivo a sviluppare”. Non a caso, la legge australiana non prescrive come fare: lascia che siano le aziende a escogitare i migliori metodi per rispettarla – in pratica, le sfida a investire in innovazione etica. La Commissaria Inman Grant ha pubblicamente dichiarato: “Con le linee guida di oggi, non c’è scusa per la non conformità”, segnalando che il governo si attende creatività e serietà dalle piattaforme nel mettere in atto controlli efficaci. Insomma, il ban funge anche da leva regolatoria: costringe le società digitali a implementare su larga scala tecnologie di age verification e nuove policy di moderazione che potrebbero stabilire best practice replicabili altrove. Alcuni osservatori notano che i big di internet temono l’effetto a cascata: se questo modello prende piede, perdono un segmento d’utenza e devono ristrutturare i loro servizi. Ed è proprio ciò che i sostenitori auspicano: “Era ora che i social avessero un dovere di protezione verso i ragazzini – finora hanno solo coltivato la loro dipendenza”. Diversi Paesi stanno discutendo normative analoghe, e l’Australia – definita da Ursula von der Leyen “avanguardia coraggiosa” – punta a fornire un progetto. In Europa già si parla esplicitamente di “obbligo di diligenza digitale” verso i minori, e il presidente di Protéger l’Enfance in Francia afferma: “Dobbiamo costringere le piattaforme a rendere i loro prodotti meno pericolosi, come imposto nel mondo fisico per i giocattoli o i farmaci”. Se non lo fanno spontaneamente, aggiunge, farli “spegnere” ai minori è l’unica alternativa. Vale anche l’argomento deterrente: i favorevoli ritengono che il ban mandi un segnale culturale forte alle Big Tech. Il primo ministro Albanese ha parlato di “giorno orgoglioso” e “messaggio al mondo: se l’abbiamo fatto noi, perché voi no?”. Questo monito non è rivolto solo ai governi esteri ma anche ai colossi digitali: se non miglioreranno le loro pratiche, sempre più società li terranno fuori dalla porta. Infine, i pro-ban fanno notare che la legge mette in pratica ciò che da anni veniva chiesto alle piattaforme con scarsi risultati: implementare verifiche dell’età serie. Già il GDPR in Europa impone il parental consent sotto una certa età, ma senza meccanismi efficaci è rimasto lettera morta. L’Australia ora obbliga a svilupparli davvero, e infatti Meta, Snap e altri stanno usando tool innovativi (come la biometria facciale Yoti) su milioni di utenti, una novità epocale. Questo approccio “chiama all’azione” i giganti tecnologici, che non potranno più limitarsi a dichiarazioni di principio sulla sicurezza minorile, ma dovranno dimostrare concretamente di saper gestire la loro presenza. Il ban under-16 responsabilizza finalmente le piattaforme, invertendo i rapporti di forza: non sono più i ragazzini a dover essere abbastanza maturi da resistere alle lusinghe dei social, ma i social a dover garantire un ambiente adeguato, e se non ci riescono, vengono esclusi dalla platea under-16. Ciò crea un “duty of care” che finora mancava e che può spingere verso un internet più sicuro per tutti.
Nina Celli, 20 dicembre 2025