Dalla neutralità della piattaforma al “prodotto difettoso”: la sentenza della California che può cambiare il destino dei social.

di PAOLO POLETTI ♦

Per anni abbiamo discusso dei social network come se il problema fosse, essenzialmente, il contenuto: il post violento, il video estremo, la foto tossica, il commento d’odio. Era una lettura rassicurante, perché lasciava intatto il mito della neutralità della piattaforma. Il male, in questa narrazione, non stava nel sistema, ma nell’uso che alcuni ne facevano. Oggi quel mito comincia a incrinarsi, e non soltanto sul piano culturale o sociologico: si incrina anche sul terreno giuridico.

Il verdetto del 25 marzo 2026 della Corte Superiore della California, con cui una giuria di Los Angeles ha ritenuto Meta e Google responsabili dei danni psicologici subiti da Kaley G.M., non è nato nel vuoto. Prima ancora che la giuria si pronunciasse nel merito, il 5 novembre 2025 la Superior Court aveva già respinto le richieste di summary judgment delle piattaforme, chiarendo che il caso non poteva essere archiviato invocando automaticamente la Section 230 del Communications Decency Act – che negli Stati Uniti protegge le piattaforme dalla responsabilità per i contenuti pubblicati dagli utenti -, il Primo Emendamento – norma della Costituzione statunitense che tutela la libertà di espressione e che le piattaforme richiamano per difendere le proprie scelte di organizzazione dei contenuti – o la complessità del nesso causale. In sostanza, il giudice aveva già stabilito che la teoria dell’attrice, fondata sul design additivo delle piattaforme e sull’omesso avvertimento dei rischi, fosse abbastanza seria e solida da meritare un processo davanti alla giuria.

Questa precisazione è importante perché aiuta a capire la portata della vicenda. Il 25 marzo 2026 la giuria ha ritenuto Meta e Google responsabili dei danni psicologici subiti da Kaley G.M., che aveva iniziato a usare YouTube da bambina e Instagram da preadolescente. Il coinvolgimento di YouTube è particolarmente significativo, perché amplia il campo della discussione oltre il social network in senso classico. Google ha provato a difendere YouTube come una piattaforma di streaming costruita responsabilmente, non come un social. Ma proprio il processo mostra che, quando un ambiente digitale vive di raccomandazione algoritmica, autoplay, personalizzazione e permanenza indotta, la distinzione tra archivio di contenuti e piattaforma sociale diventa molto meno rassicurante. Il punto non è più soltanto che cosa ospita YouTube, ma come orienta la fruizione, la prolunga e la rende abituale.

Il risarcimento riportato nei materiali allegati è di 3 milioni di dollari, con Meta chiamata a coprirne il 70 per cento e Google il restante 30. Ma il punto decisivo non è il quantum. Conta soprattutto il principio giuridico che emerge: non è più sotto accusa soltanto ciò che viene pubblicato sulle piattaforme, ma il modo in cui esse sono state progettate per catturare, trattenere e sfruttare l’attenzione dei minori. È il cuore stesso del prodotto a finire sul banco degli imputati. Per questo la portata del caso non si esaurisce nel singolo verdetto. Proprio perché costruito come caso-test, il processo è stato seguito come banco di prova per migliaia di azioni analoghe già pendenti negli Stati Uniti. Il numero varia nei resoconti, oscillando tra circa 1.600 e oltre 2.000 cause, ma il dato sostanziale non cambia: siamo davanti a un precedente destinato a fare scuola.

Per lungo tempo le azioni giudiziarie intentate contro i social si sono infrante contro la già citata Section 230 del Communications Decency Act del 1996. Chi attaccava il contenuto perdeva. Chi cercava di dimostrare che il danno discendesse direttamente da un post, da un video o da un commento si scontrava con un argine quasi invalicabile. Nel processo californiano, invece, gli avvocati hanno cambiato prospettiva: non hanno accusato Meta e Google per ciò che gli utenti pubblicavano, ma per aver costruito sistemi concepiti per funzionare come dispositivi di aggancio compulsivo, come prodotti “difettosi” sotto il profilo del design. Più che una semplice svolta argomentativa, si tratta di una vera strategia processuale. Il punto non era dimostrare che la piattaforma avesse pubblicato contenuti dannosi, ma che avesse progettato un ambiente di fruizione capace di produrre dipendenza, ansia, confronto tossico e permanenza compulsiva. In questa prospettiva, il processo californiano non colpisce la parola altrui, ma l’ingegneria del contesto in cui quella parola viene distribuita, gerarchizzata e resa psicologicamente irresistibile.

Ed è qui che il diritto incontra finalmente la verità materiale della nostra esperienza digitale. Lo scroll infinito che non si interrompe mai. Le notifiche pensate per suscitare urgenza e ansia da reazione. I video che partono da soli. I “like” che trasformano il riconoscimento sociale in una metrica continua. I filtri di bellezza che normalizzano l’idea che il volto reale debba essere corretto. Tutto questo non è un dettaglio estetico dell’interfaccia. È architettura del comportamento. È ingegneria della dipendenza.

Ma proprio la sentenza interlocutoria del novembre 2025 consente di dire qualcosa di più preciso, e più forte, di quanto lasci intendere la formula giornalistica del “prodotto difettoso”. La vera novità giuridica non è soltanto che le piattaforme siano state descritte come prodotti dannosi. È che il giudice ha riconosciuto, già prima del verdetto finale, che alcune caratteristiche strutturali — come l’infinite scroll (cioè lo scorrimento continuo dei contenuti senza interruzioni naturali o punti di arresto) o l’autoplay (vale a dire la riproduzione automatica del contenuto successivo senza una scelta esplicita dell’utente) — possono essere fonte autonoma di danno. In altre parole, il problema non è soltanto che quelle funzioni conducono l’utente verso contenuti nocivi; è che possono essere dannose in quanto tali, perché progettate per incentivare una fruizione compulsiva, continua, difficilmente interrompibile. È qui che la piattaforma smette di apparire come un semplice contenitore e comincia a essere giudicata per la propria architettura.

La formula è forte, ma difficilmente eludibile. “Ingegneria della dipendenza” significa progettare un ambiente digitale per massimizzare il tempo di permanenza, la frequenza di ritorno, l’attaccamento psicologico, la compulsione alla verifica. E quando questo ambiente è fruito da minori, o addirittura da preadolescenti, la questione non può più essere letta come una semplice sfida educativa o familiare. Diventa questione giuridica, politica, civile. I documenti interni delle società convenute, prodotti o richiamati nel contenzioso – distinti, anche se in parte coerenti, rispetto al materiale già emerso con i Facebook Files[i] – mostrano che il problema non era imprevedibile: in alcuni di essi si ragionava apertamente sulla necessità di “portare dentro” gli adolescenti già dalla preadolescenza e risultava che gli undicenni avevano una probabilità molto più alta di tornare su Instagram rispetto alle app concorrenti. E proprio qui sta uno dei punti più delicati: quei documenti non servono soltanto a mostrare che il rischio fosse noto, ma suggeriscono che esso potesse essere tollerato come costo collaterale di scelte progettuali ritenute economicamente vantaggiose. Il problema, dunque, non è solo la conoscenza del danno, ma la sua possibile gestione in termini di convenienza.

Il caso californiano è esemplare anche per un’altra ragione. Alla giuria non è stato chiesto di stabilire se i social avessero creato dal nulla il disagio di Kaley. Le piattaforme hanno sostenuto che vi erano fragilità pregresse e un contesto familiare difficile. Ma la domanda giuridicamente rilevante era un’altra: l’uso compulsivo di quelle piattaforme è stato un “fattore sostanziale” del danno? La risposta della giuria è stata sì. Ed è una risposta che conta moltissimo, perché abbandona l’illusione di una causalità lineare e assoluta e assume una visione più aderente alla realtà: un sistema può non creare da solo una ferita, ma può approfondirla, cronicizzarla, renderla più probabile, più intensa, più pervasiva.

Anche qui l’ordinanza del novembre 2025 rafforza in modo decisivo la lettura del caso. La corte non pretende una causalità esclusiva e monocorde. Al contrario, afferma che, anche in presenza di vulnerabilità anteriori e concause molteplici, resta questione da giuria stabilire se il design della piattaforma abbia contribuito in modo sostanziale ad aggravare il danno. È un punto fondamentale, perché sposta il dibattito fuori dalla falsa alternativa tra “colpa tutta della piattaforma” e “colpa tutta del contesto personale o familiare”. Il problema giuridico vero è un altro: se le piattaforme abbiano rappresentato una concausa giuridicamente rilevante, prevedibile e strutturalmente incorporata nella configurazione del prodotto.

La vicenda personale della giovane donna spiega bene perché questo passaggio sia così importante. Kaley ha raccontato di aver smesso di interagire con la famiglia perché passava tutto il proprio tempo sui social; di addormentarsi scorrendo Instagram; di svegliarsi di notte per controllare le notifiche; di poter restare anche sedici ore al giorno davanti allo smartphone. Ha descritto insicurezza, ossessione per i like, dismorfismo corporeo, ansia, depressione. È il ritratto di un danno che non è astratto né sociologico, ma concretamente incorporato nella vita quotidiana di una persona in età evolutiva.

A rendere ancora più significativo il momento storico è il fatto che il giorno prima, in New Mexico, un’altra giuria aveva già condannato Meta a pagare 375 milioni di dollari per non aver protetto adeguatamente i minori da predatori sessuali e contenuti pericolosi. Due verdetti in due giorni, in due Stati diversi, su teorie giuridiche differenti ma convergenti. La California colpisce la dipendenza da design. Il New Mexico colpisce la mancata protezione attiva. Insieme, le due decisioni disegnano un orizzonte nuovo: i social possono essere chiamati a rispondere sia per ciò che strutturalmente inducono, sia per ciò che non impediscono.

C’è poi un altro profilo, meno discusso ma altrettanto importante, che emerge con forza proprio dall’ordinanza del novembre 2025: quello dell’omesso avvertimento. La corte respinge la tesi secondo cui la domanda di failure to warn sarebbe infondata solo perché Kaley non aveva letto i termini di servizio. Il giudice osserva che il problema non è la presenza di formule sepolte nei documenti contrattuali, ma l’assenza di avvisi grandi, visibili, comprensibili, realmente idonei a mettere in allerta utenti e genitori. E valorizza una circostanza di straordinaria forza narrativa e giuridica: la madre di Kaley G.M. ha dichiarato che, se avesse saputo prima dei rischi associati all’uso delle piattaforme, non le avrebbe dato il telefono. Qui la responsabilità non riguarda solo il design additivo, ma anche il difetto di trasparenza verso chi avrebbe potuto interrompere prima l’esposizione al rischio. Non soltanto piattaforme progettate per trattenere, dunque, ma piattaforme che avrebbero anche mancato di informare con chiarezza sulle conseguenze di quella progettazione.

Questa vicenda si inserisce inoltre in una traiettoria già visibile. Due precedenti aiutano a misurarne la portata. La prima è il caso di Molly Russell, la quattordicenne britannica morta nel 2017 per un atto di autolesionismo, il cui caso portò il coroner del North London a concludere nel 2022 che, al momento della morte, Molly soffriva di depressione e degli effetti negativi dei contenuti online, dopo essere stata esposta su piattaforme come Pinterest e Instagram a materiale legato all’autolesionismo e al suicidio. La seconda è il noto esperimento condotto da Facebook nel 2012 e pubblicato nel 2014 sulla rivista scientifica PNAS (Proceedings of the National Academy of Sciences), nel quale i ricercatori mostrarono, su un campione di 689.003 utenti, che era possibile influenzarne l’umore modificando il News Feed — cioè il flusso personalizzato di post, notizie e aggiornamenti che compare nella pagina principale del social — aumentando o riducendo la presenza di contenuti dal tono positivo o negativo: una prova, su scala di massa, di contagio emotivo mediato dalla piattaforma. Letti insieme, questi due episodi mostrano che il problema dei social non è mai stato soltanto ciò che gli utenti vi pubblicano, ma la capacità strutturale dell’architettura digitale di selezionare, intensificare e orientare esperienze psicologiche.

Ma c’è di più. Il problema non nasce soltanto da singole scelte di design o da specifici deficit di moderazione. Nasce dal fatto che i social hanno smesso da tempo di essere semplici infrastrutture di connessione per diventare mercati dell’attenzione. A un certo punto, il tempo di permanenza dell’utente ha sostituito la connessione come obiettivo centrale del sistema. Da quel momento ogni scelta di design ha cominciato a servire soprattutto a impedire che l’utente se ne andasse. Lo scroll infinito elimina i punti di arresto naturali. L’autoplay anticipa la volontà. Le notifiche producono un’ansia sottile che si allevia solo tornando nell’app. Il feed abbandona la cronologia perché la cronologia è neutrale, e la neutralità non massimizza engagement e monetizzazione. Il punto di non ritorno arriva quando le piattaforme scoprono che le emozioni forti trattengono più delle emozioni piacevoli. Rabbia, indignazione, ansia da confronto sociale producono più tempo sulla piattaforma della gioia o della curiosità. Così il sistema abbandona qualsiasi orientamento al benessere dell’utente e punta a tenerlo agitato quanto basta da non riuscire a smettere. Tenerlo agitato diventa il modello e non una sua conseguenza imprevista. La piattaforma, insomma, non si limita a ospitare interazioni: le struttura, le indirizza, le ottimizza.

Ed è proprio qui che la recente vicenda processuale americana incontra, a mio avviso, in modo quasi letterale, la lezione di Shoshana Zuboff, docente emerita della Harvard Business School e autrice del volume Il capitalismo della sorveglianza. L’autrice lo definisce come la pretesa unilaterale di appropriarsi dell’esperienza umana come materia prima gratuita da tradurre in dati comportamentali, previsioni e prodotti destinati ai mercati dei comportamenti futuri; nella presentazione del suo libro alla Harvard Business School, il fenomeno viene descritto anche come una “global architecture of behavior modification”.

Se il giudice distingue il design della piattaforma dal contenuto di terzi e ammette che certe funzionalità possano causare danno in quanto meccanismi di interazione, permanenza e cattura dell’attenzione, allora il diritto sta cominciando a riconoscere che il cuore del problema non è il singolo messaggio, ma l’architettura comportamentale del sistema. È il passaggio decisivo dal contenuto all’infrastruttura, dall’informazione alla modificazione del comportamento. In questo senso, l’ordinanza del novembre 2025 rafforza la tesi di Zuboff: il capitalismo della sorveglianza non si limita a raccogliere dati, ma costruisce ambienti progettati per prevedere, orientare e sfruttare le condotte degli utenti. Se scroll infinito, autoplay, notifiche, ranking e filtri vengono valutati non come meri strumenti neutri, ma come componenti di un prodotto progettato per orientare condotte, trattenere attenzione e sfruttare vulnerabilità, allora quella che per anni poteva sembrare una critica sociologica o filosofica riceve oggi una conferma sul terreno giuridico.

Negli articoli su Il Capitalismo della Sorveglianza: dall’innovazione alla dominazione digitale, pubblicati a febbraio 2025, avevamo insistito sul fatto che il vero scopo di queste piattaforme non sia solo raccogliere dati, ma influenzare e prevedere il comportamento umano, fino alla manipolazione emotiva. In questo senso, la sentenza californiana e l’ordinanza che l’ha preceduta non sono semplicemente due momenti di un processo locale. Sono il segnale che il diritto sta cominciando a vedere ciò che per anni è rimasto nascosto dietro il lessico dell’innovazione: non strumenti neutri, ma architetture di cattura, previsione e condizionamento.

In questo senso, diversi media, all’indomani dei verdetti americani, hanno evocato un parallelo con i contenziosi sul tabacco, fino a parlare di un vero e proprio “Tobacco moment” dei social. Non si tratta di una provocazione giornalistica, ma di una chiave interpretativa precisa. Non perché social network e sigarette siano fenomeni identici, ma perché in entrambi i casi ricorrono alcuni tratti strutturali: un prodotto lecito e diffusissimo; un modello economico che trae vantaggio dalla ripetizione del consumo; la presenza di meccanismi idonei a generare dipendenza o uso compulsivo; l’emersione di evidenze interne sui rischi; la particolare esposizione dei soggetti più vulnerabili, soprattutto i minori; e, infine, il ruolo del contenzioso nel trasformare un problema a lungo banalizzato in una questione pubblica, politica e giuridica. Le piattaforme, in questo quadro, non vendono soltanto servizi: vendono ambienti comportamentali che apprendono dalle nostre reazioni per riportarci dentro più spesso, più a lungo e più intensamente.

Anche l’Europa, pur muovendosi con strumenti diversi, si sta avvicinando a questo nodo. Il Digital Services Act spinge verso una logica di prevenzione dei rischi sistemici e di protezione effettiva dei minori, non meramente formale. Negli Stati Uniti sta emergendo, attraverso il processo civile, una responsabilità ex post fondata sul danno. In Europa si consolida invece una responsabilità ex ante fondata sulla prevenzione del rischio. Le due strade, però, convergono: non basta più domandarsi quali contenuti siano accessibili online; bisogna chiedersi come i sistemi siano progettati, quali vulnerabilità intercettino, quali inferenze producano, quali comportamenti incentivino.

Ed è qui che entra anche la nostra responsabilità di adulti. Non basta invocare divieti generici. Non basta nemmeno limitarsi a un’età minima, tanto più se la verifica dell’età resta facilmente aggirabile. Più interessante è colpire il design stesso: vietare o disattivare per impostazione predefinita, almeno per i minori, scroll infinito, autoplay e cicli di ricompensa; rafforzare la responsabilità civile delle piattaforme; imporre una governance del rischio più seria. Ma nessuna riforma sarà davvero efficace senza una grande opera di formazione rivolta insieme a studenti, famiglie e scuola. I ragazzi devono essere messi in condizione di capire i meccanismi di cattura dell’attenzione, la pressione del confronto sociale, il funzionamento degli algoritmi e i segni del disagio digitale. I genitori, a loro volta, devono essere aiutati a riconoscere che lo smartphone non è un semplice strumento neutro, ma la porta d’accesso a un ambiente progettato per trattenere, orientare e influenzare. La scuola, allora, non può limitarsi né a proibire il telefono senza spiegare, né a consentirlo senza costruire consapevolezza: deve diventare il luogo in cui si impara non solo a usare il digitale, ma anche a difendersi da esso quando il digitale è progettato per colonizzare attenzione, emozioni e comportamento.

La sentenza della California non chiude il problema. Gli appelli arriveranno, le resistenze saranno forti, le piattaforme continueranno a difendersi sostenendo che la loro priorità è il benessere degli utenti. Ma qualcosa si è rotto. Si è incrinata l’idea che il social sia solo uno strumento neutro degenerato per colpa di chi lo usa male. Si è incrinata anche l’idea che la tecnologia possa ancora essere considerata innocente in sé, quando è costruita per orientare il comportamento e trattenere l’attenzione dei più vulnerabili.

Forse il punto, allora, è questo: non stiamo più processando soltanto i contenuti dei social. Stiamo processando un modello di civiltà digitale. Un modello in cui l’infanzia e l’adolescenza sono diventate terreno di cattura economica, in cui la sofferenza psichica può trasformarsi in retention, in cui il profitto cresce insieme alla capacità di prevedere e manipolare i comportamenti. Se questa sentenza avrà davvero l’effetto di scardinare il sistema e costringerci a una mentalità nuova, il suo valore non sarà nei milioni di dollari liquidati, ma nell’aver detto, finalmente, una verità semplice: non tutto ciò che è tecnicamente possibile è giuridicamente tollerabile. Per gruppi con capitalizzazioni e disponibilità di quella scala, il risarcimento in sé pesa poco; ciò che pesa davvero è l’effetto cumulativo di una teoria della responsabilità che, se replicata in migliaia di cause, può tradursi in costi reputazionali, transattivi, regolatori e di redesign ben più incisivi del singolo verdetto. E soprattutto non è più tollerabile continuare a chiamare innovazione un modello che, per funzionare, ha bisogno di trasformare la vulnerabilità dei minori in tempo di permanenza, profilazione e profitto.

 

[i] Facebook Files: espressione con cui si indica la serie di documenti interni di Facebook/Meta divulgati nel 2021 dalla whistleblower Frances Haugen e utilizzati come base per un’inchiesta del Wall Street Journal pubblicata a partire dal settembre 2021. I materiali comprendevano ricerche interne, presentazioni, memo e analisi aziendali sui rischi delle piattaforme, inclusi gli effetti di Instagram sugli adolescenti, i meccanismi di amplificazione dei contenuti divisivi e le criticità dei sistemi di moderazione. Successivamente, nell’ottobre 2021, una platea più ampia di documenti è stata condivisa con un consorzio internazionale di testate, dando origine a ciò che è stato anche definito Facebook Papers.

PAOLO POLETTI