Esiste ancora la privacy nell’era dell’AI?

di PAOLO POLETTI ♦

Nel momento in cui l’Intelligenza Artificiale (AI) irrompe nelle nostre vite quotidiane – dalla chat che utilizziamo sullo smartphone, all’algoritmo che suggerisce cosa acquistare, fino ai sistemi predittivi negli ambiti sanitari, finanziari e dei servizi pubblici – ci si può legittimamente domandare: esiste ancora la privacy? E che cosa significa “privacy” oggi, alla luce delle nuove tecnologie?

Per affrontare la domanda è utile partire dai fondamenti normativi-teorici della tutela dei dati personali nell’Unione Europea, per poi considerare come l’AI interagisca con questi principi e quali tensioni emergano.

I fondamenti della privacy.

Prima di diventare una questione giuridica o tecnologica, la privacy è un problema filosofico: riguarda il modo in cui l’essere umano definisce se stesso nel rapporto con gli altri e con il mondo. È la consapevolezza di possedere uno spazio interiore inviolabile, in cui maturano la coscienza, la libertà e l’identità personale.

Già la filosofia moderna, da Locke a Kant, aveva riconosciuto nella persona un valore assoluto, che non può essere trattato come un mezzo ma solo come un fine. In questa prospettiva, la privacy è la condizione della libertà morale: protegge la capacità dell’individuo di decidere per sé, di scegliere come e quando rivelarsi.

Con l’Illuminismo e lo Stato di diritto, essa diventa un diritto civile: la libertà di essere lasciati in pace, di delimitare una sfera sottratta allo sguardo del potere e della collettività. È il senso dell’articolo di Warren e Brandeis (1890), che definì la privacy come “the right to be let alone”, il diritto di essere lasciati soli.

Nel Novecento, però, l’equilibrio tra pubblico e privato si incrina. Michel Foucault aveva descritto la società moderna come un sistema di sorveglianza permanente, in cui l’essere visti diventa una forma di controllo.

Oggi, nell’era digitale, quella visione si è trasformata nel fenomeno che Shoshana Zuboff ha definito “capitalismo della sorveglianza”: un modello economico in cui i comportamenti umani vengono registrati, analizzati e monetizzati per prevedere e orientare le nostre scelte future.

Non è più soltanto il potere politico a osservare, ma il mercato stesso che si nutre dei nostri dati, trasformando la vita quotidiana in materia prima per l’economia dell’informazione. Nell’era dei social e dell’intelligenza artificiale, accade dunque l’opposto di quanto temeva Foucault: non è più il potere che ci osserva, ma noi che consegniamo volontariamente i nostri dati, cedendo frammenti di vita in cambio di servizi, connessioni, riconoscimento.

La privacy, così, non è più un recinto da difendere ma un equilibrio da ritrovare tra visibilità e riserbo, tra libertà e trasparenza.

Come hanno osservato autori come Merleau-Ponty e Ricoeur, la persona è presenza e ritiro, corpo che appare e si custodisce: la privacy è la facoltà di scegliere quando e quanto mostrarsi, di mantenere il controllo sul proprio racconto di sé.

Difendere la privacy, allora, non significa soltanto proteggere un dato, ma salvaguardare la possibilità di restare autori della propria esistenza informazionale.

È il diritto all’invisibilità scelta, alla libertà di non essere profilati prima ancora di essere ascoltati. In fondo, la privacy è la premessa della libertà umana nell’era digitale: il diritto di esistere come persona, e non soltanto come informazione.

Dalla filosofia al diritto: il passaggio all’età giuridica della privacy.

Se la privacy nasce come spazio morale e come espressione della libertà individuale, il Regolamento (UE) 2016/679 (GDPR) rappresenta il tentativo dell’Europa di tradurre in diritto positivo quella stessa idea di dignità e autodeterminazione.

L’essenza filosofica della privacy – il diritto di ciascuno a essere padrone della propria immagine e dei propri dati – diventa così una struttura normativa concreta, che fissa limiti, principi e responsabilità per chi tratta informazioni personali.

Il GDPR non inventa la privacy: la istituzionalizza, trasformando un diritto umano in un dovere giuridico per le organizzazioni pubbliche e private.

I capisaldi del GDPR

Il Regolamento europeo costituisce la pietra angolare della tutela dei dati personali. L’articolo 5 ne sintetizza i principi fondamentali, che possono essere riassunti così:

  • liceità, correttezza e trasparenza: i dati devono essere trattati in modo lecito e comprensibile, permettendo alla persona di sapere sempre che cosa avviene delle proprie informazioni;
  • limitazione della finalità: i dati possono essere usati solo per gli scopi dichiarati e legittimi, senza riutilizzi impropri;
  • minimizzazione e accuratezza: devono essere raccolti solo i dati strettamente necessari e mantenerli aggiornati;
  • limitazione della conservazione: non conservarli più a lungo di quanto occorra per la finalità perseguita;
  • integrità e riservatezza: garantire sicurezza e protezione contro trattamenti non autorizzati o danni accidentali;
  • responsabilizzazione (accountability): il titolare del trattamento è responsabile di dimostrare il rispetto di tutti i principi;
  • privacy by design e by default: la tutela dei dati deve essere integrata nella progettazione stessa di prodotti e servizi e, per impostazione predefinita, devono essere trattati solo i dati strettamente necessari.

Il GDPR attribuisce inoltre ai cittadini una serie di diritti effettivi – accesso, rettifica, cancellazione (“diritto all’oblio”), portabilità, opposizione e limitazione del trattamento – e tutela contro le decisioni automatizzate e la profilazione.

In sintesi, il Regolamento europeo definisce la privacy come diritto di controllo sull’identità digitale: la persona non è oggetto di trattamento, ma soggetto titolare del proprio dato, nella logica di un’Europa che fa della protezione della dignità umana il cuore della cittadinanza digitale.

Le sfide dell’AI per la privacy.

Passiamo ora al mondo dell’Intelligenza Artificiale e a come esso interagisce con, o sfida, i principi della privacy

L’AI si “nutre” di dati.

I modelli di AI – in particolare i grandi modelli di linguaggio (“large language models”), ma anche molti modelli predittivi, di visione artificiale, di riconoscimento biometrico – richiedono grandi quantità di dati per l’addestramento iniziale, e in molti casi anche per un uso successivo (“continual learning”, aggiornamenti, personalizzazione). Come osserva un’analisi di IBM: “terabyte o petabyte di testo, immagini o video sono routine nei dati di addestramento, e inevitabilmente una parte di quei dati è sensibile: informazioni sanitarie, dati finanziari personali, dati biometrici”.

Questo solleva immediatamente due questioni rilevanti:

  • quale base giuridica viene utilizzata per inserire tali dati nei modelli? Il GDPR richiede una base lecita e trasparente;
  • quanto “personale” è il dato che finisce nell’AI? Anche se anonimizzato, può esserci il rischio di re-identificazione, profiling o combinazione con altri dati che rendono l’individuo identificabile.

Analisi recenti lamentano che l’AI “ribalta” la relazione tradizionale: siamo noi stessi che consegniamo volontariamente – o inconsapevolmente – enormi moli di dati personali all’ecosistema digitale perché vogliamo risposte, servizi più “intelligenti”, comodità. Il tema diventa allora: quanto libero è il consenso, quanto siamo consapevoli delle implicazioni, quanto possiamo “uscire” dalla logica del dato-alimentazione? Ad esempio, le piattaforme usano interazioni, commenti, foto, video, movimenti online per alimentare modelli.

Profiling, decisioni automatizzate, trasparenza e spiegabilità.

Il GDPR dedica attenzione anche al tema del trattamento automatizzato dei dati personali e del profiling (art. 22).

Nel contesto dell’AI, spesso non è solo una semplice automazione: si tratta di sistemi in cui l’algoritmo “impara”, “adatta”, “predice”. Questo comporta diversi rischi per la privacy:

  • le decisioni automatiche possono incidere su diritti e libertà importanti (es. accesso al credito, valutazione assicurativa, selezione lavorativa);
  • il soggetto interessato potrebbe non sapere quali dati sono stati usati, come sono stati pesati, quali variabili sono state incluse;
  • il modello può agire in modo opaco (“black box”) e dunque difficile da spiegare o verificare: questo minaccia i principi di trasparenza e di correttezza;
  • può verificarsi un fenomeno di “profilazione per generazione di categorie”, con rischio di discriminazione o effetti inattesi.

Occorre notare che quando le persone esprimono preoccupazioni sulla privacy in relazione alle tecnologie AI, di solito si riferiscono agli interessi di sicurezza piuttosto che agli interessi di privacy in sé. Tuttavia, concentrarsi solo sulla sicurezza rischia di trascurare l’importanza che gli interessi di privacy in sé hanno per l’autonomia e lo sviluppo della nostra identità.

Limitazione della finalità, minimizzazione e conservazione: i nodi aperti.

I principi del GDPR – scopo, minimizzazione, conservazione – vengono messi sotto stress:

  • finalità: l’addestramento di un modello di AI spesso utilizza dati che erano stati raccolti per altri scopi, ad esempio per fornire un servizio online o per attività di analisi. In questi casi si apre una questione cruciale: il riutilizzo dei dati per addestrare un modello è compatibile con lo scopo originario per cui erano stati raccolti? Il principio di limitazione della finalità, tutelato dal GDPR, impone che i dati personali non siano trattati per fini diversi da quelli dichiarati, salvo che esista una nuova base giuridica o che il nuovo uso sia effettivamente compatibile. Tuttavia, nella realtà, questo principio rischia di essere bypassato: molti modelli di intelligenza artificiale vengono addestrati su dataset globali o in contesti extra-UE, dove il controllo sulle finalità e sulle basi giuridiche del trattamento è di fatto molto più debole o inesistente;
  • minimizzazione: l’AI richiede “molti dati”, “dati ricchi”, “dati diversificati”; ma da che punto la raccolta rimane “necessaria” e proporzionata? Il rischio è che si raccolga “più del necessario”;
  • conservazione: i modelli di intelligenza artificiale, una volta addestrati, mantengono al loro interno tracce dei dati su cui sono stati istruiti, anche se tali informazioni non sono direttamente accessibili. In alcuni casi, tecniche di analisi o di “estrazione” del modello (model inversion o data leakage) possono riportare alla luce frammenti di dati personali o di testi originali utilizzati durante l’addestramento. Si tratta di un rischio ancora poco percepito, ma reale: anche se un dataset viene rimosso o anonimizzato, il modello può conservare informazioni “residuali”, capaci di identificare indirettamente individui o contenuti sensibili. Per questo motivo, diversi studi recenti segnalano la persistenza dei dati all’interno dei modelli AI come una vulnerabilità strutturale, che richiede nuove misure tecniche e giuridiche di mitigazione.

Sicurezza, anonimizzazione e tecniche emergenti.

Il GDPR richiede integrità e riservatezza dei dati e accountability. Nel campo AI si stanno sviluppando tecniche che mirano a mitigare i rischi: ad esempio, la “differential privacy” (aggiungere rumore ai dati), meccanismi che limitano la possibilità di risalire all’identità di una persona a partire dal modello, framework più robusti di governance.

Tuttavia, resta la domanda pratica: davvero queste tecniche garantiscono che il modello “non sappia” più di quanto dovrebbe? E chi verifica che siano correttamente applicate?

Fiducia, controllo e partecipazione dell’individuo.

Infine, la privacy non è solo un insieme di obblighi tecnico – normativi: riguarda la relazione tra l’individuo e la tecnologia. In un ecosistema AI, le persone spesso non hanno piena consapevolezza di quali dati stanno cedendo o quali implicazioni ci sono. Studi recenti mostrano che la fiducia degli utenti è condizionata da trasparenza, controllo, possibilità di opt-out, chiarezza su come i dati vengono utilizzati e da eventuali ricadute.

In altre parole: la privacy rimane, ma richiede che l’ecosistema AI lo riconosca come valore da proteggere attivamente.

Il caso New York Times contro OpenAI: quando i dati diventano contenzioso

Un esempio emblematico di quanto l’Intelligenza Artificiale metta in tensione i diritti di proprietà intellettuale e, più in profondità, la nostra idea di controllo sui dati, è rappresentato dalla causa intentata dal New York Times contro OpenAI e Microsoft davanti al tribunale federale di New York nel dicembre 2023.

Il quotidiano statunitense accusa le due società di aver utilizzato milioni di articoli e materiali editoriali protetti da copyright per addestrare modelli di linguaggio come ChatGPT, senza alcuna autorizzazione. Secondo la testata, questi contenuti sarebbero stati copiati e immagazzinati all’interno dei dataset di training, tanto che, in alcune circostanze, ChatGPT avrebbe restituito porzioni quasi identiche agli articoli originali del giornale.

La questione, in apparenza centrata sul diritto d’autore, tocca in realtà il cuore stesso della governance dei dati nell’era dell’intelligenza artificiale. Quando un modello viene addestrato su testi, immagini o audio, compie inevitabilmente operazioni di copia, memorizzazione e analisi di quei materiali. La domanda che il caso del New York Times pone alla giurisprudenza è se tale uso possa essere considerato un fair use, cioè un uso lecito e trasformativo a fini di ricerca o innovazione, oppure se costituisca una violazione del copyright, perché il modello incorpora nei propri pesi conoscenze derivate da opere protette.

Inoltre, la causa solleva un interrogativo di natura più ampia: quanto di ciò che alimenta l’AI appartiene davvero a chi lo genera, e quanto invece diventa parte di un patrimonio collettivo, senza consenso esplicito né consapevolezza?

Il New York Times sostiene che l’uso gratuito e massivo dei suoi articoli da parte dei modelli di OpenAI e Microsoft comporti un danno economico diretto – riducendo l’incentivo degli utenti a sottoscrivere abbonamenti – ma anche un danno simbolico: la perdita di controllo sul proprio lavoro intellettuale.

Dal punto di vista procedurale, il giudice federale Sidney Stein ha respinto la richiesta di rigetto avanzata dalle società convenute, consentendo alla causa di proseguire. Un’ordinanza ha inoltre imposto a OpenAI di conservare tutti i log e gli output generati da ChatGPT, anche quelli che normalmente sarebbero stati cancellati. Una misura necessaria a fini probatori, ma che ha riaperto il dibattito sulla privacy degli utenti, poiché i log conservano tracce delle conversazioni e dei dati forniti da milioni di persone.

Il caso, dunque, non riguarda solo i diritti del giornalismo nell’epoca digitale, ma il rapporto tra creazione umana, dati personali e intelligenza artificiale. Se per addestrare un sistema serve analizzare miliardi di testi prodotti da individui e istituzioni, quale garanzia abbiamo che i nostri contenuti – e le nostre informazioni – non vengano inglobati, trasformati, e magari restituiti senza che ne siamo consapevoli?

La causa New York Times v. OpenAI è diventata così il simbolo di una più ampia questione etica e giuridica: nel nuovo ecosistema dell’AI, chi controlla davvero il flusso dei dati? E soprattutto, fino a che punto possiamo ancora parlare di privacy, se la conoscenza artificiale nasce, cresce e si alimenta delle nostre parole, delle nostre immagini, dei nostri pensieri?

Dalla proprietà intellettuale alla privacy: il diritto di restare padroni dei propri dati.

Il caso del New York Times mostra con chiarezza che la questione della privacy, nell’era dell’intelligenza artificiale, non si esaurisce nella sfera individuale. Non riguarda soltanto la protezione di dati anagrafici, indirizzi o preferenze personali, ma tocca anche la sovranità sui contenuti e, più in generale, la capacità delle persone e delle organizzazioni di controllare come le informazioni da loro prodotte vengono raccolte, elaborate e riutilizzate.

In fondo, il cuore del GDPR è proprio questo: restituire all’individuo il potere di decidere. L’articolo 5 stabilisce che i dati devono essere trattati in modo lecito, trasparente e proporzionato; l’articolo 7 vincola il consenso alla libera scelta; e l’articolo 22 riconosce il diritto a non essere sottoposti a decisioni interamente automatizzate che producano effetti giuridici significativi. Ma nel contesto dell’AI generativa, questi principi si confrontano con una tecnologia che impara da tutto ciò che trova, anche da ciò che non era stato concepito per diventare “dati”.

L’Europa, nel suo insieme, ha compreso che la partita non è più solo economica o tecnologica, ma valoriale.

La Carta dei diritti fondamentali dell’Unione Europea, agli articoli 7 e 8, sancisce due diritti distinti ma intrecciati: il diritto al rispetto della vita privata e familiare e il diritto alla protezione dei dati personali. Non è una distinzione accademica: significa che la tutela dei dati non è solo uno strumento di sicurezza, ma una condizione dell’autonomia e della libertà individuale. Chi controlla i dati, controlla il comportamento; chi li possiede, può orientare scelte, gusti, convinzioni.

Proprio per questo il Regolamento (UE) 2024/1689, noto come AI Act (e del quale tra poco parleremo), entra in dialogo diretto con il GDPR. Il legislatore europeo ha voluto creare un sistema coerente: l’AI Act non sostituisce il GDPR, ma lo integra, introducendo obblighi specifici per i fornitori di sistemi di intelligenza artificiale, in particolare per i modelli “ad alto rischio” o “di uso generale”.

Fra questi obblighi rientrano la trasparenza sui dati d’addestramento, la documentazione dei processi e la valutazione d’impatto sui diritti fondamentali.

È un tentativo di rispondere proprio alle domande sollevate da casi come quello del New York Times: chi garantisce che un modello non utilizzi dati sensibili, o contenuti protetti, o informazioni raccolte senza base giuridica?

Eppure, anche con queste regole, rimane aperta una tensione di fondo. Ogni volta che interagiamo con un sistema di intelligenza artificiale, alimentiamo il suo sapere con i nostri dati: domande, immagini, preferenze, frammenti di vita quotidiana. Nel cercare risposte “intelligenti”, offriamo inconsapevolmente pezzi della nostra identità digitale. L’AI si perfeziona grazie a noi, ma il controllo su ciò che apprendiamo – o che essa apprende da noi – rischia di sfuggirci.

È qui che la privacy assume una nuova dimensione, non più solo difensiva, ma etica e culturale. Difendere la privacy oggi significa difendere la possibilità di restare autori della propria esistenza informazionale, di scegliere che cosa condividere, di comprendere come le tecnologie reinterpretano ciò che diciamo e produciamo. Come ricordava il Comitato Europeo per la Protezione dei Dati, la privacy non è il diritto di “scomparire”, ma il diritto di essere sé stessi, in un ambiente digitale che rispetti i limiti, la dignità e la libertà delle persone.

In questo senso, l’AI non rappresenta solo una sfida giuridica, ma un banco di prova per la civiltà europea: riusciremo a costruire un futuro in cui l’intelligenza artificiale serva l’uomo senza spogliarlo della sua identità? O ci abitueremo a vivere in un mondo dove tutto ciò che siamo – pensieri, parole, emozioni – diventa materia prima per addestrare un algoritmo.

La risposta, probabilmente, dipenderà da come riusciremo a coniugare innovazione e diritti, trasparenza e fiducia, progresso tecnologico e responsabilità. Perché, come insegna la vicenda del New York Times, non si tratta solo di proteggere un archivio di articoli o di risarcire un danno economico: si tratta di capire se la conoscenza umana possa restare libera in un mondo dove la conoscenza artificiale cresce nutrendosi di noi.

L’AI Act e la tutela della persona nell’ecosistema algoritmico.

Con l’entrata in vigore del Regolamento (UE) 2024/1689, noto come AI Act, l’Unione Europea ha compiuto un passo decisivo verso una governance etica e giuridica dell’intelligenza artificiale.

È la prima normativa organica al mondo che disciplina in modo diretto lo sviluppo, l’immissione sul mercato e l’utilizzo dei sistemi di AI, con l’obiettivo di garantire che tali tecnologie restino a misura d’uomo, rispettando la dignità, i diritti fondamentali e i valori dell’Unione.

L’AI Act non abroga né sostituisce il GDPR, ma ne rappresenta il completamento naturale: se il GDPR tutela la persona come titolare dei propri dati, l’AI Act tutela la persona come soggetto dell’impatto algoritmico.

Il legislatore europeo ha scelto un approccio “basato sul rischio”, distinguendo quattro livelli di gravità (minimo, limitato, alto e inaccettabile) e imponendo obblighi proporzionati.

I sistemi ad alto rischio – ad esempio quelli impiegati in ambiti sanitari, occupazionali, finanziari o di sicurezza pubblica – devono rispettare rigorosi requisiti di trasparenza, tracciabilità, documentazione, accuratezza e sorveglianza umana.

Particolare attenzione è riservata ai modelli di AI generativa e ai sistemi di uso generale (foundation models), che dovranno pubblicare una sintesi dei dataset utilizzati per l’addestramento, indicare le fonti principali e documentare le misure di mitigazione dei rischi.

Questo obbligo risponde direttamente alle criticità emerse nel caso del New York Times, dove il problema non è solo l’uso di contenuti protetti, ma l’opacità dell’origine dei dati su cui l’AI si forma.

L’AI Act introduce anche la figura del valutatore di conformità, incaricato di verificare che i sistemi rispettino gli standard fissati, e istituisce un Ufficio europeo per l’intelligenza artificiale (European AI Office) per coordinare l’applicazione della normativa tra gli Stati membri.

In questo quadro, la privacy torna a essere la misura del limite: non un ostacolo all’innovazione, ma la condizione del suo sviluppo sostenibile e giusto.

Il Regolamento europeo sull’AI non si limita a regolare le macchine: intende proteggere l’uomo, riaffermando che la tecnologia è uno strumento e non un potere.

Conclusione: la privacy è morta? No, ma è profondamente trasformata.

Alla domanda “esiste ancora la privacy nell’era dell’AI?”, la risposta può essere formulata così: si, la privacy esiste ancora, nel senso che il quadro normativo (come il GDPR) continua a garantire diritti, principi e obblighi. Ma è anche vero che la privacy è messa in discussione, ridefinita, trasformata dall’AI.

Alcune riflessioni finali:

  • la tensione principale è tra il bisogno dell’AI di molti e diversificati dati e il diritto dell’individuo a non essere “spogliato” di controllo sui propri dati personali;
  • i controlli normativi (GDPR) continuano a svolgere un ruolo cruciale, ma da soli non bastano: servono tecniche, governance, trasparenza, responsabilità;
  • le organizzazioni che sviluppano o utilizzano AI hanno la responsabilità (anche alla luce del principio di accountability) di dimostrare che rispettano i principi del trattamento dei dati;
  • gli individui devono essere messi in condizione di capire quali dati cedono, per quali scopi e con quali rischi (e opportunità);
  • infine, la riflessione non è solo tecnica o normativa: riguarda il tipo di società che vogliamo. In un contesto in cui l’AI può migliorare la condizione umana (come nel lavoro di HAL – Human AI lab -, il Centro interdisciplinare dell’Università degli Studi Link, fondato dal Prof. Marco Filoni del quale sono co-fondatore, che esplora l’intelligenza artificiale come strumento per migliorare la condizione umana e servire i bisogni collettivi) è essenziale che l’uomo resti al centro.

Invito dunque i lettori a considerare l’AI non soltanto come strumento innovativo, ma come sfida culturale e valoriale: la privacy non è un residuo del passato, ma un valore che richiede nuova cura, nuove forme di tutela, una consapevolezza rinnovata nell’era dell’algoritmo.

PAOLO POLETTI