AI e democrazia: la libertà cognitiva nell’età degli algoritmi

di PAOLO POLETTI ♦

La democrazia non è una macchina costituzionale capace di procedere autonomamente. È un esercizio continuo, che richiede memoria, partecipazione, cultura istituzionale, senso del limite e disponibilità al confronto. La libertà non vive di rendita e la democrazia può svuotarsi anche senza essere formalmente abolita, quando si indeboliscono le condizioni culturali, morali e cognitive che la sostengono.

Essa, infatti, non vive solo nel voto né si esaurisce nelle istituzioni formali. Vive nella qualità dello spazio pubblico e nella capacità dei cittadini di informarsi, distinguere il vero dal falso, incontrare punti di vista diversi, sostenere la complessità, accettare il dissenso e comprendere che mediazione, limiti e garanzie non sono ostacoli, ma condizioni della libertà. Quando questo spazio si impoverisce, la decisione rapida appare superiore al confronto, l’efficienza alla libertà, la semplificazione alla complessità.

Nell’età dell’intelligenza artificiale questa consapevolezza diventa ancora più importante. Oggi la democrazia può essere indebolita non solo da forme esplicite di autoritarismo, ma anche in modo più sottile: attraverso la trasformazione dell’ambiente nel quale i cittadini si informano, formano opinioni, maturano desideri, paure e scelte.

Per questo parlare di intelligenza artificiale significa parlare anche di democrazia. Non perché ogni innovazione sia pericolosa in sé, ma perché l’AI incide sui modi in cui conosciamo, decidiamo, amministriamo, lavoriamo, curiamo, educhiamo e conviviamo. La vera domanda, allora, non è solo che cosa possa fare l’intelligenza artificiale, ma chi la governi, per quali fini, con quali controlli e nell’interesse di chi.

L’intelligenza artificiale rende questa domanda particolarmente delicata perché non interviene solo sulle procedure, ma anche sulla formazione della coscienza. Organizza flussi informativi, seleziona contenuti, suggerisce risposte, personalizza messaggi, anticipa comportamenti, modella preferenze, classifica persone, orienta decisioni. Non resta “fuori” dalla democrazia come uno strumento neutro; entra nell’ambiente nel quale la democrazia produce le proprie condizioni di possibilità.

Una democrazia abitata da individui costantemente profilati, stimolati e indirizzati rischia così di trasformarsi in una struttura procedurale nella quale la libertà formale sopravvive, ma quella sostanziale si riduce.

L’AI come protesi cognitiva

Per comprendere questo passaggio occorre evitare una semplificazione: considerare l’AI come un semplice strumento.

In un primo senso, l’AI è certamente uno strumento. La usiamo per scrivere, tradurre, cercare informazioni, organizzare documenti, produrre immagini, analizzare dati, automatizzare attività. In questa prospettiva appare come un “agente per”: un’entità che agisce per noi, svolgendo un compito al nostro posto.

Ma questa descrizione è insufficiente. L’intelligenza artificiale, soprattutto nelle sue forme generative e conversazionali, viene sempre più percepita non solo come un agente “per” l’uomo, ma come un agente “di” completamento dell’uomo. Non lavora semplicemente al posto della nostra mano; interviene accanto alla nostra mente. Suggerisce parole, struttura pensieri, propone alternative, seleziona percorsi, interpreta dati, anticipa bisogni.

In questo senso, l’AI non è soltanto una macchina operativa. È una protesi cognitiva.

Questa idea trova un ulteriore fondamento nella riflessione di Vittorio Gallese sul “Sé digitale” (Raffaello Cortina Editore, 2026): il digitale non cancella il corpo, ma lo riconfigura. Le tecnologie non si limitano a mediare l’esperienza; modificano il modo in cui percepiamo, ricordiamo, desideriamo, entriamo in relazione. Con l’intelligenza artificiale compare poi un passaggio ulteriore: l’“altro algoritmico”, un interlocutore artificiale capace di simulare presenza, ascolto e risposta. Non è più soltanto uno strumento: è un ambiente relazionale che può riplasmare il nostro modo di essere soggetti.

Uno strumento esterno può essere acceso o spento. Una protesi cognitiva entra invece nel modo in cui percepiamo il mondo. Non si limita ad aiutarci a fare qualcosa; modifica il modo in cui pensiamo di poter conoscere, decidere, giudicare. L’AI ci assiste, ma ci abitua anche a essere assistiti; ci potenzia, ma può renderci dipendenti; amplia le nostre possibilità, ma può indebolire l’autonomia se smettiamo di esercitare le facoltà che essa sostituisce o anticipa.

Quando l’AI entra nel processo attraverso cui conosciamo il mondo, entra anche nel processo attraverso cui esercitiamo la libertà.

Da qui nasce la nuova questione democratica. Viviamo già in una realtà ibrida. Il mondo fisico e quello digitale non sono più separati: relazioni personali, lavoro, informazione, formazione, politica, consumo, salute, sicurezza e identità individuale si svolgono dentro una coesistenza continua tra esperienza materiale e ambiente digitale.

L’intelligenza artificiale accentua questo processo. Non si limita a far circolare contenuti: li costruisce, li ordina, li personalizza, li rende plausibili, li adatta al destinatario. Non si limita a rispondere a domande: può anticiparle. Non si limita a eseguire istruzioni: può suggerire fini, priorità, interpretazioni, decisioni.

Ogni grande tecnologia ha modificato l’essere umano: la scrittura ha trasformato la memoria; la stampa la trasmissione del sapere; la radio e la televisione la comunicazione politica; Internet l’accesso all’informazione. L’AI introduce però qualcosa di ulteriore: non solo estende la comunicazione, ma partecipa alla produzione del pensiero comunicabile.

Se l’AI diventa un interlocutore quotidiano, un assistente personale, un filtro informativo, un consigliere implicito, un mediatore tra noi e il mondo, allora diventa un’infrastruttura cognitiva. E ogni infrastruttura cognitiva è anche un’infrastruttura politica. Il punto, allora, non riguarda soltanto l’efficienza degli strumenti, ma la forma dell’esperienza: se il Sé è incarnato e relazionale, una tecnologia che organizza attenzione, percezione, memoria e relazione non incide solo su ciò che facciamo, ma su ciò che diventiamo.

La politica democratica presuppone cittadini capaci di formarsi liberamente un’opinione. Ma cosa significa “liberamente” in un ambiente nel quale le informazioni sono personalizzate, le emozioni misurabili, le preferenze prevedibili, i messaggi adattabili a ciascun profilo psicologico e i contenuti sintetici potenzialmente indistinguibili da quelli reali?

Non siamo più soltanto davanti alla propaganda tradizionale, rivolta a masse indistinte. La manipolazione algoritmica può parlare a ciascuno in modo diverso, raggiungendo l’individuo nel punto esatto della sua vulnerabilità, del suo desiderio, della sua paura o della sua appartenenza.

La domanda diventa allora: chi governa l’ambiente cognitivo nel quale si forma la volontà democratica?

Se la risposta è: poche piattaforme private, pochi grandi attori tecnologici, pochi proprietari di modelli e infrastrutture computazionali, allora il problema non è più solo tecnologico. È costituzionale.

Quando i costruttori di AI diventano produttori di visioni del mondo

A rendere più delicato questo scenario vi è un ulteriore elemento: alcuni protagonisti della rivoluzione tecnologica non si limitano più a costruire strumenti, ma producono vere e proprie visioni del mondo. La Silicon Valley non è più solo un ecosistema industriale; è anche un laboratorio ideologico, nel quale la tecnologia viene spesso presentata non come semplice mezzo, ma come principio di organizzazione della società e risposta alla lentezza della politica.

Questa trasformazione culturale non nasce con l’AI, ma con la rivoluzione digitale. Già nel 1997, in The Sovereign Individual, James Dale Davidson e William Rees-Mogg anticipavano una visione nella quale il digitale avrebbe indebolito lo Stato-nazione e trasformato progressivamente la cittadinanza in un rapporto di mercato: l’individuo mobile, dotato di risorse economiche e cognitive, non appartiene più stabilmente a una comunità politica, ma sceglie tra giurisdizioni concorrenti quasi come un cliente tra fornitori di servizi.

In tempi più recenti, Alexander Karp, in The Technological Republic, insiste sulla necessità che le società occidentali recuperino capacità strategica, potenza tecnologica e rapidità decisionale per non soccombere nella competizione globale. In questa prospettiva, l’AI non è semplicemente uno strumento produttivo, ma una componente della sovranità, della sicurezza e della forza dello Stato. Peter Thiel, in una riflessione diversa e più radicale, legge invece la modernità tecnologica come il luogo in cui scienza e tecnica finiscono per assumere funzioni quasi salvifiche: prevedere, ordinare, anticipare, neutralizzare l’incertezza. In Voyages to the End of the World, scritto con Sam Wolfe, questa tensione emerge attraverso una rilettura della modernità occidentale come progressiva sostituzione della trascendenza religiosa con una promessa tecnico-scientifica di controllo del mondo.

Sono posizioni diverse, da non sovrapporre. Ma hanno un tratto comune: attribuiscono alla tecnologia, e in particolare all’AI, una funzione che va ben oltre l’innovazione industriale. L’AI diventa potere strategico, visione del mondo, criterio di organizzazione della società. A ciò si accompagna spesso un fastidio, più o meno esplicito, verso le regole democratiche, percepite come riti formali incompatibili con la rapidità decisionale richiesta dalle nuove tecnologie.

Ed è qui che nasce il problema democratico: quando la tecnica non si limita più a offrire strumenti, ma pretende di indicare fini, priorità e forme dell’ordine politico, la democrazia deve interrogarsi. Perché la democrazia non è il governo dell’efficienza assoluta, della previsione totale o della potenza senza controllo. È il regime nel quale anche la potenza tecnica deve essere sottoposta a limiti, responsabilità e deliberazione pubblica.

Lo ha colto bene Enrico Pedemonte (La fattoria degli umani, Treccani 2025 e enricopedemonte.substack.com), mettendo in luce il nesso tra monopoli digitali, cultura della Silicon Valley e crisi della democrazia. Il punto non è soltanto che le grandi piattaforme abbiano acquisito un potere economico enorme. Il punto è che controllano infrastrutture essenziali dell’informazione e della comunicazione, e tendono sempre più spesso a presentare ogni tentativo di regolazione come un attacco alla libertà di parola. In questo modo, la libertà diventa l’argomento con cui il potere tecnologico difende sé stesso da ogni responsabilità pubblica.

Ma la democrazia nasce precisamente per impedire che il potere si presenti come destino. Dice che il futuro deve essere discusso, contestato, deliberato. Dice che nessuna competenza, nessuna tecnica, nessuna élite può sottrarsi al controllo pubblico quando incide sulla vita collettiva. Dice che l’essere umano non è una variabile da ottimizzare, ma una persona da rispettare.

Questo non significa assumere un atteggiamento ostile verso l’intelligenza artificiale. L’AI può diventare uno strumento prezioso per rafforzare la democrazia: rendere più accessibili informazioni, servizi pubblici, norme e diritti; aiutare le amministrazioni a leggere dati e contributi dei cittadini; favorire consultazioni più inclusive e decisioni più trasparenti; sostenere educazione, inclusione e sanità, migliorando prevenzione, diagnosi, continuità delle cure, accesso ai servizi e supporto ai professionisti.

Queste opportunità restano però democratiche solo se l’AI amplia le capacità delle persone e delle istituzioni senza sostituire il giudizio umano, compromettere la tutela dei dati o accentuare le disuguaglianze. Il punto, dunque, non è respingere l’AI. È orientarla.

Qui si colloca anche la prospettiva di HAL, lo Human AI Laboratory dell’Università degli Studi Link, centro di ricerca interdisciplinare dedicato alle implicazioni umane, sociali, giuridiche e culturali dell’intelligenza artificiale. HAL propone una “teoria del limite”: la tecnologia non va respinta, ma ricondotta a misura umana. Il limite non è il contrario dell’innovazione; è ciò che impedisce all’innovazione di trasformarsi in dominio. In questa prospettiva, l’AI deve restare compatibile con ciò che rende umana la vita democratica: il corpo, la relazione, l’imprevedibilità dell’altro, la responsabilità, la possibilità del dissenso.

Dalla cittadinanza alla profilazione

Il rischio principale non è soltanto che l’AI produca errori, falsi contenuti o decisioni discriminatorie. È che contribuisca a trasformare il cittadino in utente profilato. Il cittadino partecipa, discute, dissente, giudica, cambia idea e chiede conto al potere; l’utente profilato, invece, viene osservato, classificato, segmentato e raggiunto da messaggi costruiti sulle sue preferenze, paure e vulnerabilità.

Questa dinamica è già visibile nel capitalismo della sorveglianza, come lo ha definito Shoshana Zuboff: il passaggio dall’uso dei dati per migliorare i servizi all’utilizzo dei dati per manipolare i comportamenti umani a fini economici e politici. Le piattaforme raccolgono dati, personalizzano contenuti e trasformano l’attenzione in leva di influenza. L’AI porta questa logica a un livello ulteriore: genera contenuti, simula interlocuzioni, adatta messaggi e costruisce ambienti informativi modellati sul singolo individuo.

Vi è però un passaggio ancora più delicato: l’AI non si limita a profilarci, ma può presentarsi come interlocutore. Chatbot, assistenti vocali e avatar non simulano soltanto intelligenza; simulano relazione. Offrono risposte, attenzione, memoria, riconoscimento. Il rischio non è solo che li scambiamo per esseri umani, ma che ci abituiamo a relazioni senza vera alterità: interlocutori che non resistono, non contraddicono, non eccedono, ma si adattano a noi. Una democrazia, invece, ha bisogno di cittadini capaci di incontrare l’altro, non solo di ricevere conferme.

La cittadinanza richiede uno spazio comune, fatto di realtà condivisa e confronto tra punti di vista diversi. Se ciascuno vede un mondo costruito su misura per trattenerlo, persuaderlo o prevederlo, la democrazia perde terreno. Il cittadino può cambiare idea; il profilo tende a confermarlo in ciò che il sistema presume che sia.

Un secondo rischio riguarda l’informazione pubblica. L’AI non produce soltanto notizie false, immagini manipolate o video ingannevoli: può alterare il rapporto democratico con la realtà. La democrazia vive di conflitto, ma ha bisogno di un minimo di fatti condivisi. Se questo terreno comune si dissolve, non si discute più su che cosa fare, ma su che cosa esista.

I deepfake mostrano bene il problema: possono attribuire parole mai dette o gesti mai compiuti, ma soprattutto rendono contestabile anche il vero. Quando ogni immagine può essere sospettata di manipolazione, cresce il cinismo epistemico: nulla sembra più verificabile, tutto appare propaganda.

La disinformazione non mira sempre a convincere tutti di una menzogna; spesso produce stanchezza, sfiducia e disorientamento. Incontrando la profilazione, diventa propaganda personalizzata: parla a ciascuno con linguaggio e argomenti coerenti con le sue paure e appartenenze. Non serve sempre censurare: a volte basta sommergere, distrarre, polarizzare. La democrazia può sopportare il conflitto; non la dissoluzione del reale.

Libertà cognitiva e libertà politica

A questo punto emerge il concetto decisivo: la libertà cognitiva. Siamo abituati a pensare la libertà politica come libertà di voto, parola, associazione, stampa e partecipazione. Ma nell’età dell’intelligenza artificiale queste libertà presuppongono una condizione preliminare: la possibilità di formare il proprio giudizio senza essere integralmente manipolati.

Libertà cognitiva significa poter accedere a informazioni affidabili, distinguere tra fatto e opinione, riconoscere la manipolazione, conservare uno spazio interiore di giudizio. Non vuol dire assenza di influenza: nessuno forma le proprie idee nel vuoto. Vuol dire, però, che l’influenza deve restare riconoscibile, discutibile, contestabile.

Il problema degli ambienti algoritmici è proprio questo: spesso l’influenza diventa invisibile. Non sappiamo perché vediamo un contenuto, perché riceviamo un suggerimento, perché una notizia ci appare e un’altra no. Se il nostro ambiente informativo è costruito per catturare attenzione, sfruttare paure e orientare scelte, la libertà politica non scompare, ma si impoverisce. Senza libertà cognitiva non c’è piena libertà politica.

Occorre poi chiarire un equivoco ricorrente: regolare lo spazio digitale non significa limitare la libertà. Significa impedire che la libertà dei soggetti più forti si trasformi in dominio sugli altri.

Le piattaforme tendono spesso a presentare ogni vincolo come censura, ogni obbligo di trasparenza come freno, ogni responsabilità come ostacolo all’innovazione. Ma quando organizzano una parte rilevante della sfera pubblica, decidono criteri di visibilità, raccolgono dati, profilano utenti, orientano flussi informativi e monetizzano attenzione, non sono più semplici soggetti privati: esercitano una funzione pubblica di fatto.

Per questo occorre distinguere la libertà di espressione dei cittadini, che va protetta, dalla libertà delle piattaforme di organizzare opacamente l’attenzione collettiva, che va regolata. Trasparenza degli algoritmi, contrasto alle manipolazioni coordinate, tutela dei minori, riconoscibilità dei contenuti sintetici, protezione dei dati e controllo umano non sono censura: sono condizioni democratiche per l’uso della tecnologia.

Il vero pericolo non è la regolazione democratica della tecnologia, ma la privatizzazione non responsabile dello spazio pubblico.

Se il problema è democratico, la risposta non può essere solo tecnica. Non bastano modelli più accurati o filtri più sofisticati: serve un’agenda democratica per l’AI, fondata su tre pilastri: regole, istituzioni, educazione.

Le regole devono garantire trasparenza, responsabilità, controllo umano, tutela dei diritti, sicurezza e tracciabilità. I cittadini devono sapere quando interagiscono con un sistema artificiale, quando un contenuto è generato o manipolato e quando una decisione che li riguarda è influenzata da un algoritmo.

Anche le istituzioni devono attrezzarsi: non possono limitarsi a usare tecnologie progettate altrove, ma devono sviluppare competenze, capacità di valutazione e autonomia, per evitare di trasferire potere decisionale a soggetti esterni.

L’educazione, però, è forse il punto decisivo. La prima difesa della democrazia non è tecnica, ma culturale: occorre formare cittadini, studenti, amministratori, insegnanti, giornalisti e decisori pubblici a comprendere dati, algoritmi, profilazione, manipolazione e logiche dell’attenzione.

La domanda, allora, non è solo come usare l’AI, ma perché usarla, per quali fini, con quali limiti e a beneficio di chi. Senza questa riflessione, l’efficienza prende il posto del senso e l’innovazione diventa una forza a cui ci si adatta. Ma una democrazia non può limitarsi ad adattarsi: deve scegliere.

Conclusione: orientare l’AI, non subirla

L’intelligenza artificiale non è il nemico della democrazia. Può aiutare a conoscere meglio, amministrare meglio, curare meglio, educare meglio, includere meglio, partecipare meglio. Ma tutto dipende dall’orizzonte nel quale viene collocata.

Se è governata democraticamente, può diventare uno strumento di emancipazione. Se è lasciata alla sola logica del mercato, della sorveglianza, della potenza geopolitica o della fascinazione tecnocratica, può diventare un’infrastruttura di condizionamento.

La democrazia deve evitare due errori opposti: il rifiuto nostalgico della tecnologia, come se fosse possibile tornare a un mondo precedente, e l’accettazione passiva dell’innovazione, come se tutto ciò che è tecnicamente possibile fosse anche inevitabile, e tutto ciò che è inevitabile fosse anche giusto.

Tra paura e idolatria esiste una terza via: la responsabilità.

Responsabilità significa riconoscere la potenza dell’AI senza trasformarla in destino. Significa usarla senza esserne usati, pretendere trasparenza da sistemi che incidono sulle persone, costruire regole senza soffocare l’innovazione, formare cittadini capaci di pensiero critico.

Ma significa anche porsi una domanda più profonda: non solo che cosa l’AI possa fare al posto nostro, ma che cosa ci abitui a non fare più, che cosa ci induca a delegare, quale forma di soggettività contribuisca a produrre. Una democrazia non può rinunciare a questa domanda, perché il suo fondamento non è l’efficienza del sistema, ma la maturità di cittadini capaci di giudizio, responsabilità e relazione.

Nel Novecento la democrazia ha dovuto difendersi dai totalitarismi, dalla propaganda di massa, dalla concentrazione autoritaria dello Stato. Nel XXI secolo deve imparare a difendersi anche dalla concentrazione del potere cognitivo, dalla manipolazione algoritmica, dalla sorveglianza predittiva, dalla privatizzazione dello spazio pubblico.

La democrazia non muore solo quando viene impedito il voto. Si indebolisce anche quando viene condizionata la coscienza di chi vota.

La domanda non è se l’AI cambierà la democrazia. La cambierà certamente. La domanda è un’altra: sapremo governare questo cambiamento senza rinunciare alla libertà che ci definisce?

La democrazia non deve subire l’intelligenza artificiale. Deve orientarla. Deve farne non una nuova forma di dominio, ma uno strumento al servizio della persona, della partecipazione e dei bisogni collettivi.

PAOLO POLETTI