Il Leviatano di silicio

di SIMONETTA BISI

Un tempo il potere si mostrava con la spada, poi con il contratto. Oggi si nasconde nel codice.

Nel 1651, Thomas Hobbes immaginava il Leviatano come un artificio necessario: un corpo sovrano composto da tutti gli uomini, un mostro giuridico nato per domare la guerra di tutti contro tutti. Oggi, a distanza di quasi quattro secoli, un altro Leviatano si aggira tra noi. È senza volto, senza corpo, senza contratto. Si chiama algoritmo[1].

Non più incarnazione del potere visibile, ma forza invisibile che calcola, predice, decide.

Dove il Leviatano hobbesiano era un patto esplicito, l’algoritmo è un patto implicito, accettato con un clic. Dove il sovrano era responsabile, l’algoritmo è opaco, distribuito, inafferrabile. Eppure, come il Leviatano, esige obbedienza in cambio di ordine.

Ma quale ordine? E a quale prezzo?

 

  1. Dal sovrano politico al sovrano computazionale

Il Leviatano classico nasceva per garantire sicurezza. Il suo potere era concentrato, identificabile, contestabile almeno in linea teorica. Il Leviatano di silicio, invece, non governa attraverso decreti ma attraverso architetture digitali. Non impone con la forza, ma orienta con la probabilità.

Gli algoritmi che regolano i flussi informativi, l’accesso al credito, la selezione del personale, la sorveglianza urbana e perfino la diagnosi medica non si limitano a descrivere la realtà: la modellano. Operano mediante sistemi di apprendimento automatico capaci di analizzare enormi quantità di dati, individuare correlazioni e produrre previsioni.

Dal punto di vista scientifico, si tratta di modelli statistici complessi, spesso basati su reti neurali profonde, che ottimizzano funzioni di costo minimizzando l’errore rispetto ai dati di addestramento.

Il problema non è l’efficienza. È la normatività implicita.

Ogni modello incorpora scelte: quali dati includere, quali escludere, quali variabili considerare rilevanti, quale obiettivo massimizzare. Se l’obiettivo è il profitto, l’algoritmo tenderà a rafforzare comportamenti che aumentano il tempo di permanenza, l’engagement, la polarizzazione emotiva. Se l’obiettivo è la sicurezza, potrà amplificare meccanismi di sorveglianza preventiva, con effetti discriminatori documentati in numerosi studi empirici.

La decisione algoritmica non è neutra: è una decisione politica travestita da calcolo.

 

  1. L’illusione dell’oggettività

Il Leviatano hobbesiano era un artificio dichiarato. L’algoritmo, invece, gode di un’aura di oggettività tecnica. La sua autorità deriva dalla matematica, dalla statistica, dalla promessa di precisione. Tuttavia, la scienza dei dati mostra che ogni sistema predittivo è tanto affidabile quanto i dati che lo alimentano. Bias storici, disuguaglianze pregresse e stereotipi sociali possono essere tradotti in pattern computazionali e riprodotti su larga scala.

Qui si apre una frattura epistemologica: ciò che è probabile viene scambiato per ciò che è giusto; ciò che è frequente per ciò che è legittimo.

La governance algoritmica non si limita a reagire ai comportamenti: li anticipa. In questo senso realizza una forma di potere previsionale. Non punisce soltanto dopo l’azione, ma interviene prima, classificando individui in categorie di rischio, affidabilità, desiderabilità. La libertà non viene soppressa apertamente; viene modulata attraverso incentivi invisibili.

 

  1. Il clic come nuovo contratto

Se il Leviatano moderno nasceva da un contratto sociale, oggi il consenso si manifesta nella forma minima dell’accettazione delle condizioni d’uso. Il clic sostituisce la deliberazione. Ma può davvero dirsi consenso un atto compiuto in assenza di reale alternativa?

Dal punto di vista giuridico e sociologico, la concentrazione dei dati nelle mani di poche grandi piattaforme crea asimmetrie di potere difficili da colmare. Dal punto di vista scientifico, la capacità di inferire preferenze, orientamenti politici, stati emotivi attraverso l’analisi comportamentale rende il soggetto sempre più trasparente al sistema, mentre il sistema resta opaco al soggetto.

È un rovesciamento rispetto all’ideale illuministico: non è più il potere a essere visibile e il cittadino a essere protetto; è il cittadino a essere tracciabile e il potere a essere nascosto nell’infrastruttura.

 

  1. Ordine o addomesticamento?

Il Leviatano di silicio promette ordine: personalizzazione, sicurezza, efficienza. Ma l’ordine ottenuto attraverso la profilazione costante rischia di trasformarsi in addomesticamento. Se ciò che vediamo è filtrato, se ciò che leggiamo è selezionato, se le nostre scelte sono anticipate, la pluralità si restringe senza che ce ne accorgiamo.

Non si tratta di demonizzare la tecnologia. I sistemi algoritmici hanno prodotto avanzamenti straordinari nella medicina, nella climatologia, nella ricerca scientifica. La questione è politica e filosofica: chi decide i criteri? Chi controlla i controllori? Quale spazio resta per l’imprevedibile, per l’errore creativo, per il dissenso?

Il Leviatano hobbesiano nasceva per evitare il caos. Il Leviatano di silicio rischia di produrre un ordine talmente liscio da neutralizzare il conflitto, e con esso la possibilità stessa della critica.

La domanda, allora, non è se possiamo vivere senza algoritmi. È se possiamo vivere consegnando loro, senza riserve, la nostra capacità di giudizio.

E forse il vero prezzo non è la perdita della libertà visibile, ma l’erosione lenta della responsabilità.

 

  1. Dalla libertà alla predittività: il desiderio anticipato, il rischio calcolato

L’ordine promesso dal Leviatano di silicio non passa più soltanto per la legge, ma per la predizione. La libertà viene riscritta come un margine statistico: ciò che farai “probabilmente” diventa ciò che il sistema considera sensato incentivare, scoraggiare, filtrare. Qui il potere non si limita a osservare: fabbrica previsioni e le mette a valore. Shoshana Zuboff ha descritto questo passaggio come trasformazione dell’esperienza umana in dati comportamentali e “prodotti di previsione” capaci di anticipare ciò che faremo “ora, presto e più tardi”. Non è solo conoscenza: è un’economia della previsione[2].

Ecco alcuni esempi: Se un algoritmo dice che un quartiere è “a rischio”, la polizia ci manda più pattuglie. Risultato: quel quartiere diventa davvero più controllato, e quindi più “a rischio” nelle statistiche. Se un sistema predittivo dice che un giovane “ha alta probabilità di abbandonare la scuola”, gli insegnanti potrebbero trattarlo come un caso problematico. Risultato: la previsione influenza il suo percorso. Se un algoritmo suggerisce che “ti piaceranno questi contenuti”, tenderai a vederli e a confermare la previsione.

In tutti questi casi, la previsione produce il comportamento che prevedeva

  1. Il corpo come dato, la mente come target.

Il corpo entra nei sistemi come flusso misurabile (geolocalizzazione, biometrie, ritmo del sonno, performance), mentre la mente diventa bersaglio: attenzione, emozioni, desideri e fragilità vengono trattati come variabili da orientare.

Deleuze aveva intuito che, nelle società digitali, non siamo più considerati persone intere, ma frammenti di dati. Questi frammenti, i “dividui”, vengono raccolti e gestiti in tempo reale da sistemi di controllo diffuso.

In questa prospettiva, l’algoritmo non è solo uno strumento tecnico: è un nuovo modo di governare, che orienta i comportamenti senza mostrarsi e prende decisioni senza assumersi la responsabilità di averle prese[3].

 

  1. L’erosione della responsabilità

 

Il Leviatano hobbesiano, per quanto assoluto, aveva un volto riconoscibile. Poteva essere contestato, rovesciato, chiamato a rispondere. Il Leviatano di silicio, invece, distribuisce la decisione lungo una catena tecnica in cui nessuno sembra davvero decidere.

Quando un algoritmo assegna un punteggio di rischio, filtra una candidatura, modula la visibilità di un contenuto, la risposta è spesso la stessa: lo dice il sistema. La decisione appare come il risultato neutro di un calcolo. Ma ogni calcolo presuppone un modello, ogni modello una scelta, ogni scelta una gerarchia di valori. È qui che si consuma l’erosione della responsabilità.

Sul piano tecnico, i sistemi di apprendimento automatico operano attraverso ottimizzazioni matematiche: minimizzano l’errore rispetto ai dati di addestramento. Tuttavia, scegliere quale errore minimizzare e quale obiettivo massimizzare non è un fatto tecnico, ma normativo. Se si ottimizza l’engagement, si privilegeranno contenuti capaci di catturare l’attenzione; se si ottimizza la sicurezza, si accetterà una certa quota di sorveglianza preventiva. In entrambi i casi, qualcuno ha stabilito la funzione di costo.

Eppure, la retorica dell’automazione tende a rendere invisibile questo “qualcuno”. La responsabilità si frammenta tra sviluppatori, aziende, piattaforme, utenti, regolatori. Ognuno è solo un segmento della catena. Il risultato è una forma di irresponsabilità sistemica: non perché nessuno agisca, ma perché l’azione è mediata da infrastrutture che rendono opaco il nesso tra decisione e conseguenza. Qui si comprende fino in fondo il passaggio dalla libertà alla predittività. Se le nostre scelte vengono anticipate e orientate, e se le decisioni che ci riguardano vengono delegate a modelli statistici, la responsabilità individuale e collettiva si assottiglia. Non scompare in modo spettacolare; si attenua, come una voce coperta dal rumore di fondo dell’efficienza. Il rischio più profondo non è l’autoritarismo dichiarato, ma l’abitudine: l’abitudine a confondere il probabile con il giusto, il calcolabile con il legittimo.

Il Leviatano di silicio non chiede fedeltà ideologica. Chiede fiducia silenziosa nel calcolo. La questione, allora, non è soltanto come regolamentare gli algoritmi, ma come restituire visibilità alla decisione e quindi responsabilità a chi la progetta, la implementa, la utilizza. Perché senza responsabilità non esiste ordine politico, ma solo gestione tecnica.
E senza possibilità di imputazione non c’è nemmeno critica ma soltanto adattamento. Il problema non è l’esistenza degli algoritmi, ma la rinuncia collettiva a interrogarne le scelte.
Ogni sistema che decide al posto nostro modifica, silenziosamente, il perimetro della nostra libertà.

[1] Per una recente ripresa della metafora hobbesiana nella riflessione contemporanea sulle tecnologie digitali si veda M. D. Garasic, Leviatano 4.0. Politica delle nuove tecnologie (Luiss University Press, 2022), in cui si esplora la relazione tra forme di potere e innovazioni tecnologiche assumendo il Leviatano come figura teorica applicabile alla governance algoritmica. Tuttavia, se Garasic pone l’accento sulla persistenza di dinamiche di potere in epoca digitale, nel presente saggio la metafora del “Leviatano di silicio” è utilizzata specificamente per analizzare il passaggio dalla legittimazione politica della sovranità alla normatività implicita dei sistemi predittivi e, con essa, l’erosione della responsabilità decisionale.

[2] Vds S. Zuboff, Il capitalismo della sorveglianza, Luiss University press, Roma 2019 e S. Bisi, “ Il capitalismo: una metamorfosi continua”, in L’eclissi del pensiero critico, Bordeaux, Roma, 2015, pp.99-106.

[3] Cfr. G. Deleuze, Postscript on the Societies of Control on JSTOR. Un’intuizione sorprendentemente precoce, se pensiamo che Deleuze scriveva negli anni ’90, prima dei social network e del capitalismo della sorveglianza.

SIMONETTA BISI