Il caso Anthropic non è una lite contrattuale, ma una lotta sul potere di fissare i limiti dell’AI.

di PAOLO POLETTI ♦

 

  1. Premessa

Per capire il caso Anthropic occorre partire dai suoi protagonisti. Dario Amodei è un ricercatore e imprenditore statunitense, già vicepresidente della ricerca di OpenAI; sua sorella Daniela Amodei, oggi presidente della società, ha anch’essa un passato in OpenAI ed è stata tra le figure chiave della costruzione organizzativa e strategica dell’azienda. Nel 2021 i due fratelli, insieme ad altri ex dirigenti e ricercatori di OpenAI, hanno fondato Anthropic come società di ricerca e sviluppo sull’intelligenza artificiale, con una missione dichiarata molto precisa: costruire sistemi AI affidabili, interpretabili e controllabili, capaci di coniugare potenza tecnologica e sicurezza.

Da questa impostazione è nato Claude, presentato da Anthropic nel 2023 come un assistente AI di nuova generazione, costruito sulla ricerca della società in materia di sistemi “helpful, honest, and harmless”, cioè utili, onesti e non dannosi. Nel tempo Claude è diventato il prodotto simbolo di Anthropic e il veicolo principale della sua idea di AI: non solo capace, ma anche governabile e coerente con una precisa architettura di valori e di sicurezza.

Il rapporto con il Pentagono nasce quando Claude viene adottato anche in ambito di sicurezza nazionale, fino a essere utilizzato su reti e sistemi classificati, perché ritenuto uno dei modelli più avanzati e più adatti a compiti sensibili di analisi e supporto operativo. Il rapporto non nasce quindi sotto il segno di un’avversione di principio all’uso strategico dell’AI. Al contrario, Anthropic ha rivendicato di aver collaborato con il governo americano su profili di sicurezza nazionale. La rottura matura quando Washington pretende che Claude possa essere usato per qualsiasi finalità legalmente ammessa, mentre Anthropic insiste nel mantenere due sole linee rosse: sorveglianza domestica di massa e armi pienamente autonome. A prima vista, la vicenda che ha contrapposto Anthropic al Pentagono potrebbe sembrare una delle tante controversie tra un fornitore tecnologico e il proprio principale committente istituzionale. Un dissidio commerciale. Un conflitto sulle clausole di un contratto. Ma fermarsi a questa lettura significherebbe non cogliere la vera portata del caso.

Qui non siamo davanti a una semplice lite contrattuale. Siamo davanti a uno scontro molto più profondo, che riguarda il potere di stabilire fin dove possa spingersi l’intelligenza artificiale quando entra negli ambiti più delicati dell’azione pubblica: la sicurezza, la sorveglianza, la guerra. Il punto non è se Claude fosse o meno il modello migliore, né se Anthropic avesse titolo per negoziare condizioni economiche più favorevoli. Il punto è che Anthropic ha provato a mantenere due limiti precisi e che proprio su questi si è consumata la rottura.

Vale la pena chiarire subito un equivoco, perché su questo si gioca una parte importante della vicenda. Anthropic non sostiene di dover entrare nelle decisioni operative dell’apparato militare, né pretende di sostituirsi alla catena di comando pubblica. Nelle sue dichiarazioni più recenti, la società insiste anzi su un punto molto preciso: le scelte operative spettano al governo e alle forze armate; ciò che Anthropic rivendica è soltanto il mantenimento di due eccezioni di principio, cioè il rifiuto dell’uso dei propri modelli per la sorveglianza domestica di massa e per le armi pienamente autonome. Questa precisazione è decisiva, perché consente di distinguere tra due piani che nella polemica pubblica tendono a essere confusi: da un lato l’autonomia dello Stato nelle proprie decisioni strategiche; dall’altro il diritto-dovere di chi sviluppa una tecnologia di non renderla disponibile per usi ritenuti radicalmente incompatibili con diritti fondamentali e responsabilità umana. In questa luce, il conflitto non appare più come il tentativo di un’azienda privata di “dettare le regole” all’esercito, ma come lo scontro tra una logica di disponibilità generale della tecnologia e una logica di autolimitazione su due soglie considerate non negoziabili.

Da qui nasce la vera domanda, che va ben oltre la specifica vicenda americana: chi decide il confine dell’AI? Lo decide l’impresa che la sviluppa? Lo decide il governo che la acquista? Lo decide il mercato, premiando chi è più disponibile a rimuovere i vincoli? Oppure lo decide il diritto, attraverso regole pubbliche, trasparenti e democraticamente legittimate?

La posizione del Pentagono, per come emerge dal dossier, è brutale nella sua chiarezza: Anthropic non può “fare le regole”. Le regole, in questa visione, le detta il potere pubblico; al privato spetta eseguire, non sindacare. Eppure, proprio qui si apre il punto più delicato. Quando una tecnologia ha il potere di incidere sulla selezione degli obiettivi, sulla capacità di sorvegliare intere popolazioni o sulla velocità con cui si attiva l’uso della forza, il problema non può essere ridotto all’obbedienza del fornitore. Perché in gioco non c’è soltanto la prerogativa dello Stato, ma il rapporto tra potere, tecnica e responsabilità.

Il caso Anthropic, allora, ci obbliga a guardare in faccia una verità scomoda: nella fase attuale dello sviluppo tecnologico, i limiti dell’intelligenza artificiale non sono ancora fissati in modo sufficientemente chiaro dal diritto pubblico. Ed è proprio per questa ragione che il conflitto esplode nel luogo più sensibile, cioè nel rapporto tra chi produce la tecnologia e chi vuole impiegarla senza ulteriori “interferenze” etiche. Quando la legge arriva tardi, il vuoto viene riempito dalla forza contrattuale, dalla pressione politica, dalla ragion di Stato o, all’opposto, dall’autolimitazione del soggetto privato. Ma nessuna di queste soluzioni, da sola, è rassicurante.

  1. Le due linee rosse: sorveglianza di massa e armi autonome.

Il punto più interessante del caso Anthropic è che lo scontro non nasce da un rifiuto generalizzato dell’uso pubblico o militare dell’intelligenza artificiale. Nasce, al contrario, da un rifiuto molto circoscritto. Anthropic non dice: la nostra tecnologia non può essere usata dallo Stato. Dice qualcosa di più preciso e, proprio per questo, più scomodo: esistono almeno due ambiti nei quali l’AI non dovrebbe essere lasciata libera di operare senza un limite rigoroso. Quei due ambiti sono la sorveglianza di massa e le armi completamente autonome.

È una distinzione importante, perché sottrae la discussione alla caricatura ideologica. Non siamo di fronte a una posizione pacifista astratta o a una generica diffidenza verso l’innovazione. Siamo di fronte all’individuazione di due soglie critiche, nelle quali la combinazione tra potere pubblico e intelligenza artificiale rischia di produrre effetti incompatibili con una società democratica.

La prima linea rossa è la sorveglianza di massa. E qui occorre essere chiari: il problema non è soltanto la privacy, come se si trattasse semplicemente di proteggere una sfera privata dall’intrusione indebita. Il problema è più radicale. Quando l’AI viene applicata alla raccolta, correlazione e interpretazione di enormi quantità di dati, il potere non si limita più a vedere: comincia a ricostruire, classificare, anticipare, profilare. Non osserva soltanto i comportamenti; tenta di inferire abitudini, relazioni, orientamenti, vulnerabilità, intenzioni. È qui che la sorveglianza cambia natura. Non è più controllo episodico. Diventa architettura permanente di conoscenza e, quindi, di potere.

Per questo, con l’AI, il nodo non è più soltanto quali dati siano formalmente accessibili, ma come quei dati vengano trattati. Il vero problema sta nella capacità di trasformare informazioni sparse, magari anche apparentemente innocue, in un quadro altamente penetrante della vita delle persone. E quando questa capacità viene collocata nelle mani del potere pubblico, senza limiti chiari e senza adeguate garanzie, il rischio non è solo l’abuso individuale: è la normalizzazione di un modello di controllo incompatibile con la libertà democratica. La persona smette di essere soggetto di diritti e diventa progressivamente oggetto di monitoraggio, classificazione e previsione.

La seconda linea rossa riguarda le armi autonome. Qui il discorso si fa ancora più delicato, perché entra in gioco non solo la libertà, ma la vita. Il materiale sul caso insiste su un punto molto semplice e molto forte: i sistemi di AI, per quanto avanzati, non sono oggi abbastanza affidabili da sostenere senza residui di rischio la gestione di armi pienamente autonome. E soprattutto, quando un sistema sbaglia nell’identificare un obiettivo militare, quell’errore non è assimilabile a una normale disfunzione tecnica. Non sempre può essere corretto. Spesso produce conseguenze irreversibili.

È proprio qui che emerge il significato profondo del cosiddetto controllo umano significativo. Non si tratta di una formula burocratica o di un compromesso lessicale. Si tratta del presidio minimo necessario per evitare che la decisione sull’uso della forza venga progressivamente assorbita dall’automazione. Una decisione può essere assistita dalla macchina; non può essere moralmente trasferita alla macchina senza che si dissolva il principio stesso di responsabilità.

Le due linee rosse, in fondo, si tengono insieme. La sorveglianza di massa rappresenta il rischio di una tecnologia che invade la sfera della libertà, riducendo lo spazio dell’autonomia individuale e alterando il rapporto tra cittadino e istituzioni. Le armi autonome rappresentano il rischio di una tecnologia che invade la sfera della decisione estrema, quella che riguarda l’uso della forza e la vita umana. In entrambi i casi il problema è lo stesso: l’AI non si limita ad aumentare la capacità operativa del potere, ma tende a spostare più a monte il baricentro della decisione, rendendola più opaca, più veloce, più difficile da sindacare.

Ed è proprio questo che rende la posizione di Anthropic così significativa. Non perché sia necessariamente sufficiente e nemmeno perché un’impresa privata debba diventare l’arbitro morale del mondo, bensì individua due punti nei quali il principio di prudenza non è un lusso etico: è una condizione minima di civiltà giuridica.

  1. Il paradosso di una tecnologia punita ma già indispensabile nei sistemi classificati.

Uno degli aspetti più rivelatori del caso Anthropic è il paradosso che esso porta alla luce. Da un lato, l’azienda viene colpita perché si rifiuta di eliminare due limiti considerati essenziali: niente sorveglianza di massa, niente armi completamente autonome. Dall’altro, proprio la tecnologia sviluppata da quella stessa azienda continua a essere ritenuta così avanzata e così profondamente integrata nei sistemi classificati da non poter essere sostituita rapidamente. È qui che la vicenda smette di essere soltanto uno scontro politico o contrattuale e diventa la rappresentazione di una dipendenza strutturale. Varie fonti riferiscono infatti che Claude resta il solo modello già dispiegato in operazioni classificate, pur nel pieno dell’escalation tra Anthropic e il Governo.

In altri termini, Anthropic viene trattata come un ostacolo, ma Claude resta una risorsa. L’impresa viene delegittimata; la sua tecnologia, invece, continua a essere necessaria. Questo scarto è altamente significativo, perché mostra come il vero baricentro del potere non sia più soltanto nella titolarità formale del rapporto contrattuale, ma nella incorporazione materiale della tecnologia dentro apparati sensibili, reti classificate, procedure operative e filiere decisionali. Quando un sistema di intelligenza artificiale entra davvero nell’infrastruttura strategica di uno Stato, esso smette di essere un semplice prodotto sostituibile con facilità e tende a trasformarsi in una componente dell’apparato stesso.

Non è secondario, a questo proposito, che nella vicenda compaia anche Palantir (società americana specializzata in software di analisi dei dati per intelligence, difesa e sicurezza) come partner nell’integrazione di Claude nei sistemi classificati. Il riferimento è importante perché colloca il caso Anthropic dentro un intreccio più ampio tra grandi imprese tecnologiche, apparati della difesa e potere strategico. È in questo senso, e solo in questo senso, che sullo sfondo compare quindi Peter Thiel, co-fondatore di Palantir: non come protagonista diretto dello scontro, ma come figura emblematica di quel rapporto sempre più stretto tra big tech e sicurezza nazionale. Peter Thiel, del resto, è una figura controversa non solo per il suo ruolo nel capitalismo tecnologico e della difesa, ma anche per le sue singolari posizioni filosofiche e teologico-politiche, nelle quali il tema del progresso tecnico si intreccia con letture apocalittiche della storia e con una forte diffidenza verso la regolazione come possibile veicolo di nuove forme di dominio.

Il punto è cruciale. Finché una tecnologia resta esterna, il conflitto sembra governabile con gli strumenti ordinari: si cambia fornitore, si rescinde un contratto, si impone una sanzione, si apre una nuova gara. Ma quando quella tecnologia è già innestata nei processi classificati, nella catena di analisi, nelle simulazioni operative, nelle interfacce informative usate quotidianamente, la sostituzione non è più un gesto neutro. C’è infatti una ragione strettamente tecnica che rende il problema ancora più serio: una volta che un sistema di AI è stato messo in esercizio, soprattutto in ambienti classificati o ad alta sensibilità operativa, la sua sostituzione non è semplice né immediata. Non si tratta soltanto di cambiare un fornitore. Occorre ripensare integrazioni, procedure, controlli di sicurezza, validazioni, interoperabilità e continuità del servizio. Per questo Claude continua a essere utilizzato: non solo perché ritenuto avanzato, bensì per la circostanza che un sistema già incorporato nell’infrastruttura operativa non può essere rimosso dall’oggi al domani senza costi, rischi e tempi di transizione rilevanti. E soprattutto rivela una verità che la retorica dell’onnipotenza statale tende a rimuovere: anche il potere pubblico, quando si affida a sistemi AI complessi, può diventare dipendente da ciò che non controlla interamente.

E così emerge una confessione politicamente molto istruttiva: il Pentagono continua a trattare con Anthropic mentre la colpisce, proprio perché ne ha ancora bisogno. Questa dinamica smonta ogni retorica di autosufficienza del potere pubblico. Il governo può minacciare, sanzionare, imporre ultimatum. Ma se la tecnologia che vuole colpire è anche quella di cui non può fare a meno, il rapporto di forza si complica.

Qui il caso Anthropic tocca un nodo strategico più ampio: la dipendenza tecnologica. Normalmente si pensa che la sicurezza nazionale coincida con l’accesso alla tecnologia più avanzata. Ma questa vicenda mostra che la stessa tecnologia che garantisce superiorità operativa può diventare anche una fonte di vulnerabilità istituzionale, se nessuno è davvero in grado di sostituirla rapidamente. È di pubblica evidenza sia la ricerca di fornitori alternativi, sia il fatto che Claude resti, allo stato, il modello migliore per l’uso militare e classificato.

Da qui deriva il carattere quasi contraddittorio della reazione del Pentagono. Da un lato, minaccia la cancellazione del contratto e l’isolamento di Anthropic come azienda pericolosa, sul modello di precedenti riservati a soggetti legati a potenze avversarie. Dall’altro, lo stesso materiale segnala un periodo di phase-out e trattative protratte fino all’ultimo, proprio perché smontare il software Anthropic da tutti i sistemi sarebbe un’operazione complessa e strategicamente rischiosa.

Il punto, allora, non è soltanto la sproporzione della reazione pubblica. Il punto è che la vicenda mostra come, nell’era dell’AI, la sovranità non coincida più semplicemente con il potere di comandare. Uno Stato può anche proclamare che nessuna azienda privata debba “dettare le regole” alle forze armate. Ma se quella stessa azienda ha sviluppato il solo sistema davvero operativo nei contesti “classificati” (coperti da riservatezza), il problema non è più soltanto politico: è infrastrutturale. La forza dell’autorità pubblica si misura anche nella sua capacità di comprendere, governare, sostituire e, se necessario, dismettere le tecnologie strategiche dalle quali dipende.

  1. Perché il criterio del “lawful use” (uso limitato a quanto legalmente ammesso) non basta quando la legge rincorre la tecnica.

Uno dei passaggi più rivelatori del caso Anthropic è la formula sulla quale il Pentagono avrebbe voluto fondare l’intero rapporto con i fornitori di intelligenza artificiale: uso consentito per tutti gli scopi “legalmente ammessi”. A prima vista, può sembrare una posizione ragionevole. In fondo, quale soggetto pubblico potrebbe accettare che un’azienda privata si inserisca nella catena di comando e pretenda di stabilire unilateralmente ciò che l’esercito può o non può fare? E tuttavia proprio qui emerge il punto più delicato dell’intera vicenda: in materia di AI, il richiamo al solo “lawful use” rischia di essere una formula apparentemente neutra ma, in realtà, troppo debole per proteggere valori fondamentali.

Che questo non sia più soltanto un dissidio politico o industriale lo dimostra un fatto ulteriore: la vicenda è ormai entrata apertamente nel terreno giudiziario. Anthropic ha impugnato la decisione del governo americano di classificarla come fattore di rischio per la supply-chain risk, contestando la legittimità della misura e sostenendo che essa produca un danno economico, reputazionale e concorrenziale difficilmente reversibile. Il passaggio è importante perché sposta la questione su un piano ancora più delicato: non si tratta più solo di discutere se un fornitore possa porre limiti alla propria tecnologia, ma anche di verificare fino a che punto il potere pubblico possa reagire quando quei limiti intralciano una determinata strategia di impiego. In questo senso, il caso Anthropic diventa un banco di prova non solo dell’etica dell’AI, ma anche del rapporto tra discrezionalità governativa, tutela giurisdizionale e controllo del giudice su decisioni adottate in nome della sicurezza nazionale. Ed è proprio questo slittamento sul terreno del contenzioso a rendere ancora più evidente la debolezza del solo criterio del “lawful use”: se la clausola del lecito fosse davvero sufficiente a chiudere il problema, non saremmo già davanti a una controversia nella quale si discutono, insieme, limiti della tecnologia, potere dello Stato e garanzie dello Stato di diritto. Ma, nello stesso tempo, viene osservato che proprio negli Stati Uniti, sull’uso militare dell’AI, mancano leggi, limiti specifici e controlli adeguati. Se questo è vero, allora il criterio del “lawful” rischia di svuotarsi: non indica un perimetro rigoroso, ma lascia campo libero a tutto ciò che non sia già espressamente vietato. E quando il diritto non ha ancora tipizzato i divieti, il risultato è semplice: il non vietato si trasforma di fatto in consentito.

È qui che il caso Anthropic diventa interessante anche sul piano teorico. La legalità formale, da sola, non basta quando la tecnica corre più veloce della normazione. In altri termini, non è sufficiente dire che un certo uso dell’AI è ammissibile solo perché il legislatore non è ancora arrivato a vietarlo. Questo modo di ragionare capovolge il rapporto corretto tra diritto e tecnologia: invece di chiedersi quali limiti siano necessari per proteggere persona, libertà e responsabilità, ci si limita a registrare il ritardo della norma e a trasformarlo in una licenza temporanea.

La fragilità di questo criterio emerge con particolare evidenza proprio sui due fronti più sensibili: sorveglianza di massa e armi autonome. Se non esiste ancora una disciplina puntuale che vieti in modo espresso determinati usi, il richiamo al “lawful use” non impedisce affatto che sistemi potentissimi vengano impiegati in ambiti dove il rischio per diritti e garanzie è massimo. Anthropic, infatti, ha rifiutato di accettare questa impostazione proprio perché ritiene che i modelli di frontiera non siano abbastanza affidabili da governare armi completamente autonome e che la sorveglianza di massa costituisca una minaccia per la democrazia. Il Pentagono, al contrario, ha rivendicato un principio di fondo: la tecnologia deve poter essere utilizzata per tutti i fini leciti, senza che il fornitore si arroghi il diritto di restringerne l’impiego.

Il conflitto, allora, è più profondo di quanto sembri. Da una parte c’è una concezione minimalista della legalità, secondo cui basta rispettare il perimetro normativo esistente. Dall’altra c’è una concezione prudenziale, secondo cui proprio l’incompletezza del diritto impone di mantenere guardrail aggiuntivi, almeno finché la tecnologia resta opaca, poco prevedibile e capace di produrre danni irreversibili. In questo senso, Anthropic non rivendica tanto un potere politico quanto una responsabilità di sistema: se la legge non è ancora in grado di presidiare adeguatamente certi usi, qualcuno deve pur riconoscere che esistono soglie da non oltrepassare.

Naturalmente, questo apre un problema ulteriore. Non è rassicurante che a decidere queste soglie sia il solo soggetto privato che sviluppa il modello. Ma è altrettanto poco rassicurante l’idea opposta: che, in assenza di regole pubbliche sufficientemente determinate, il potere pubblico possa pretendere l’uso di una tecnologia avanzata per qualunque fine non ancora vietato. Il punto non è scegliere tra etica privata e autorità statale. Il punto è riconoscere che, quando la tecnica anticipa il diritto, il semplice richiamo al “lawful use” non può diventare una scorciatoia per eludere la domanda più importante: quali usi sono compatibili con i principi di una società democratica, anche prima che il legislatore riesca a codificarli in dettaglio?

C’è, in fondo, una verità molto semplice che il caso Anthropic ci costringe a vedere. Il diritto arriva spesso tardi rispetto all’innovazione, ma questo non significa che tutto ciò che la tecnologia rende possibile debba essere considerato provvisoriamente legittimo. Anzi, proprio nei contesti in cui l’AI tocca sorveglianza, targeting, uso della forza e sicurezza nazionale, il ritardo normativo dovrebbe imporre più cautela, non meno. Altrimenti la legalità si riduce a una formula vuota, buona solo a coprire con linguaggio giuridico ciò che resta, in sostanza, una scelta di potere.

Ed è qui che il criterio del “lawful use” mostra il suo limite più serio. Presentato come difesa della prerogativa pubblica, rischia in realtà di diventare il modo con cui la politica trasforma il vuoto del diritto in disponibilità totale della tecnica. Ma una democrazia non si misura dalla velocità con cui riesce a usare una nuova tecnologia. Si misura anche dalla capacità di fermarsi prima, e di chiedersi se quell’uso, pur non ancora vietato, sia davvero compatibile con la dignità della persona, con la responsabilità umana e con il primato del diritto.

  1. Se i limiti restano volontari, il mercato li aggira e la politica li delegittima.

Il caso Anthropic mostra con particolare chiarezza un punto decisivo: se i limiti etici restano affidati alla sola volontà del produttore, il sistema tende ad aggirarli. Quando un’azienda rifiuta determinati usi della propria tecnologia, il problema non si arresta; si sposta semplicemente verso un altro fornitore.

Ed è significativo che, in questa vicenda, il meccanismo non sia rimasto teorico. Mentre il conflitto con Anthropic si irrigidiva, il Dipartimento della Difesa ha accelerato il confronto con altri grandi operatori dell’AI. Tra questi è emersa anche xAI di Elon Musk, che secondo Reuters ha raggiunto un accordo con il Pentagono per il dispiegamento su reti classificate, mentre Associated Press ha ricordato che xAI rientra tra i destinatari dei nuovi contratti del Dipartimento della Difesa fino a 200 milioni di dollari ciascuno. Questo non significa, in termini semplicistici, che xAI sia “migliore” o “superiore” a Claude. Le fonti consentono una valutazione più prudente: il vantaggio iniziale di Anthropic sembrava consistere soprattutto nella maggiore maturità di integrazione e impiego nei contesti classificati, più che in una superiorità tecnica assoluta in ogni dimensione.

Va però ricordato un punto, che il caso rende molto chiaro: la ricerca di fornitori alternativi non coincide automaticamente con la sostituzione immediata del sistema già in uso. Come si è visto, una volta che un modello di AI è stato integrato in reti, procedure e ambienti operativi sensibili, rimuoverlo e sostituirlo non è semplice né rapido. Proprio per questo il mercato può redistribuire contratti e prospettive future senza che il sistema già adottato sparisca dall’oggi al domani.

Proprio per questo, il dato è ancora più istruttivo. Mostra che, quando un fornitore mantiene vincoli etici, il sistema non attende che la questione venga chiarita sul piano normativo o democratico: tende piuttosto a redistribuire rapidamente contratti, accessi e opportunità verso soggetti percepiti come più disponibili. In altre parole, il mercato e la competizione strategica non neutralizzano il problema del limite; lo spostano verso attori alternativi.

Per questo il caso Anthropic conferma che, nei settori in cui sono in gioco sorveglianza, uso della forza e sicurezza nazionale, il limite non può restare facoltativo. Se vuole avere una tenuta reale, deve diventare regola pubblica, standard comune, cornice giuridica condivisa.

  1. Una democrazia si misura anche dalla capacità di porre confini alla tecnologia

È qui che il caso Anthropic assume un significato che va oltre la vicenda americana e oltre il conflitto tra un’impresa privata e l’apparato della difesa. Perché alla fine esso ci riconduce a una domanda che riguarda non soltanto l’intelligenza artificiale, ma l’idea stessa di democrazia.

Una società libera non si definisce soltanto per la sua capacità di innovare, di competere, di dotarsi degli strumenti più avanzati. Si definisce anche per la sua capacità di stabilire un limite. Anzi, proprio quando la tecnica diventa più potente, il limite diventa più necessario.

È questo, in fondo, il punto che attraversa l’intera vicenda. Non è in discussione solo la condotta di un’azienda privata, né soltanto la pretesa di un apparato pubblico di poter usare una tecnologia per tutti gli scopi non espressamente vietati. In discussione c’è qualcosa di più profondo: se il potere democratico sia ancora in grado di governare l’innovazione, oppure se sia destinato a inseguirla, ratificarla e subirla, lasciando che i confini del possibile coincidano progressivamente con i confini del consentito.

L’intelligenza artificiale rende questa domanda particolarmente urgente perché non è una tecnologia neutra nel senso banale del termine. Non è soltanto uno strumento che accelera operazioni già conosciute. È una tecnologia che modifica il modo in cui si raccolgono informazioni, si classificano persone e situazioni, si anticipano comportamenti, si orientano decisioni, si distribuisce il potere. Quando entra nei territori della sorveglianza, della sicurezza, dell’uso della forza, essa non aumenta semplicemente l’efficienza dello Stato. Può alterare il rapporto stesso tra istituzioni e persona, tra autorità e libertà, tra decisione e responsabilità.

Per questo una democrazia non può limitarsi a chiedersi se una certa tecnologia funzioni. Deve chiedersi anche che cosa produca sul piano dei diritti, delle garanzie e della qualità del potere pubblico. La domanda decisiva non è solo: “Possiamo farlo?”. La domanda decisiva è: “Dobbiamo farlo?”, “entro quali limiti?”, “sotto quale controllo?”, “con quale responsabilità?”, “a tutela di chi?”. Quando queste domande vengono espulse dal dibattito come ostacoli moralistici o come residui di un pensiero incapace di stare al passo con l’innovazione, la democrazia comincia a perdere proprio ciò che la distingue dalla pura logica della forza o dell’utilità.

Il caso Anthropic, da questo punto di vista, è esemplare. Ci mostra che i limiti non possono essere lasciati né alla coscienza intermittente dei manager tecnologici né alla sola discrezionalità degli apparati statali quando invocano la sicurezza nazionale. Non è irrilevante, a questo proposito, che nelle ultime settimane Anthropic abbia raccolto appoggi che vanno ben oltre la propria cerchia aziendale. Microsoft ha depositato un amicus brief a sostegno della sua azione giudiziaria, sostenendo che la designazione come supply-chain risk sia vaga, destabilizzante e potenzialmente dannosa anche per la continuità delle missioni governative che già incorporano tecnologie di Anthropic. Accanto a Microsoft si è mosso anche un gruppo di 22 ex alti vertici militari statunitensi, tra cui ex segretari di forza armata e un ex direttore della CIA, che hanno contestato non solo gli effetti operativi della misura, ma anche il rischio che essa incrini le regole del procurement pubblico e il rispetto delle garanzie giuridiche nei confronti dei fornitori. Questo elemento è importante perché rafforza una verità che il caso rende sempre più difficile ignorare: il problema non è il capriccio etico di una singola impresa, ma la tenuta delle regole del gioco quando tecnologie ad altissimo impatto vengono governate con strumenti eccezionali, politicamente opachi e giuridicamente discutibili. Se attori industriali centrali e figure provenienti dallo stesso establishment militare ritengono necessario intervenire, significa che la questione ha ormai superato il livello della polemica tra azienda e Pentagono ed è diventata una questione di equilibrio tra sicurezza, mercato, diritto e controllo democratico.  Se il confine dipende soltanto dal mercato, vincerà il fornitore più disponibile. Se dipende soltanto dalla ragion di Stato, il rischio è che ogni resistenza venga trattata come intralcio. In entrambi i casi, il diritto arriva dopo, o peggio viene usato solo per giustificare ex post ciò che la tecnica e il potere hanno già deciso.

Una democrazia matura sa che non tutto ciò che è tecnicamente possibile è per questo socialmente desiderabile, eticamente accettabile o giuridicamente tollerabile. Sa che esistono soglie oltre le quali l’efficienza non è più un progresso, ma un rischio. Sa che la centralità della persona non può essere sacrificata in nome della velocità della macchina. E sa, soprattutto, che il confine non può essere deciso dal più forte, dal più veloce o dal più avanzato sul piano tecnologico.

È anche in questa prospettiva che si colloca l’esperienza di HAL – Human AI Laboratory dell’Università degli Studi Link: l’idea che l’intelligenza artificiale debba essere studiata, sviluppata e governata a partire da un’etica del limite. Limite non come rinuncia all’innovazione, ma come criterio che riporta al centro la persona, la responsabilità, la trasparenza e i bisogni collettivi. In un tempo che tende a misurare il valore della tecnologia solo dalla sua potenza o dalla sua velocità, ricordare il limite significa affermare che non tutto ciò che può essere fatto deve per questo essere fatto, e che il progresso resta umano solo se conserva la capacità di darsi un confine.

Per questo il caso Anthropic non ci parla solo dell’America, del Pentagono o della Silicon Valley. Ci parla di noi. Ci dice che il banco di prova dell’intelligenza artificiale non sarà la sua capacità di fare sempre di più, ma la nostra capacità di dirle, in alcuni casi, fino a qui. Perché la vera domanda, oggi, non è se l’intelligenza artificiale possa spingersi oltre. La vera domanda è se una democrazia sappia ancora fermarla prima che sia il potere, e non il diritto, a decidere il confine.

E il problema del limite non riguarda soltanto la sorveglianza di massa o i sistemi d’arma. Riguarda ormai anche il lavoro, l’impresa, la tenuta sociale delle nostre democrazie. Lo mostra il caso di InvestCloud, società fintech californiana attiva nelle piattaforme digitali per la gestione patrimoniale e i servizi finanziari, che ha annunciato la chiusura della sede di Marghera e il licenziamento di 37 dipendenti, motivando la scelta con una riorganizzazione resa possibile dall’intelligenza artificiale. Non è un caso che Mario Draghi, nel suo rapporto sulla competitività europea, abbia insistito sulla necessità di accompagnare l’innovazione con competenze, formazione continua e buoni lavori lungo l’intero arco della vita, perché tecnologia e inclusione sociale devono procedere insieme. Ma Draghi ha anche avvertito che l’Europa sta reagendo troppo lentamente rispetto alla velocità del cambiamento. Ed è proprio questa sproporzione tra accelerazione tecnologica e ritardo politico che rende oggi ancora più urgente una domanda di fondo: non solo come usare l’intelligenza artificiale, ma entro quali limiti, con quali garanzie e a tutela di chi.

PAOLO POLETTI