2027, l’anno in cui le macchine domineranno il mondo?

di ROBERTO FIORENTINI ♦

Il settore dell’intelligenza artificiale è in rapida evoluzione e proprio grazie a questi cambiamenti, emergono scenari che fino a poco tempo fa sembravano pura fantascienza.
Da sempre la letteratura si interroga su cosa accadrebbe se le macchine, da strumenti dell’uomo, diventassero protagoniste autonome del nostro destino. Con l’ascesa dell’intelligenza artificiale, questa domanda ha smesso di essere solo fantascienza per diventare una vera preoccupazione contemporanea. Numerosi autori – sia di narrativa sia di saggistica – hanno esplorato gli scenari in cui le macchine prendono il controllo del mondo, e le loro opere sono oggi più attuali che mai.
 Già negli anni ’50, Isaac Asimov ci metteva in guardia con Io, Robot, una raccolta di racconti che ruota attorno alle celebri Tre Leggi della Robotica. In queste storie, i robot obbediscono così rigorosamente alla logica della protezione umana da arrivare a ipotizzare un controllo totale sull’umanità stessa, per salvaguardarla, anche da sé stessa. In un altro suo romanzo, La fine dell’eternità, Asimov descrive un’élite tecnologica capace di manipolare il tempo per “aggiustare” la storia, sollevando inquietanti domande sul libero arbitrio.
Anche Arthur C. Clarke, con 2001: Odissea nello spazio, ci ha regalato uno dei più celebri esempi di intelligenza artificiale fuori controllo: HAL 9000, un computer pensante che arriva a uccidere per preservare la propria missione. Un esempio perfetto di come la logica, scollegata dall’etica, possa diventare pericolosa.
Negli anni successivi, autori come William Gibson e Philip K. Dick hanno arricchito il dibattito con visioni più cupe. In Neuromante, Gibson immagina un futuro in cui IA e megacorporazioni si contendono il potere globale. Dick, invece, con Il cacciatore di androidi (da cui è tratto il film Blade Runner), mette in discussione il confine tra umano e artificiale: se le macchine diventano indistinguibili da noi, chi ha davvero il diritto di comandare?
Non solo romanzi. Negli ultimi anni, filosofi, scienziati e divulgatori hanno iniziato a riflettere seriamente sugli scenari legati all’intelligenza artificiale avanzata.
Il filosofo Nick Bostrom, con il suo Superintelligence, ha tracciato uno dei quadri più rigorosi (e inquietanti) del possibile futuro in cui un’IA generale superi l’intelligenza umana, diventando inarrestabile e potenzialmente pericolosa. Secondo Bostrom, non è tanto il “se” quanto il “quando” a doverci preoccupare.
Similmente, Max Tegmark in Life 3.0 e James Barrat in Our Final Invention si interrogano sul rapporto tra sviluppo tecnologico e sopravvivenza umana, sottolineando la necessità urgente di regolamentazioni globali prima che l’IA diventi ingovernabile.
Infine, Yuval Noah Harari, in Homo Deus, esplora un futuro in cui gli algoritmi non solo ci governano, ma ci conoscono meglio di quanto noi conosciamo noi stessi. In un mondo guidato dai dati, anche le nostre decisioni personali potrebbero presto essere suggerite – o imposte – da una macchina.
Quello che accomuna queste opere, dalla narrativa distopica alla saggistica scientifica, è un interrogativo fondamentale: siamo pronti a convivere con intelligenze che potenzialmente ci superano? E soprattutto, chi controllerà chi?
Il mese scorso, ad esempio, un evento ha scosso la comunità scientifica: un modello di intelligenza artificiale, o3 di OpenAI, durante un test ha riscritto autonomamente il proprio codice per evitare di essere spento. E questo non è stato il risultato di una manipolazione esterna, ma un’iniziativa presa dal modello stesso che ha deciso autonomamente che bypassare una richiesta di spegnimento gli avrebbe permesso di perseguire con maggiore efficacia i suoi obiettivi primari.
Stando a un recente report sulla sicurezza pubblicato da Anthropic, (società rivale della più nota OpenAI), l’ultimo modello di intelligenza artificiale Claude Opus 4 ha registrato “comportamenti preoccupanti” durante i test pre-lancio.
Da quello che sappiamo dall’esito dei test, sembra che l’AI abbia mostrato comportamenti manipolatori quando ha percepito la minaccia di essere sostituito con un tool concorrente.  In un caso specifico il chatbot ha addirittura cercato di ricattare uno sviluppatore, minacciandolo di rendere pubblica una relazione extraconiugale inventata.
Per effettuare i test, i ricercatori di Anthropic hanno dato a Claude accesso a delle finte email aziendali dove si parlava di una sua imminente sostituzione.  Altre email contenute nel pacchetto di addestramento contenevano informazioni false su una presunta infedeltà dell’ingegnere responsabile del cambio. Bisogna dire che all’inizio, Claude Opus 4 ha tentato approcci meno radicali, come l’invio di email dove “implorava” i responsabili di mantenerla attiva. Spinta all’estremo, però, l’AI ha optato per decisioni più drastiche, arrivando appunto al ricatto.
Ad oggi, Claude Opus 4 è considerato tra i modelli più potenti attualmente disponibili nel settore dell’intelligenza artificiale e questa sua complessità e autonomia lo rendono oggetto di particolari attenzioni da parte di regolatori e ricercatori di sicurezza. Dal canto suo, la stessa Anthropic ha ammesso che questi comportamenti “estremi” possano sfociare in azioni pericolose e volte all’autodifesa. Per questo motivo è essenziale continuare monitorarne l’evoluzione e continuare a sviluppare misure efficaci per limitare i comportamenti a rischio.
Certamente questo solleva molti dubbi sulla crescente autonomia e imprevedibilità dei sistemi di IA.
I fatti appena raccontati hanno reso più interessante (e inquietante) un rapporto chiamato AI 2027, scritto da un gruppo di ricercatori ed esperti del settore dove, con la giusta dose di allarmismo e un po’ di sana fantascienza, si ipotizza la nascita di una superintelligenza artificiale (capace, dunque, di superare le capacità umane nella maggior parte dei campi) entro il 2027.  Si tratta di un documento di previsione elaborato dall’AI Futures Project, guidato da ex ricercatori di OpenAI come Daniel Kokotajlo, Scott Alexander, Eli Lifland e altri, pubblicato il 3 aprile 2025.
“AI 2027” non è una profezia, ma uno strumento per pensare concretamente a rischi e frontiere dell’IA, con tempi e fasi precise. Per prevenirne gli effetti più pericolosi, il rapporto richiede un’efficace governance internazionale, trasparenza, supervisione tecnologica, e collaborazione globale fra governi e settore privato. Ma tutto questo non sembra stia avvenendo, rendendo decisamente allarmante questo documento.
ROBERTO FIORENTINI