GODEL, HUSSERL E L’INTELLIGENZA ARTIFICIALE
di CARLO ALBERTO FALZETTI ♦
La capacità del fare nel nostro mondo è molto più alta della capacità del prevedere!
I fatti che accadono attorno a noi testimoniano questo concetto. La causa di tutto ciò è il dominio incontrastato della tecnica. Come Galimberti afferma da sempre, il Prometeo incatenato è stato “scatenato”: la tecnica da mezzo è divenuta fine. Ed il fine della tecnica è soltanto quello di perpetuarsi Questo è il carattere distintivo del secolo. Da tutto ciò deriva lo “spaesamento” descritto, in anticipo di decenni, da Heidegger.
Al centro del successo tecnico si pone l’I.A. Molti articoli sul nostro blog si sono concentrati sull’IA. La diffusione di essa è travolgente. Coronamento di decenni di studi multidisciplinari è uno dei momenti più rilevanti del sapere umano. La sua utilità è certamente imponente. Tuttavia, la velocità con la quale procede pone un serio problema circa le regole etiche che dovrebbero stabilire il suo adeguato utilizzo che, come ogni mezzo tecnologico, può essere indirizzato al bene o verso aspetti negativi per l’umanità.
Nel campo epistemologico, ovvero di filosofia della scienza, la discussione è stata notevole e variegata. Il nostro blog ha ospitato alcune sintesi relative a tale dibattito.
E’ mia intenzione porre in evidenza qualcosa circa il confronto tra intelligenza umana e I.A. già parzialmente accennato in vari momenti. Mi sembrerebbe opportuno sintetizzare quelli che possiamo chiamare il “limiti” che impedirebbero la completa identità tra I.A. e intelligenza umana. E da ciò trarne alcune conseguenze.
Tali limiti sono di duplice natura. Il primo limite è di natura logica. Il secondo di natura filosofica.
LIMITE LOGICO- COMPUTAZIONALE. Questo limite deriva dai due teoremi di Gödel.
- Primo teorema: ogni teoria non contraddittoria è incapace di risolvere tutti i problemi espressi nel suo linguaggio
Ciò significa che esistono proposizioni che appaiono INDECIDIBILI nella teoria stessa . Insomma, ci sono verità che non si possono dimostrare (esiste evidente la connessione con lo storico “paradosso del mentitore”)
- Secondo teorema: ogni teoria non contraddittoria è capace di esprimere ma non di dimostrare la sua propria non contraddittorietà.
Ciò significa che un sistema formale (per esempio la matematica) NON PUO’DIMOSTRARE LA PROPRIA COERENZA. Siamo, cioè, giunti ad un livello superiore rispetto al momento nel quale si procede alla costruzione degli algoritmi, un discorso che non parla “dei sistemi logici” ma che verte “sui sistemi logici”. Siamo, cioè, nel campo della metalogica ovvero quando dalla costruzione di sistemi formali (come può essere l’IA) e dal calcolo logico al suo “interno”, si passa all’analisi delle loro proprietà generali (La prova di Gödel, Nagel e Newman,2013).
Conseguenze :
- L’IA è un sistema formale.
- Dunque, ha proposizioni indecidibili e non può dimostrare la propria coerenza.
- La mente umana non è un sistema formale e può “intuire” le verità di proposizioni matematiche che l’IA (e qualsiasi altro sistema formale) non può dimostrare.
La mente ha, cioè. una capacità di “comprensione” che supera le regole, le procedure, gli algoritmi computazionali pur essendo essi immensamente veloci e potentissimi. Ci sono verità matematiche che l’uomo può “vedere” ma che sono inaccessibili al calcolo: il pensare ed il calcolare sono attività molto diverse fra loro. Insomma, esistono verità della matematica che l’intuizione afferra ma che invece sfuggono alla intelligenza artificiale (e, dunque, alla “macchina di Turing”).
Un altro modo per esprimere lo stesso concetto è dato dal “famoso adagio godeliano”: ciò che è conoscibile è molto di più di ciò che è dimostrabile.
La portata dei due teoremi è tale da aver posto fine al mito millenario delle certezze assolute nel campo della deduzione logica. I metodi induttivi (usati dalla scienza da Galileo in poi) sono stati da sempre caratterizzati dalla certezza limitata (si pensi al “falsicazionismo” di Popper: una teoria è scientifica solo se “falsificabile”). I metodi deduttivi (logica, matematica e ogni sistema formale) godevano di certezza assoluta. Ebbene, dopo Gödel non è più così: il mito ha cominciato ad essere oggetto di critica e poi di abbandono! (Introduzione alla filosofia della scienza, Dalla Chiara, Toraldo di Francia, 1999).
La conclusione che possiamo trarre è che la capacità razionale umana non si lascia completamente racchiudere da un qualsiasi sistema formale. La logica del pensiero umano è “trascendentale”. Queste considerazioni danno senso a ciò che un genio logico come Wittgenstein scrisse, nel suo modo conciso e apodittico, nel punto 6.13 del suo Tractatus: la logica è trascendentale! ( Logica da zero a Godel, F.Berto,2007).
Questo argomento è sostenuto principalmente da Roger Penrose (Nobel per la Fisica).Naturalmente esistono oppositori a tali conclusioni ( Il grande, il piccolo e la mente umana,R. Penrose, 1999).
Un aspetto fondamentale deve essere chiaro: l’IA si diffonde in un tempo dove è stata pienamente certificata la “crisi dei fondamenti” in particolare della logica matematica (in particolare le scoperte di B. Russell e di Gödel). In parole semplici ciò significa che tutte le “antinomie” rilevate nella storia ( tanto per fare un esempio classico la frase “io mento”: vera se falsa, falsa se vera) non sono (come speravano i costruttori dei fondamenti) antinomie dovute al significato (al contenuto) ma, fatto gravissimo, sono dovute alle regole della logica (alla forma). Insomma, le antinomie (le “malattie della logica”) non sono semantiche ma sintattiche! Il trionfo dell’IA avviene dopo aver scoperto una grave patologia nella” madre dell’algoritmo”, la logica! (già le geometrie-non-euclidee avevano posto in crisi l’autoevidenza e trasformato la matematica in un sistema puramente “formale”, cioè in una pura manipolazioni di simboli secondo regole sintattiche il cui scopo è la coerenza e non l’autoevidenza).
Ripetiamo, per chiarezza, il concetto espresso in precedenza: per secoli si è sostenuto che la deduzione (dimostrazioni matematiche) fosse certezza assoluta mentre l’induzione (metodo sperimentale) fosse certezza limitata. Dopo Russell e Gödel (e poi Church, Turing, Tarski) il mito della certezza della deduzione è distrutto per sempre . L’algoritmo fa di certo cose eccezionali ma…i suoi fondamenti sono critici!
Non v’è alcun dubbio che i costruttori, i gestori e gli utenti delle macchine algoritmiche non si disperino di tutto questo: il mondo va avanti seguendo il suo corso. Ma questo è quanto risulta in tema di pura logica.
LIMITE FENOMENOLOGICO. Questo limite deriva dalla Fenomenologia di Husserl
Principio di intenzionalità: la coscienza di un uomo non è mai una entità isolata, una specie di contenitore dove vanno a finire le cose del mondo. La coscienza è sempre coscienza di qualcosa. La coscienza non è un contenitore ma una sorta di “faro” che investe le cose di significato, le ordina fornendogli un senso. Le cose non sono tali nella realtà ma lo sono solo perché la coscienza le investe di significato, le investe del “mondo della vita”.
L’IA è manchevole del “mondo della vita”, della esperienza, di tutto quel mondo di significati che nascono dalla relazionalità sociale. Può, per fare un esempio, riconoscere un volto ma non il “vissuto” emozionale, il dolore, la gioia. Se può farlo è perché “lo simula”, perché è costretto a farlo in quanto programmato.
E’ questo il “problema dei QUALIA”: far avere all’IA la percezione qualitativa. Problema attualmente non risolto ma che presenterebbe un limite non valicabile: può l’esperienza soggettiva venir trasformata in algoritmi? Un tema aperto ma il limite da superare è puramente fenomenologico e non computazionale. Insomma la domanda essenziale è: l’esperienza soggettiva può davvero essere ridotta ad un processo fisico? La struttura neuronale può spiegare il “mondo della vita”? Il problema dei quali non è legato al tempo (un giorno si riuscirà a farlo) ma ad un problema di ordine strutturale. Come indicato: la struttura intenzionale del nostro modo di essere nel mondo. Modo che non è quello degli altri enti, naturali o artificiali.
L’ostacolo più grave a questo riduzionismo della mente all’IA è determinato dal fatto che la coscienza NON E’ LA SOMMA DELLE PARTI, MA UN VALORE AGGIUNTO RISPETTO A QUESTA SOMMA. La coscienza umana non sarebbe riducibile alla sola rete neuronale ma è un fenomeno “emergenziale”: nasce non come semplice somma delle parti ma “emerge” come un surplus dall’insieme di esse.
. . .
Posti questi limiti all’IA , limiti che, ripetiamolo ancora, non sono accidentali (tali che il progresso tecnologico un giorno li supererà) ma di natura strutturale, che impatto possono avere sul futuro?
Il limite preoccupante è dato dal limite fenomenologico. Il pericolo grave è la sostituzione della ragione col “pensiero calcolante”. Una IA scatenata da qualsiasi freno, in un completo vuoto di etica, può ridurre l’uomo a semplice “funzionario della tecnica”. Il pensiero calcolante può rendere quell’umanesimo insito nel “mondo della vita” e nell’autocoscienza del tutto sterile. Un mondo di semplici fruitori dell’algoritmo. Il senso della vita rimarrebbe essenzialmente uno solo: garantire il buon funzionamento del meccanismo esogeno al pensiero umano. Come è stato recentemente fatto notare (Corrado Augias nel dibattito su Repubblica sulla “natura” del nostro secolo) questo è il tratto distintivo del XXI secolo. A questo predominio della ragione calcolante si affiancherebbe l’inquietante trasformazione della democrazia in un accentramento decisionale quale modello coerente di tale ragione ( ma queste erano anche le conclusioni dell’esauriente e colto testo della professoressa Simonetta Bisi che abbiamo commentato nel blog e presentato al pubblico )
CARLO ALBERTO FALZETTI

Riflessione di ampio respiro. Grazie Carlo con la speranza che stimoli ulteriori riflessioni sul tema.
Nicola Porro
"Mi piace""Mi piace"