Il declino dell’IA forte

bicentennial_manI modelli di simulazione del funzionamento cerebrale basati sulla computazione algoritmica, nonostante siano comunemente adottati al giorno d’oggi, sono stati negli ultimi anni oggetto di sostanziali critiche che ne hanno inficiato l’effettiva validità. Se l’obiettivo ultimo di questo genere di modellistica risiede nella produzione di una Intelligenza Artificiale basata su un set di funzioni algoritmiche (IA forte), una lettura del libro di John Searle “La Mente” potrebbe convincere dell’inadeguatezza dell’intero approccio, in quanto l’intelligenza artificiale forte si pone in piena violazione del teorema di Goedel. Se invece si vuole guardare alla modellizzazione di singole funzioni cognitive, Michael Gazzaniga fa notare come i modelli algoritmici non consentano di trarre conclusioni efficaci se non accompagnati da esperimenti in vivo. Inoltre, a livello euristico, Grafman precisa che tali modelli non concordano con la biologia, nè con le basi dell’evoluzione cerebrale. La teoria dell’IA debole, in base alla quale la mente può essere riprodotta solamente a partire da substrati neurali sintetici, insieme ai modelli di funzionamento cerebrale basati sulla rappresentazione di conoscenza, si pongono come alternativa credibile all’IA forte.

D Garofoli

~ di D Garofoli su febbraio 24, 2009.

10 Risposte to “Il declino dell’IA forte”

  1. Il fatto che l’intelligenza artificiale violi il teorema di Gödel è dibattuto, e non adrebbe preso come un dogma. La lettura di Gödel, Escher, Bach di Hofstadter è illuminante al proposito.

  2. Ciao Stefano. Parlando con vari filosofi, la critica che più mi è stata rivolto contro l’idea che il teorema di Goedel possa porsi come limite all’intelligenza artificiale forte, è che questo teorema in realtà non necessariamente è valido per tutto. Comunque, non ho sinceramente mai trovato una spiegazione convincente del come sia possibile indicare il mondo e definirlo se ci si trova dentro il mondo stesso (per dirla come Wittgenstein, senza scendere in dettagli matematici).

    Inoltre le attuali teorie di funzionamento del cervello che meglio si adattano con la neurofisiologia, la neuroanatomia e l’evoluzione del cervello prevedono che esso funzioni mediante sistemi rappresentazionali e non algoritmici. In poche parole il cervello funzionerebbe come un adattore che mediante l’attivazione di raffigurazioni neurali trasforma la realtà fisica in “realtà mentale”. Questo si accorda al meglio con l’IA debole, ma, teorema di Goedel a parte, non esclude che una mente possa sorgere anche da un insieme di funzioni algoritmiche, anche se personalmente ignoro il “come”.

  3. Sono d’accordo col preferire una descrizione rappresentazionale ad una puramente algoritmica. La mia osservazione era meramente tecnica: cioè che il teorema di Gödel non vieta in alcun modo l’IA forte. E per quanto so che Searle non è d’accordo, ho spesso l’impressione che (da buon non matematico) a Searle sfugga l’effettivo significato del teorema di Gödel.

  4. In realtà nel libro “La Mente” John Searle riporta semplicemente le tesi di Roger Penrose, che a differenza di Searle è un matematico, fisico, ecc… Penrose si oppone all’IA in generale usando il teorema di Goedel e Searle replica dicendo che le critiche di Penrose non valgono per l’IA debole. In sostanza sono d’accordo con quanto da loro affermato anche tecnicamente, ammesso e non concesso che il teorema di Goedel sia ciò che loro presentano (e questo lo chiedo a te): dato un insieme A di N funzioni f(x), non è chiaro come usando quelle stesse funzioni si possano definire i confini del sistema dall’esterno dell’insieme. Dovresti avere una funzione f(y) che definisce l’insieme A ponendosi al di fuori di esso, altrimenti dovresti ammettere che l’insieme di funzioni N è nel contempo esaustivo e completo.
    Se hai tempo mi spiegheresti perchè secondo te Penrose e Searle si sbagliano sul teorema di Goedel?

  5. Il teorema di incompletezza afferma questo: se hai un sistema di assiomi che permette di formulare l’aritmetica, allora questo sistema conterrà una proposizione che non può essere dimostrata ne’ vera ne’ falsa. Si noti che la dimostrazione di questo teorema utilizza anch’essa mezzi aritmetici.

    Il teorema viene spesso citato un po’ a sproposito: l’idea di Penrose (hai letto “La mente nuova dell’imperatore”? È molto interessante) è che un computatore algoritmico non può essere in grado di dimostrare questo teorema.

    Il problema è che Penrose non ha alcuna prova per questo: è solo una sua opinione, nemmeno ben giustificata. Hofstadter (“Gödel, Escher, Bach” è almeno altrettanto interessante) è ad esempio del parere opposto.

    Per capire meglio cosa c’entri questo teorema col problema dell’IA è necessario ricordare un teorema simile (mi pare sia una conseguenza, ma non so con precisione), il teorema dell’arresto di Turing. Questo afferma che non esiste un algoritmo che permetta di calcolare per ogni macchina di Turing se essa si arresta o no (cioè se termina i suoi calcoli o no).

    Questo teorema viene anche spesso utilizzato in queste discussioni, perchè le macchine di Turing sono computer idealizzati. Il problema è che un computer stesso è qualcosa di meno di una macchina di Turing, ma ha anche alcuni vantaggi, e quindi potrebbe essere che è in grado di superare queste. In realtà è sufficiente rinunciare alla generalità degli algoritmi che si vogliono eseguire per evitare il problema dell’arresto, come è ben spiegato da Davies in “Science in the looking glass” e questo è il mio ultimo consiglio di lettura.

  6. Perfetto, grazie per le segnalazioni bibliografiche. Quel libro mi era già stato segnalato da una collega e credo sia esplicativo a riguardo.

    Se non ricordo male Searle estende il discorso del teorema di Goedel al cervello, sostenendo che se esso agisca come un calcolatore in grado di manipolare simboli mediante X funzioni, la coscienza dovrebbe essere la funzione Y in grado di giustificare quelle X funzioni. Chiaramente se le funzioni sono un numero pari ad X la coscienza si pone al di fuori di questo insieme e quindi l’IA non è una mente, ma solo il frutto di un’immensa illusione ottica (più o meno quella della stanza cinese).

    Stessa cosa per le macchine di Turing: anche superando il problema dell’arresto a me
    pare che si producano comunque delle versioni meccaniche degli zombie di Chalmers, cioè esseri in grado di adattarsi al meglio ad ogni situazione, ma inconsapevoli della loro esistenza.

  7. Il problema degli zombi di Chalmers è affascinante: ad esempio, secondo Turing, questi non possono esistere, e l’unica definizione possibile di consapevolezza è operativa. Un essere è consapevole se riesce a convincerne un altro di esserlo.

    Purtroppo sono questioni troppo complicate perchè si riesca a capirne qualcosa…

  8. Chalmers usa gli zombie per dire che la coscienza non sopravviene logicamente sui substrati neurali. Se posso immaginare un mondo identico a questo in cui tutti facciamo quello che facciamo quotidianamente, senza però minimamente sapere di esistere, non si può affermare che la coscienza equivalga al sistema nervoso, o, in altre parole, le caratteristiche qualitative dell’esperienza NON sopravvengono logicamente sul mondo fisico.

    L’idea di Turing non mi convince per il semplice motivo che io sono consapevole della rossità del rosso che vedo. Poichè tu leggi quello che io sto scrivendo e presenti una struttura biologica strettamente simile alla mia, è altamente improbabile che tu sia uno zombie che cerca di convincermi di essere cosciente quando non lo sei.😉
    L’idea solipsista mi sembra un pochino una forma di complottismo.

  9. Ma potrebbe essere che essere cosciente della rossità del rosso è necessario per poter convincere un uomo di non essere uno zombi.

    Immagina: uno zombi che non è cosciente non può comprendere la frase “Immagina: uno zombi che non è cosciente non può comprendere la frase: “Immagina: uno zombi che non è cosciente non può comprendere la frase: “Immagina: … “””

    Sarebbe necessario programmare lo zombi per comportarsi correttamente in tutti i casi in cui compaiono termini quali “immaginare”, “pensare” etc… Ma allora lo zombi potrebbe anche esprimere frasi riguardanti il suo stato interno (“Sto pensando al colore rosso”) che a me pare è quello che noi chiamiamo coscienza.

    (Non sono convintissimo di questo argomento, faccio solo un po’ l’avvocato dello zombi).

  10. Allora, il problema dei qualia è di origine linguistica. Quando io dico rosso, tu capisci rosso perchè abbiamo un accordo culturale su questo. Stando così le cose, molti dicono che i qualia non esistono perchè sono semplici accordi verbali o flati vocis e di fatto uno zombie può tranquillamente fingere di essere cosciente fermandosi al semaforo quando vede il rosso o apprezzando il tuo maglione rosso. La questione di fondo che non si capisce del riduzionismo è che se uno zombie esprime considerazioni sul suo stato interno non necessariamente implica che stia vivendo uno stato interno. Potrebbe infatti manipolare simboli in base ad un gruppo di regole che gli fanno dire: ogni volta che prendi un brutto voto, allora sentiti triste, ogni volta che X, allora Y. In tutto questo la differenza tra lo zombie ed il tavolo che ho di fronte è che il tavolo non rimodella se stesso in base all’ambiente esterno, cioè non è dotato di intenzionalità o di capacità adattative.

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

 
%d blogger cliccano Mi Piace per questo: