Le neuroscienze decretano la fine del libero arbitrio? (parte terza) di
Michele Forastiere, michele.forastiere@gmail.com,
5 febbraio, 2012, http://www.uccronline.it
Nei due precedenti articoli
(Ultimissima 13/1/12 e Ultimissima
24/1/12 ) avevamo cominciato a esaminare il problema del libero arbitrio e
della mente, alla luce delle indicazioni fornite dalle neuroscienze.
Eravamo giunti a fissare alcuni
punti fermi:
A) Il concetto pragmatico di
responsabilità morale e legale non è intaccato dalle recenti osservazioni
neuroscientifiche, poiché rimane non falsificabile l’ipotesi che le scelte
importanti dipendano dalla consapevolezza cosciente di una persona (che si
tratti di un processo neuronale – ancora non ben specificato – o di altro)
B) Non esistono prove decisive
che facciano propendere più per un funzionamento deterministico che per uno
indeterministico del cervello (e viceversa);
C) Le neuroscienze non sono in
grado di dare indicazioni conclusive neanche riguardo alla cornice concettuale
in cui inquadrare il rapporto causale mente-cervello (interazionismo o
riduzionismo materialista?)
In particolare, avevamo concluso
osservando che sarebbe probabilmente necessario rivolgersi ad altre discipline
(come la fisica e l’informatica) per ottenere qualche suggerimento concreto –
soprattutto in relazione all’ultimo punto citato, il cosiddetto problema
ontologico.
Cominciamo dall’INFORMATICA. Come
è noto, i ricercatori nel campo dell’intelligenza artificiale perseguono da molti anni l’obiettivo di
realizzare una “mente” algoritmica equivalente a quella umana. Fino a oggi,
ogni tentativo è stato infruttuoso. Qualora ci si riuscisse, però, risulterebbe
dimostrata l’esportabilità dell’autocoscienza su un supporto informatico. In
tal caso, sia il riduzionismo materialista sia il determinismo troverebbero –
apparentemente – un forte argomento a loro favore. Va però chiarito che, in
realtà, neanche la realizzazione di un’autocoscienza artificiale dimostrerebbe
alcunché, dal punto di vista scientifico, riguardo al problema ontologico. La
ragione di ciò risiede in una considerazione fondamentale: qualunque test
ipotizzabile per la valutazione della consapevolezza (come il famoso Test di
Turing o il più recente ConsScale ) non potrà mai dire nulla di conclusivo
sull’esperienza autocosciente, che è un fenomeno intrinsecamente sperimentabile
solo “in prima persona”. In altre parole, non vi è alcun modo concepibile per
cui procedure di verifica applicate “dall’esterno” (i test) possano avere
accesso ad aspetti fenomenologici vissuti “dall’interno” (l’esperienza
autocosciente), quand’anche il sistema esaminato mostrasse tutte le
caratteristiche funzionali di una mente consapevole.
C’è dell’altro. Come è ovvio, il
tentativo di realizzare una macchina veramente pensante si basa sull’assunto
che l’autocoscienza sia effettivamente una caratteristica algoritmica: puro
software, indipendente dallo specifico supporto hardware (tesi
dell’Intelligenza Artificiale forte ). Tale ipotesi corrisponde all’idea che il
cervello umano sia riconducibile a una qualche complicata macchina di Turing, e
perciò – in ultima analisi – che il funzionamento della mente equivalga all’esecuzione
di una serie di calcoli aritmetici, seppure enormemente complessi. Al di là del
fatto che tale concezione implica che ogni fenomeno psichico concretamente
sperimentabile – percezioni, emozioni, sentimenti, pensieri – sia pura
illusione, è risaputo che essa non è in grado di spiegare la fondamentale
caratteristica mentale dell’intenzionalità . Con questo termine si indica,
nell’analisi filosofica delle funzioni cognitive, la capacità della mente umana
di assegnare contenuto semantico a dati sintattici, ovvero di attribuire un
significato a una serie di simboli. Perciò, un’intelligenza artificiale
potrebbe non giungere mai a essere dotata di intenzionalità, essendo
essenzialmente costituita da strutture formali – gli algoritmi – che sono per loro
natura meramente sintattiche.
Questa incapacità intrinseca è
stata esemplificata in modo suggestivo dal filosofo John Searle , nel famoso
argomento della “Stanza cinese”. Come è logico aspettarsi, Searle è molto
criticato dai sostenitori dell’Intelligenza Artificiale forte. Da profano,
tuttavia, mi pare di capire che le obiezioni alla sua argomentazione si basino
sostanzialmente su un’aspettativa indimostrata: quella che la consapevolezza
autocosciente debba comparire spontaneamente in una macchina opportunamente
progettata, a patto che questa raggiunga una soglia minima di complessità
algoritmica. La mia impressione è che tale congettura abbia un’unica
giustificazione razionale: la constatazione che di fatto esiste, nell’Universo,
un sistema enormemente complesso dotato di autocoscienza – il cervello umano.
Un’osservazione empirica a sostegno di un’ipotesi, però, non basta certo a
dimostrarne la verità. Tra le ragioni che si oppongono alle tesi
dell’Intelligenza Artificiale forte citerei infine l’argomento gödeliano di
Lucas-Penrose , secondo cui l’intuito matematico è di natura non-algoritmica.
In breve, la tesi consiste in questo: in
base ai teoremi di incompletezza di Gödel
i sistemi computazionali hanno dei limiti che la mente umana non ha. La
dimostrazione non è complicata: per i teoremi di Gödel, in ogni sistema formale
coerente – abbastanza potente da comprendere l’aritmetica – esiste un enunciato
vero (un cosiddetto enunciato gödeliano)che il sistema stesso non può
dimostrare; ciò non di meno, noi umani siamo in grado di capire che l’enunciato
gödeliano è vero: perciò, noi umani possediamo una capacità di cui il sistema
formale è privo. Ora, poiché ogni sistema computazionale opera in modo
algoritmico sulla base di un qualche sistema formale, risulta in tal modo
dimostrata l’irriducibilità dell’intuito matematico – e per estensione
dell’intera attività mentale – a una procedura algoritmica esportabile su
supporto informatico.
Anche stavolta, naturalmente, le
critiche a questa conclusione vengono soprattutto dai sostenitori
dell’Intelligenza Artificiale forte. Dato, però, che le dimostrazioni dei
teoremi di Gödel sono irrefutabili, gli attacchi filosofici all’argomento
gödeliano partono solitamente dal contestare i postulati che sono alla base di
quei teoremi (per esempio, il concetto di sistema formale ). Francamente, penso
che una scappatoia del genere risulti poco digeribile alla maggior parte dei
matematici. Va detto, peraltro, che anche un materialista come Douglas
Hofstadter ritiene l’argomento gödeliano difficilmente confutabile. Nonostante
le difficoltà logiche citate, molti studiosi sono fermamente convinti che entro
qualche decennio si arriverà a creare una mente algoritmica autocosciente. I
neuroscienziati Giulio Tononi e Christof Koch, per esempio, hanno già proposto
un nuovo tipo di test di Turing per verificare il livello di consapevolezza di
un’ipotetica “macchina pensante”. Personalmente, ritengo che questa proposta
non aggiunga niente di realmente nuovo allo scenario, essendo soggetta agli
stessi limiti di ogni altro test di valutazione dell’autocoscienza. Le
riflessioni di Koch e Tononi, forniscono però, secondo me, un’interessante
indicazione: in considerazione delle enormi difficoltà finora incontrate dalla
ricerca sull’intelligenza artificiale, i due ricercatori dichiarano infatti di
sospettare che una mente artificiale “potrebbe sfruttare i principi strutturali
del cervello dei mammiferi” per diventare autocosciente. Insomma, pare che tra gli studiosi di
intelligenza artificiale si stia facendo strada l’idea (abbastanza
rivoluzionaria) che un’autocoscienza computazionale potrebbe aver bisogno
quanto meno di un supporto fisico con una specifica architettura – quella di un
certo sistema biologico – per poter emergere.
Viene allora spontaneo chiedersi
se la consapevolezza cosciente non possa rivelarsi essere, in fin dei conti,
una caratteristica non esportabile, ed esclusiva di un ben preciso oggetto
fisico: il cervello umano (o, naturalmente, quello di un’eventuale altra forma
di vita intelligente – di cui però non abbiamo, al momento, prove). Appare
chiaro che, se le cose stessero effettivamente così, uno studio teorico del
legame mente-cervello andrebbe condotto da una prospettiva totalmente
differente da quella dell’informatica, e ancora più approfondita di quella
della neuroscienze: potrebbe rendersi necessario, in altre parole, arrivare al
livello della stessa fisica fondamentale dei fenomeni coinvolti nell’attività
cerebrale. Ovviamente l’approccio non dovrebbe più essere quello della fisica
classica, su cui continuano largamente a basarsi gli attuali modelli del
funzionamento del cervello: esso, infatti, non può che condurre a un concetto
di mente computazionale– e questo, alla luce di quanto abbiamo visto finora,
non è in grado di risolvere il problema ontologico, né tanto meno quello del
determinismo.
Nel prossimo (e ultimo) articolo,
dunque, cercheremo di capire se la FISICA possa davvero darci qualche indizio
decisivo sulle questioni della mente e del libero arbitrio.
Michele Forastiere
michele.forastiere@gmail.com
Nessun commento:
Posta un commento