L’irriducibilità dell’uomo alla macchina - I limiti insuperabili della
tecnica e dell’algoritmo, contro le fantasie trans umanistiche – di Giorgio
Masiero, fisico e docente universitario, 17 luglio, 2012, http://www.uccronline.it/
Ogni 4 anni, al Congresso
Internazionale dei Matematici, è assegnata la medaglia Fields ai giovani
ricercatori qualificatisi per le scoperte più rilevanti. Il premio è
soprattutto onorifico, a meno che la scoperta non rientri tra i “7 problemi del
Millennio” del Clay Institute: allora ai 15.000 dollari canadesi della medaglia
Fields si aggiunge il premio Clay di 1.000.000 di dollari USA. L’ultimo
congresso si è svolto nel 2010 a Hyderabad ed ha assegnato solo medaglie
Fields; nel precedente di Madrid invece, al russo Grigori Perelman era toccato
anche il premio Clay per la dimostrazione della congettura di Poincaré, una
questione che resisteva da un secolo agli assalti della ragione. La descrizione
del problema e degli altri 6 ancora irrisolti si può trovare nel sito del Clay.
A sorpresa Perelman non si mosse dalla sua San Pietroburgo per ritirare i
premi, limitandosi a dire agli esterrefatti cronisti: “Ho risolto il problema,
tanto mi basta”. Mostrava così la gioia perfetta di chi, col solo uso della
mente, in anni di riflessioni dedicate a coniugare l’intuizione all’inferenza
in vista d’un obiettivo, era riuscito a scalare difficoltà logiche
inimmaginabili.
I moderni computer, implementati
dei software adeguati, possono per la loro velocità di calcolo risolvere
problemi complessi, che richiederebbero tempi astronomici al calcolo umano, ma
hanno gravi limiti. Quali sono? Da che cosa traiamo indicazioni sui loro
ambiti? L’unico giudice dei limiti dell’algoritmo e del processore è la ragione
umana! Forse un giorno saranno dimostrati tutti i problemi del Clay; o forse
no: per alcuni la dimostrazione potrebbe essere preclusa ad ogni tecnica. I due
teoremi d’incompletezza di Gödel (1931) impattano proprio la capacità
dell’algoritmo di dimostrare proposizioni matematiche e di costruire teorie
scientifiche coerenti. Stando al primo teorema esistono in aritmetica, e quindi
in tutta la matematica (di cui l’aritmetica costituisce il nucleo) e in tutte
le scienze naturali (di cui la matematica è il linguaggio), enunciati veri che
non si possono dimostrare per via algoritmica. Non è una questione di
completezza degli assiomi, né di capacità di memoria, né di velocità
elaborativa: semplicemente non esiste la procedura! Un esempio di questione
matematica indecidibile fu trovato una cinquantina d’anni fa, con uno
spettacolare teorema che procurò all’americano Paul Cohen la medaglia Fields
nel 1966: è l’ipotesi del continuo di Cantor. Una delle prime domande su cui
conto di avere risposta nell’altro mondo la riguarda: esistono infiniti
intermedi tra i numeri naturali ed i reali?
La presenza di limiti
all’algoritmo, tuttavia, ci è anche utile in questo mondo. Tornando alla lista
Clay, leggiamo tra i 6 problemi irrisolti la sigla P vs NP. Essa sta ad
indicare una questione cruciale in molti problemi d’ottimizzazione industriale,
per es. nel process scheduling. Un problema è classificato tra quelli P
(polinomiali) se è risolvibile in tempi ragionevoli da un calcolatore, magari
dotato di velocità del processore e di capacità della RAM superiori a quelle
odierne; rientra invece tra quelli NP (non polinomiali) se può essere risolto
soltanto in modo bruto attraverso l’immissione ed il controllo di tutte le
combinazioni e se richiede allo scopo un dispendio di risorse superiori all’età
e all’energia dell’Universo. Non pensare, caro lettore, che i problemi NP
riguardino chissà quali situazioni astratte: prova, se ci riesci, a calcolare
il tragitto più corto per visitare in un unico giro 10 amici, abitanti in 10
località sparse della tua regione; o quello per la distribuzione giornaliera di
un centinaio di pacchi di uno spedizioniere locale. Insomma un problema NP,
anche se risolubile in teoria (da una “macchina di Turing”), non lo è in
pratica: è oltre il limite fisico della tecnica…, a meno che con qualche
scorciatoia matematica non sia traducibile in un problema di tipo P. La sfida
posta dal Clay consiste proprio in ciò: i problemi NP sono sempre riducibili a
problemi P?
Ricordate i numeri primi? Sono
quelli divisibili solo per 1 e per se stessi: 2, 3, 5, 7, 11,… Anche se sembra
ripetersi indefinitamente la stranezza di trovare ogni tanto due primi
attaccati, detti “gemelli” (…, 107, 109, …, 599, 601, …, 821, 823, …),
avanzando si diradano in media sempre più, ma sono infiniti (teorema di Euclide,
III sec. a.C.): ciò significa che ne esistono di grandi quanto si vuole, anche
da mille o un milione di cifre. La scomposizione poi è l’operazione che
fattorizza un numero non primo (“composto”) nei suoi fattori primi, per es. 60
= 2 × 2 × 3 × 5. Se il numero composto non è troppo grande, la scomposizione è
facile: se è pari si divide per 2, poi si prova per 3, poi per 5, ecc. Quando
il numero è molto grande si ricorre ai calcolatori. Oggi, con sofisticati
algoritmi che utilizzano recenti scoperte matematiche sulla distribuzione dei
numeri primi (alcune, bellissime, hanno procurato nel 2006 una medaglia Fields
all’australiano Terence Tao), un normale pc ci può dire in tempi ragionevoli se
un dato numero di qualche centinaio di cifre è primo o no, e ci può anche
trovare un nuovo primo di tali dimensioni. Non esiste tuttavia nessun software
per nessun computer (sia pure il super-computer di Standard & Poor, o il K
computer di Kobe da 8 milioni di miliardi di istruzioni al secondo, né quello
1.000 volte più veloce di cui si disporrà tra 10 anni) che sappia scomporre in
tempi fisici il prodotto di due numeri primi di alcune centinaia di cifre.
Questa almeno è la situazione
allo stato delle nostre conoscenze matematiche, dove la scomposizione resiste
come problema NP. Sui tempi ultramondani della fattorizzazione di grossi numeri
si fonda gran parte della crittografia per la sicurezza di internet (scambio
dati riservati, transazioni bancarie, privacy, reti di trasporto,
infrastrutture energetiche, comandi militari, ecc.). Così, quasi per una legge
del contrappasso, quella finitudine dell’algoritmo che in apparenza ne denota
negativamente i tratti applicativi, si trasforma nella capacità di dare
sicurezza alle transazioni mondiali. Una tecnica onnipotente implicherebbe
software capaci di fattorizzare tutti i numeri e di scardinare ogni
crittografia; quindi sicurezza nulla ed impossibilità di transazioni riservate
via internet; quindi, in definitiva, l’annullamento di ogni utilità del web,
ridotto a veicolo di spam. Invece una tecnologia performante limitata consente
una sicurezza che seppur finita resta performante: una sicurezza accettabile,
pur se labile come ogni cosa di questo mondo, minacciata sempre da un hacker
che trovi, forse domani, forse tra qualche anno, la via per districare il
problema NP della scomposizione e tradurlo in uno di tipo P.
Morale. Giorni fa, prima di
ritirare l’auto dal parcheggio a pagamento, sono passato alla cassa automatica
e, trovatomi senza spiccioli, ho usato la mia carta di credito con chip e pin
“ultrasicura, di ultima generazione” (secondo lo slogan della banca emittente):
inseritala nello slot dedicato, ho digitato il pin sulla tastiera ed atteso la
restituzione della carta. Tardando questa ad uscire, ho premuto il tasto “Annulla
operazione” e l’ho estratta manualmente. Apparso comunque il messaggio di
“Transazione eseguita”, me ne sono uscito tranquillamente dal parcheggio. A
tarda serata però, un sms mi avvertiva che un acquisto di 1.659 € era appena
stato eseguito in un negozio di confine con la mia card. Me l’avevano clonata!
Realizzai allora che a rallentarne l’uscita dallo slot era stato uno skimmer
fraudolentemente applicatovi per clonare il badge… e che la zingarella
aggirantesi intorno alla cassa, apparentemente impegnata a richiedere un obolo
ai passanti, era lì allo scopo di controllare il campo e di carpire dal moto
delle dita il pin ai malcapitati. Le carte di credito usano sì teoremi che le
rendono, allo stato delle nostre conoscenze matematiche, inattaccabili dai
calcolatori, ma c’è una peculiarità della ragione umana che coniuga le più
moderne tecnologie con le più ataviche doti d’intuizione e destrezza:
quest’arte può battere sempre ogni impossibilità di cui è prigioniera la
macchina. “Datemi una definizione d’intelligenza ed io vi dimostrerò che i
calcolatori possono essere intelligenti”, preconizzava troppo ottimisticamente
il britannico Alan Turing, del quale abbiamo festeggiato il 23 giugno scorso il
centenario della nascita. Ebbene, non è l’intuizione una componente tra le più
importanti, se non la prima, dell’intelligenza umana? e l’algoritmo non è
alternativo all’intuizione, nella definizione fondante della computer science
che tu, Alan, ne hai dato nel tuo memorabile scritto del 1936? Ricordi,
lettore, il Dustin Hoffman di Rain man? Il personaggio mostra meglio di ogni
disquisizione che l’autismo, anche quando fa prodigi nel calcolo, non coincide
con l’intelligenza. A questa distinzione si deve se nessun adepto
dell’Intelligenza Artificiale sa (anche vagamente solo immaginare come)
scrivere un programma che dimostri per es. la proprietà commutativa della
moltiplicazione, senza ricorrere al quinto assioma di Peano.
Nessun commento:
Posta un commento