Verita'
e realta'
La verita'
e' la relazione che esiste fra una proposizione sul mondo e lo stato del
mondo; o, se si preferisce la versione di James, la verita' e' una relazione
fra un'idea e la realta'. La missione della Scienza e' quella di scoprire
la verita' del mondo.
Le verita'
che il mondo ci rende note tramite i sensi sono relativamente poche,
soprattutto perche' sono sempre le stesse: il Sole sorge tutti i giorni
da Est. Un cieco vissuto in isolamento che acquisisse di colpo la facolta'
della vista andrebbe certamente in visibilio nel vedere per la prima
volta l'astro sorgere da Oriente, e ne ricaverebbe una verita' importante.
Ma i mille giorni successivi non aggiungerebbero nulla di nuovo alle
verita' note circa il moto relativo di Terra e Sole.
Se ci
limitassimo a catalogare le verita' presentateci dall'esperienza, sapremmo
ben poco del mondo. Abbiamo invece la facolta' di generare nuove verita'
da quelle note. Questa facolta' e' l'inferenza. L'inferenza e' il processo
tramite cui elaboriamo delle verita' (o presunte tali) per ottenere
delle altre verita' (o presunte tali). E' grazie all'inferenza che abbiamo
potuto costruire modelli dell'universo sempre piu' raffinati. E' grazie
all'inferenza che abbiamo capito come guarire le malattie e come costruire
i grattacieli, tutte cose che in Natura non avevamo potuto osservare.
Non tutto
e' cosi' semplice, pero'. Gia' James faceva notare che, siccome la realta'
cambia nel tempo, la verita' e' a sua volta una proprieta' variabile
nel tempo.
Churchland
e Rorty preferiscono in effetti pensare alla "verita'" come a una sorta
di convenzione sociale, come a una dichiarazione di consenso. Nelle
parole di Putnam "la verita' e' accettabilita' razionale idealizzata".
L'inferenza
e' il processo tramite il quale si genera della nuova verita', o, meglio,
il processo che consente di stabilire qualche proprieta' di un insieme
date le proprieta' di un altro insieme. Seguendo Collins, possiamo allora
catalogare i tipi di inferenza sulla base di come inferiscono la proprieta'
di un insieme: dall'insieme che lo contiene (deduzione), da un insieme
simile (analogia), da un altro sottoinsieme dello stesso insieme (induzione),
dai suoi sottoinsiemi (generalizzazione), da un suo sottoinsieme che
puo' essere inferito da quell'insieme (abduzione). Questa non e' altro
che un'estensione della classificazione dovuta a Peirce in abduzione
(o formazione di ipotesi), deduzione (inferenza analitica) e induzione
(inferenza sintetica).
Dimostrare
la verita'
Il progetto
di ogni teoria computazionale della mente e' quello di ridurre l'intelligenza
all'inferenza e l'inferenza alla manipolazione di simboli, i quali vengano
manipolati in funzione della propria struttura. Se l'inferenza necessaria
a rendere conto dell'intelligenza fosse soltanto quella deduttiva, il
problema sarebbe gia' stato elegantemente risolto con l'uso della Logica
Matematica, il nostro principale sistema di manipolazione di simboli,
che usa per l'appunto la deduzione.
La logica
classica esibisce invece diverse limitazioni, che sono evidenziate da
questi esempi:
- "Dario
cena in casa": la logica classica puo' soltanto affermare che "ogni"
sera Dario cena in casa oppure che "almeno una" sera Dario cena in
casa, ma non il fatto intuitivo che quella frase esprime ("in generale"
Dario cena in casa, salvo qualche eccezione). La logica classica non
gestisce l'informazione incompleta.
- "Con
90 probabilita' su cento Dario sta cenando in casa": la logica classica
puo' soltanto affermare che Dario sta cenando in casa o che non sta
cenando in casa. La logica classica non gestisce l'informazione incerta.
- "Spesso
Dario cena a casa": la logica classica puo' soltanto affermare che
Dario cena "sempre" a casa. La logica classica non gestisce l'informazione
approssimata.
- "Dario
e' sposato e cena a casa; Dario cena a casa; allora Dario dev'essere
sposato". La logica classica puo' inferire che Dario e' sposato soltanto
se "tutti" gli uomini che cenano a casa sono sposati. La logica classica
non gestisce l'analogia.
- "Dario
non ha cenato a casa; allora Cinzia dev'essere in viaggio". La logica
classica puo' inferire che Cinzia e' in viaggio soltanto se "Dario
non cena in casa" implica che "Cinzia e' in viaggio"; mentre in questo
caso l'implicazione funziona alla rovescia. La logica classica non
gestisce l'abduzione.
La deduzione della logica classica non e' pertanto l'unica inferenza possibile.
Anzi, nella vita quotidiana per ricavare le verita' che ci servono a muoverci
nel mondo reale usiamo dei tipi di inferenza molto diversi.
Il pregio e il fascino della deduzione e' che e' "esatta". Ogni verita'
dimostrata tramite la deduzione soddisfa una serie spettacolare di proprieta',
tra cui quella di essere vera per sempre. Il difetto della deduzione e'
che in realta' non crea nessuna nuova verita': ogni verita' dimostrata
dalla deduzione era gia' implicita nelle verita' note. La deduzione "dimostra",
e non "costruisce", verita'. Altri tipi di inferenza non dimostrano, ma
costruiscono, nuove verita' (o presunte tali).
La teoria degli insiemi non e' meno sospetta. La mereologia di Lesniewski
(lo studio delle parti e degli interi e degli assiomi che servono per
mettere in relazione gli une con gli altri), il calcolo degli individui
di Goodman e la teoria degli ensemble di Bunt sono alternative alla teoria
degli insiemi che rispettano il comandamento di Goodman: "nessuna distinzione
di entita' senza distinzione di contenuto." La teoria degli insiemi non
soddisfa questo principio poiche' l'elemento "Piero" l'insieme "{Piero}"
(che ha come unico elemento Piero), l'insieme "{{Piero}}" (che ha come
unico elemento un insieme che ha come unico elemento Piero), e cosi' via
all'infinito, sono tutti diversi fra di loro pur rappresentando sostanzialmente
la stessa cosa. La mereologia, in particolare, consente di rappresentare
i plurali in maniera piu' naturale (nel calcolo dei predicati il plurale
richiede la quantificazione di due variabili, una che rappresenta un insieme
e una che svaria su tutti gli elementi di quell'insieme, e questa notazione
non e' certamente intuitiva).
Il processo di inferire la verita' puo' essere sintetico o analitico:
nel primo caso viene prodotta una verita' che non era ancora nota, nel
secondo viene riformulata una verita' che era gia' nota. La deduzione
e' un esempio di inferenza analitica: la verita' di un teorema e' gia'
contenuta implicitamente nel sistema formale, e si tratta soltanto di
usare le regole di inferenza per dimostrarla. L'induzione e' invece un
esempio di inferenza sintetica, poiche' la verita' che viene prodotta
non era gia' nota.
Un problema secolare dell'induzione e' che conserva la falsita', non la
verita'; ma questo e' oggi secondario rispetto a un altro problema: l'induzione
viene usata per costruire concetti precisi e rigidi, mentre i concetti
usati nella vita quotidiana sono imprecisi e flessibili. Michalsky ha
fatto notare che questo fatto, lungi dall'essere un'imperfezione della
mente umana, ha la funzione di aumentare l'economia cognitiva delle nostre
descrizioni. Per esempio, "triangolo" ha un significato ben preciso in
Geometria che nella pratica non viene quasi mai usato: "triangolo" e'
un certo tipo di isolato, uno strumento musicale o persino la relazione
sessuale fra tre persone. Cio' e' possibile in quanto, fra le altre cose,
il concetto di triangolo non e' cosi' rigido da permettere soltanto il
triangolo geometrico.
Talvolta considerata un caso particolare dell'induzione, l'abduzione e'
in realta' tutt'altro. La proprieta' piu' importante dell'abduzione e'
quella di essere in grado di giungere a una conclusione anche in mancanza
di informazione. Tale conclusione non e' necessariamente nella "chiusura
deduttiva" del sistema formale, ovvero non e' implicita nelle verita'
gia' note.
Per gli scopi pratici l'abduzione e' sempre riconducibile a una forma
di diagnosi, il cui scopo ultimo e' quello di determinare quale sia la
teoria migliore per spiegare un certo insieme di dati. L'abduzione e'
l'inferenza piu' usata per costruire teorie scientifiche, ed e' anche
quella usata dal dottore per inferire dai sintomi la malattia (il dottore
deve trovare una malattia che sia coerente con i sintomi).
Seguendo Levesque, possiamo distinguere l'abduzione dalla deduzione tramite
la regola di inferenza:
.ce se B e' vero e inoltre A implica B, allora A "spiega" B
in contrapposizione con quella della deduzione:
.ce se A e' vero e inoltre A implica B, allora A "convalida" B
L'abduzione e' coerente, in quanto, una volta abdotto A, posso verificare
che da esso consegue B, ma non e' necessariamente esatta, in quanto B
potrebbe non essere dovuto ad A. In altre parole l'abduzione risale alla
causa di un effetto e formula un'ipotesi che sia coerente con tale effetto;
ma, naturalmente, possono esistere piu' cause dello stesso fenomeno.
Un tipo di ragionamento ancora piu' comune (e che alcuni ritengono piu'
comune anche della deduzione) e' quello analogico. A partire dai modelli
psicologici di Spearman e da quelli matematici di Polya, il ragionamento
analogico e' stato considerato uno dei processi fondamentali per spiegare
come la mente riesca a risolvere problemi complessi in tempi brevissimi.
L'analogia puo' essere definita come la capacita' di risolvere un problema
essendo noto come si risolve un problema simile, ovvero di trasformare
la soluzione di un problema nella soluzione di un altro problema.
In generale l'"analogia" puo' essere interpretata come una "corrispondenza"
fra le descrizioni di due situazioni. Tale corrispondenza puo' essere
piu' o meno parziale, a seconda del criterio di confronto prescelto. Una
volta stabilito che essa supera un dato limite, e che pertanto fra le
due situazioni sussiste una relazione di analogia, puo' aver luogo il
ragionamento analogico, che consiste nell'inferire alcune proprieta' di
una delle due situazioni sulla base delle proprieta' dell'altra situazione.
Le proprieta' inferite per analogia possono essere qualsiasi cosa: attributi
di un oggetto, aspetti di un concetto, modi di risolvere un problema,
e cosi' via.
Carbonell distingue due tipi di ragionamento analogico, quello "trasformazionale",
che consiste nel "trasferire" le proprieta' da una situazione a un'altra
(seguendo Winston) tenendo conto delle diverse "metriche" delle due situazioni,
e quello "derivazionale", che consiste nel "derivare" le proprieta' di
una situazione da quelle di un'altra situazione sulla base dell'esperienza
collegata a questa. Quest'ultimo tipo di ragionamento analogico ricorda
il meccanismo delle K-Line di Minsky, quello di ricostruire gli aspetti
rilevanti di un'esperienza passata.
Schank ha sviluppato una forma di analogia "per casi" (case-based reasoning)
nella quale una "memoria episodica" archivia tutti i "casi" incontrati
sotto forma di loro generalizzazioni e ogni nuovo "caso" che si presenta
provoca la ricerca di un caso "simile" sia per guidare l'interpretazione
del nuovo caso (guidata dall'aspettarsi che succedano certi fatti che
successero nel caso precedente) sia per compilare nuove generalizzazioni
di casi. Rispetto allo spazio di problema dei sistemi deduttivi (come
i sistemi di produzione) la memoria episodica contiene non "soluzioni"
ma "esempi di soluzione". Sia il ragionamento a regole di produzione sia
quello a casi appartengono alla categoria dei ragionamenti "template-based",
dove il template e' un'espressione logica nel primo caso e un caso nel
secondo; ma il primo seleziona regole i cui antecedenti concordano con
la situazione corrente, e pertanto non puo' trattare situazioni nuove
e non puo' incrementare la propria memoria, mentre il secondo seleziona
casi che corrispondono alla situazione corrente, tratta situazioni nuove
"per analogia" e incrementa la propria memoria "per validazione".
La
Logica e' "estensionale" nel senso che la verita' di un'espressione dipende
unicamente dagli oggetti a cui si riferisce (dalla sua estensione), non
dal suo significato (dalla sua intensione). In altre parole i simboli
di un linguaggio "estensionale" rappresentano oggetti o proprieta' di
oggetti, e ogni frase composta di tali simboli esprime una verita' o una
falsita' relativa a tali oggetti o a tali proprieta'. "Piero Scaruffi
e' italiano" esprime una proprieta' di Piero Scaruffi che e' vera.
I linguaggi estensionali soddisfano la cosiddetta "legge di Leibniz":
se in una frase si sostituisce un termine con un altro termine che fa
riferimento allo stesso oggetto si conserva la verita' (o la falsita')
della frase. Se al posto di "Piero Scaruffi", scriviamo "L'autore di questo
libro" otteniamo ancora una frase vera: "L'autore di questo libro e' italiano".
Che esistano dei problemi con le estensioni era gia' noto a Russell: "L'unicorno
vola" e' falsa perche' l'unicorno non e' tra gli oggetti che volano, ma
il suo opposto "L'unicorno non vola" e' anche falsa, in quanto l'unicorno
non e' neppure fra gli oggetti che non volano, e cio' contraddice la legge
secondo cui una frase e' vera se il suo opposto e' falso.
Russell fece anche notare quanto poco conti l'estensione: siccome non
sono sposato, l'espressione "la moglie di Piero Scaruffi" non ha alcuna
estensione, ma ha un significato intuitivo, eppure la logica la tratta
alla stregua di qualsiasi altra espressione priva di estensione ("l'elefante
con le ali", "il politico non corrotto", "Babbo Natale" e cosi' via),
per cui l'una vale l'altra. Esiste una differenza intuitiva fra "la moglie
di Piero Scaruffi e' bella" e "il politico non corrotto e' bello", ma
per la Logica Matematica queste frasi sono equivalenti.
Frege studio' anche un caso che viola la legge di Leibniz: i verbi "sapere",
"credere" e "pensare" seguiti da una frase non permettono piu' di sostituire
un termine con un termine dallo stesso referente. Per esempio, se "Cinzia
sa che Giusi ha trent'anni", e Giusi e' la moglie di Vincenzo, non e'
necessariamente vera la frase, apparentemente equivalente: "Cinzia sa
che la moglie di Vincenzo ha trent'anni". Cinzia potrebbe non sapere che
Giusi e' la moglie di Vincenzo e in tal caso non saprebbe rispondere alla
domanda "Quanti anni ha la moglie di Vincenzo?" pur sapendo rispondere
alla domanda "Quanti anni ha Giusi?" La legge di Leibniz viene violata
in tutti i casi di "contesto opaco", come quelli di "sapere", "credere"
e "pensare".
Insomma la logica estensionale non sa trattare frasi assai comuni nel
linguaggio corrente come quelle che usano i contesti opachi ("sapere",
"credere", "pensare") e come quelle che usano gli operatori modali (tutte
le parole che si possono ricondurre alle forme "e' possibile che" e "e'
necessario che", dal verbo "dovere" all'avverbio "forse").
Queste frasi non sono "estensionali", nel senso che non soddisfano la
legge di Leibniz.
Queste frasi sono invece interpretabili nella semantica dei modelli ("model-theoretic")
di Kripke. Il primo a concepire il nostro mondo come uno dei mondi possibili
fu Leibniz, ma il primo a dare un rigoroso fondamento logico a questa
intuizione fu Kripke. Un'affermazione che e' falsa in questo universo
puo' benissimo essere vera in un altro mondo. Pertanto i valori di verita'
di una frase sono sempre relativi a un particolare mondo.
Nella semantica dei mondi possibili una proprieta' e' necessaria se in
tutti i mondi e' vera, una proprieta' e' possibile se esiste almeno un
mondo in cui e' vera. "Piero Scaruffi e' italiano" e' possibile, non necessaria;
"Piero Scaruffi e' Piero Scaruffi" e' necessaria. Queste definizioni sono
estremamente utili nel diagnosticare i cosiddetti "controfattuali", ovvero
frasi ipotetiche del tipo "Se non fossi Piero Scaruffi, sarei francese"
(non ha molto senso domandarsi se questa frase sia "vera" o "falsa": e'
pero' "possibile").
Mentre la teoria dei modelli di Tarski e' puramente estensionale (per
ogni modello il significato di un predicato e' determinato dall'elenco
degli oggetti per cui e' vero), la logica "modale" di Kripke e' intensionale:
primo perche' tratta possibilita' che non esistono e potrebbero non esistere
mai, e poi perche' nella semantica dei mondi possibili le definizioni
estensionali sono impossibili in quanto l'insieme di oggetti e' infinito.
Nella logica modale di Lewis una proposizione e' necessaria se e' vera
in ogni mondo possibile, e' possibile se e' vera in almeno un mondo possibile.
"Necessita'" e "possibilita'" sono operatori modali, nel senso che operano
su espressioni logiche esattamente come i comuni connettivi logici. I
due operatori modali sono duali (l'uno puo' essere espresso in funzione
dell'altro), e in cio' riflettono semplicemente il dualismo dei due quantificatori
(anche l'esistenziale e l'universale possono essere espressi in funzione
l'uno dell'altro). Una logica modale viene costruita aggiungendo agli
assiomi di una logica non-modale alcuni assiomi contenenti gli operatori
modali. Per esempio, e' comune aggiungere gli assiomi modali cosiddetti
"di Kripke" (se e' necessario che A implichi B, allora se A e' necessario
anche B e' necessario) e "di verita'" (se A e' necessario, A e' vero).
.sp 5
FIGURA 10 .sp 5
Gli operatori modali possono in realta' stare per qualsiasi coppia di
concetti duali. Per esempio, potrei costruire una logica modale i cui
operatori sono "A Dario piace..." e "A Cinzia piace..." ( i loro gusti
sono praticamente incompatibili, per cui possono essere derivati gli uni
dagli altri).
Sono possibili infiniti tipi di logiche modali. Tutto dipende da quali
assiomi modali si decide di introdurre. E' chiaro che questi assiomi devono
riflettere l'accezione comune di quelle proprieta' modali (per esempio,
di "necessita'" e "possibilita'", per esempio di "A Dario piace..." e
"A Cinzia piace..."). In particolare, le logiche intensionali rappresentano
attitudini proposizionali, attitudini mentali verso una proposizione.
Se l'intensionalita' e' limitata alle attitudini di conoscere e credere,
la logica e' quella epistemica.
In questo caso gli operatori modali della logica sono quelli di "conoscenza"
(l'operatore epistemico) e "credenza" (l'operatore doxastico). Le due
entita' sono distinte dall'assioma di verita', che alla luce dei nuovi
operatori si puo' leggere cosi': se conosco qualcosa, quel qualcosa e'
vero; se credo in qualcosa, quel qualcosa non e' necessariamente vero.
Il problema e' che non e' chiaro quali altri assiomi siano coerenti con
l'accezione di conoscenza e di credenza. L'assioma di Kripke, per esempio,
applicato agli operatori epistemico e doxastico, afferma la mia onniscienza
matematica: se conosco A, allora conosco anche tutto cio' che consegue
da A; e siccome io conosco gli assiomi di Peano, vuol dire che conosco
tutto cio' che e' dimostrabile in Matematica; il che', ahime', non e'.
Costruire
la verita'
Il
fatto che la logica classica "dimostri" e non "costruisca" verita' puo'
dar adito anche a un altro genere di critica. Le sue regole di inferenza
si prestano infatti a dei grossolani paradossi: l'implicazione, per esempio,
non corrisponde al "se" del linguaggio comune ("P implica Q" non e' identico
a "se P, allora Q"). Per esempio, "Vincenzo e' scapolo implica Vincenzo
e' piemontese" non corrisponde a "Se Vincenzo e' scapolo, allora Vincenzo
e' piemontese", tant'e' che la seconda non ha alcun senso mentre la prima,
secondo la logica classica, risulta persino vera; ancora, "ogni figlio
di Vincenzo si chiama Alfredo" risulta vera nella logica classica, poiche'
il mio amico Vincenzo non ha figli, mentre non ha senso nel linguaggio
comune, appunto in quanto Vincenzo non ha figli.
Per ovviare a questi paradossi della logica classica, la logica "intuizionista"
limita il suo campo d'azione a cio' che puo' essere costruito mentalmente.
Cosi' non ha senso prendere la negazione di una verita', un espediente
che e' invece spesso utilizzato nel calcolo logico. Il significato di
un'espressione non sta nelle sue condizioni di verita', ma nel modo di
dimostrarla.
La teoria del significato di Dummett e' una variante della logica intuizionista
che sostituisce verifica e falsificazione a verita' e falsita'.
Anche la semantica "dei giochi" di Hintikka assume che la verita' possa
essere ottenuta soltanto attraverso un processo di "falsificazione" e
di "verifica": la verita' di un'espressione viene determinata attraverso
un insieme di regole, dipendenti dal dominio, che definiscono una sorta
di "gioco" fra due agenti, il primo intenzionato a "convalidare" e il
secondo a "confutare" l'espressione. L'espressione e' vera se vince il
primo agente. La differenza fra Hintikka e Dummett e' che la teoria del
primo (verificazionista come quella del secondo) e' ancora una semantica
"truth-conditional".
Affine a questi "giochi" di verita' e' il ragionamento "opportunistico"
coniato da Hayes-Roth, nel quale un certo numero di agenti indipendenti
cooperano per giungere alla soluzione. La metafora e' quella di un "consulto"
di medici specialisti: a turno ciascuno specialista esamina sia la diagnosi
parziale degli altri specialisti sia il paziente, e aggiunge a sua volta
qualcosa alla diagnosi parziale. A forza di alternarsi gli specialisti
dovrebbero prima o poi trasformare quella diagnosi parziale nella diagnosi
finale. Nel modello "a lavagna" (blackboard) di Hayes-Roth ogni agente
legge le conclusioni degli altri agenti, ragiona e poi scrive a sua volta
le conclusioni a cui e' pervenuto. Ogni agente e' specializzato in qualche
tipo di ragionamento, o nel ragionare in qualche specifico dominio, in
modo che il lavoro collettivo sia ben distribuito. Questo e' pertanto
un modo di ragionare "incrementale" (nel senso che la soluzione viene
costruita poco alla volta) e "opportunistico" (in quanto gli agenti sfruttano
di volta in volta le opportunita' che si presentano).
In ogni istante questo sistema di agenti ha a disposizione due "agende"
di azioni: quelle che il sistema "desidera" compiere (cioe' le azioni
che almeno un agente ha bisogno di compiere per continuare il proprio
ragionamento, ma non puo' compiere per mancanza di informazione), ovvero
l'agenda delle azioni necessarie; e quelle che il sistema puo' compiere
(cioe' le azioni per le quali si sono verificate le condizioni), ovvero
l'agenda delle azioni possibili. Dal confronto fra le due agende il sistema
determina quali azioni sono al tempo stesso necessarie e possibili, e
pertanto quali agenti devono riprendere il proprio ragionamento. Il vantaggio
computazionale di questo tipo di ragionamento e' proprio dovuto al fatto
che prende in considerazione soltanto le azioni che sono possibili e necessarie,
ovvero quelle e solo quelle che sono rilevanti ai fini della risoluzione
del problema.
Infine un
altro modo di "costruire" la verita' e' quello di partire da un'ipotesi
e raffinarla di passo in passo. Secondo la teoria "revisionista" della
verita' di Gupta, infatti, la verita' non andrebbe stabilita tramite una
regola di applicazione, ma tramite una regola di revisione. Per esempio,
si voglia determinare tutte le frasi di un dato linguaggio che sono vere
quando quel linguaggio comprende un predicato di verita' (un predicato
che fa riferimento al concetto di "vero"). Per poter valutare quel predicato
di verita' e' necessario sapere qual'e' l'estensione di "vero", ma l'estensione
di "vero" e' proprio cio' che si deve stabilire. L'unico modo di uscire
da questa circolarita' e' di assumere inizialmente un'estensione di "vero"
e applicare una regola di revisione il cui risultato sara' un'estensione
di "vero" migliore della precedente. La "verita'" viene pertanto ottenuta
attraverso un processo incrementale di raffinamento progressivo. La scelta
di questa regola di revisione puo' avvenire in diversi modi, ma e' ovviamente
fondamentale che a un certo punto l'estensione di "vero" converga verso
un'estensione stabile, e Belnap propone una "politica di scelta" che dovrebbe
essere ottimale.
L'incertezza
Nel
1927 Heisenberg diede una svolta storica non solo alla scienza ma al concetto
stesso di verita' enunciando il suo principio di indeterminatezza. Da
allora l'"incertezza" e' divenuta, in un modo o nell'altro, una delle
poche certezze della Scienza moderna. Da allora e' entrato nell'uso comune
di ritenere che esista un limite alla capacita' della Scienza di capire
l'universo.
In ballo c'e' il principio di causalita', e cioe' che ogni effetto sia
preceduto da una causa e una sola. Per esempio, nella meccanica newtoniana
la posizione e la velocita' in un certo istante di una particella non
soggetta a forze determinano in modo univoco dove si trovera' la particella
in un istante successivo. In pratica il principio di causalita' asserisce
che, se e' noto il presente, si puo' calcolare il futuro.
Il principio di indeterminatezza di Heisenberg rimette in discussione
le stesse premesse del principio di causalita', ovvero che possano essere
note simultaneamente la posizione e la velocita' di una particella: esse
possono essere misurate simultaneamente soltanto con un margine di incertezza
(piu' precisa e' la misura della prima piu' imprecisa e' quella della
seconda). Di conseguenza anche il "futuro" della particella ha un margine
di incertezza, ovvero sono possibili diversi futuri, ciascuno con una
certa probabilita'.
Nonostante la Meccanica Quantistica abbia ricevuto un numero impressionante
di conferme sperimentali, molti pensatori sono sempre stati riluttanti
ad accettare l'idea che tutto sia affidato al caso. Uno di questi, Albert
Einstein, parlo' per tutti noi (credenti e non) quando disse che Dio non
gioca a dadi. E Einstein aveva la tendenza ad avere sempre ragione, anche
quando pensava di avere torto. Quella celebre frase aleggia ancora come
una minaccia sul principio di indeterminatezza e su tutta la Scienza e
la Filosofia che ne sono seguite.
La
Probabilita'
Il
mondo della logica e' un mondo ideale, semplice e chiaro, in cui e' possibile
compiere ragionamenti esatti. Il mondo reale e' molto diverso, in quanto
la maggioranza delle informazioni sono incerte, inesatte, vaghe.
Una prima forma di incertezza e' quella relativa a quanto un soggetto
crede che qualcosa sia vero. Seguendo Savage, questa incertezza, o, meglio,
questo "grado di convinzione", puo' essere espresso in termini di probabilita',
le quali hanno il pregio di soddisfare un insieme di regole matematiche
(benche' fossero state inventate per esprimere una misura della frequenza
con cui un evento si verifica, e non per esprimere una misura dell'attesa
che un evento si verifichi, ovvero per un compito descrittivo e non normativo:
ancora una volta la Matematica e il suo mondo ideale finiscono per prevalere
sulla Psicologia e sul mondo reale).
Tversky ha invece dimostrato che la teoria matematica della probabilita'
non si presta a descrivere e prescrivere il comportamento umano, il quale
e' soggetto ad aberrazioni di prospettiva (i cosiddetti "framing effects",
che influenzano convinzioni, e pertanto le probabilita'). Per esempio,
quando Vincenzo doveva decidere se acquistare la casa o meno, era entusiasta
tutte le volte che pensava al risparmio dell'affitto, ma terrorizzato
ogni volta che pensava al proprio conto in banca. A seconda di come il
problema viene presentato, la propensione al rischio puo' essere completamente
diversa, come ogni agente immobiliare ben sa. In generale questo fenomeno
e' riconducibile al fatto che ben pochi hanno l'esperienza necessaria
per stabilire esattamente l'"utilita'", e pertanto le probabilita' di
riuscita, di un certo corso d'azione. Tversky ne deduce che nessuna teoria
"normativa" adeguata puo' essere anche una teoria "descrittiva" accurata.
Tversky e Shafer ovviano a questo inconveniente (o, piuttosto, vizio bello
e buono) con una teoria "costruttivista" delle probabilita', nella quale
la probabilita' descrive una situazione ideale che deve in qualche modo
essere posta in relazione di analogia con la situazione reale, e cio'
puo' avvenire in diverse maniere. Secondo Shafer, in accordo con gli esperimenti
di Tversky, il modo in cui assegniamo probabilita' a un evento e' una
sorta di esperimento mentale tramite il quale tentiamo di costruire una
situazione immaginaria, e il risultato a cui perveniamo dipende proprio
dal processo di costruzione, dal "come" ci siamo arrivati. Seguendo due
strade diverse, possiamo pervenire a due risultati diversi. Secondo Shafer
la gente non ha preferenze, le costruisce.
Savage baso' la sua teoria delle probabilita' su argomenti pragmatici
che riguardavano la presa di decisioni. Cox tento' invece di fondare una
teoria dell'inferenza probabilistica su basi assiomatiche: i suoi assiomi
non fanno riferimento ad alcun criterio pragmatico, bensi' soltanto alle
relazioni fra evidenza ("evidence") e convinzione ("belief"). Qualunque
fenomeno che possa essere descritto dagli assiomi di Cox puo' essere ricondotto
al calcolo delle probabilita'. In tal modo Cox dimostra anche che qualunque
formalismo numerico per ragionare sull'incertezza e' un travestimento
della teoria delle probabilita'. E Aleliunas sosterra' qualcosa di simile
per i formalismi non numerici, da cui si potrebbe dedurre che qualunque
teoria dell'incertezza e' in un'ultima analisi una variante della teoria
delle probabilita'.
Un'assiomatizzazione piu' coerente con i risultati sperimentali e' quella
di Pearl. Pearl comincia con l'osservare che una proprieta' dell'informazione
e' quella di essere rilevante per qualche altro tipo di informazione,
altrimenti non sarebbe informazione. La proprieta' duale della rilevanza
e' la dipendenza: se, dato quel che e' noto, un'informazione e' rilevante
per un'altra informazione, allora quest'altra e' dipendente dalla prima.
Per l'esattezza la rilevanza puo' essere identificata con la "indipendenza
condizionale", ovvero con la proprieta' che la probabilita' condizionale
di due eventi rispetto a quanto e' noto sia pari al prodotto delle probabilita'
condizionali dei singoli eventi rispetto a quanto e' noto. Pearl fornisce
poi una formulazione assiomatica dell'indipendenza condizionale.
E' possibile anche una rappresentazione grafica della dipendenza condizionale,
sotto forma di "diagrammi di influenza", detti anche "reti causali". Le
reti causali di Pearl sono grafi aciclici diretti, nei quali i nodi sono
variabili casuali (che possono avere qualsiasi valore, il valore di uno
dei "casi" che si possono presentare) e gli archi esprimono le dipendenze
fra tali variabili. Un grafo causale consente di calcolare le probabilita'
condizionali di tutti i nodi nella rete, una volta che siano dati i valori
di alcuni nodi. Man mano che piu' informazione diventa disponibile, ovvero
che i valori di altri nodi vengono vengono definiti, le probabilita' condizionali
dei nodi liberi cambiano, in accordo con la cosiddetta "formula di inversione"
di Bayes. Il grafo che rappresenta una situazione reale puo' essere molto
complesso, ma esiste una tecnica matematica per semplificarlo (basata
sul concetto di "d-connessione", che stabilisce quali variabili sono dipendenti
e quali no).
Una rete causale ha anche la facolta' di essere "isotropa", nel senso
che puo' essere usata per compiere inferenze in entrambe le direzioni:
scorrendo il grafo dall'alto verso il basso si compie un'inferenza di
tipo "predittivo", nel senso che si puo' inferire con quante probabilita'
un certo evento causera' un altro evento; mentre scorrendo invece il grafo
dal basso verso l'alto si compie un'inferenza di tipo "diagnostico", nel
senso che si puo' inferire con quanta probabilita' un evento e' dovuto
a un altro evento.
Secondo Pearl l'esperienza viene trasformata in modelli causali affinche'
sia poi possibile prendere delle decisioni. Le reti causali, infatti,
o meglio i diagrammi di influenza, possono essere "risolti" tramite tecniche
matematiche (formalizzate da Shachter) per ottenere dei consigli su quale
"decisione" prendere. La tecnica di prendere decisioni e' diventata una
disciplina a se stante con l'"analisi delle decisioni" di Raiffa, la quale,
sull'esempio di Savage, mutua molte idee dall'Economia (principalmente
quella di "utilita'" di von Neumann, ovvero di calcolare i pro e i contro
di una decisione) e ha come fine ultimo quello di definire cosa sia una
decisione "buona" (siccome una decisione "buona" non da' necessariamente
un risultato "buono", un risultato cattivo non significa necessariamente
che la decisione fosse anche cattiva).
L'intero fenomeno del "prendere decisioni" esiste in quanto esiste l'incertezza;
se non esistesse l'incertezza, esisterebbe sempre una sola decisione sensata.
Le reti causali non devono usare necessariamente le probabilita'.
Uno dei pilastri ideologici della teoria delle probabilita' e' che la
probabilita' di un evento e' uguale a uno meno la probabilita' del suo
opposto, o, equivalentemente, che la somma delle probabilita' di tutti
gli eventi sia uno. Per esempio, se la probabilita' che io scriva degli
altri libri e' il 90%, la probabilita' che io smetta di scrivere deve
essere il 10%.
La "funzione di convinzione" ("belief function") di Dempster e' una generalizzazione
della probabilita' a tutti i possibili sotto-insiemi di eventi. Per esempio,
nel caso di un dado gli eventi possibili sono sei (le sei facce del dado),
ma i possibili sotto-insiemi di eventi sono 64 (i sei di cui sopra, piu'
le varie combinazioni di due facce, come "pari" e "dispari", quelle di
tre facce, di quattro e cosi' via). La somma delle probabilita' di tutti
i sotto-insiemi vale uno, ma la somma delle probabilita' di tutti i singoli
eventi vale meno di uno. Dempster consente pertanto di assegnare una probabilita'
a un gruppo di eventi nel suo insieme, senza assumere che sia nota anche
la probabilita' dei singoli eventi. Indirettamente Dempster consente di
rappresentare l'"ignoranza", come lo stato in cui la convinzione di un
evento non e' nota (anche se e' nota quella di un insieme a cui quell'evento
appartiene).
Dal punto di vista semantico Pearl ha dimostrato che una funzione di convinzione
relativa a una proposizione rappresenta la probabilita' di dimostrare
che, dati i vincoli imposti dall'evidenza disponibile, quella proposizione
e' vera; secondo Pearl la funzione di convinzione misura quanto la proposizione
si avvicina alla "necessita'". La probabilita' classica, invece, misura
quanto la proposizione si avvicina alla "verita'". La teoria di Bayes
considera l'evidenza disponibile alla stregua di assunzioni riguardo le
probabilita', mentre la teoria di Dempster considera l'evidenza disponibile
alla stregua di probabilita' per scegliere le assunzioni; nel primo caso
una proposizione e' credibile quando e' dimostrabilmente probabile, nel
secondo caso una proposizione e' credibile quando e' probabilmente dimostrabile;
nel primo caso la teoria delle probabilita' e' il linguaggio oggetto e
la logica e' il meta-linguaggio, nel secondo caso i ruoli sono invertiti.
Il vantaggio della teoria di Dempster e' che non richiede un modello probabilistico
completo del dominio.
La "formula di combinazione" di Dempster esibisce la proprieta' che due
evidenze a favore si rinforzano l'un l'altra, mentre due evidenze contrarie
si indeboliscono l'un l'altra. Di conseguenza una rete causale basata
sulla funzione di convinzione restringe progressivamente il campo delle
ipotesi e pertanto meglio rappresenta il senso comune. Sfortunatamente
la formula di inversione di Dempster ha anche un'altra proprieta': quella
di crescere esponenzialmente in complessita', e di essere pertanto computazionalmente
impraticabile.
La
Possibilita'
E'
dubbio, inoltre, se il senso comune calcoli probabilita' di necessita'
o probabilita' di verita'.
La logica delle possibilita' (per esempio, nella versione di Dubois) assegna
a ogni assioma un grado di possibilita' e un grado di necessita'. Per
esempio, "Dio esiste" ha per me necessita' zero e possibilita' uno, ovvero
sono del tutto ignorante sulla verita' o falsita' di questa proposizione.
Viceversa la necessita' uno significa che l'assioma e' vertamente vero
e la possibilita' zero che e' certamente falso. La principale differenza
fra la logica modale e la logica delle possibilita' e' che nella prima
non esistono gradi di necessita' e di possibilita' ("Vincenzo e' a casa"
e' possibile, punto e basta), nella seconda si' ("Vincenzo e' a casa"
e' possibile con grado X). La logica delle possibilita' ammette un solo
insieme di assiomi, mentre quella modale ne ammette molti.
Le possibilita' sono state usate anche come un'alternativa alle probabilita',
per esempio da Shackle. La possibilita' si distingue dalla probabilita'
in quanto consente di trattare anche quei casi in cui tutti gli eventi
sono incerti allo stesso modo. La possibilita' puo' in effetti trattare
l'intero spettro dell'incertezza, dall'informazione completa all'ignoranza
totale.
L'ambiguita'
Non
bisogna confondere l'imprecisione (Dario ha guardato la partita con il
99% di probabilita') e la vaghezza ("Vincenzo e' molto simpatico"). Nel
primo caso la proposizione e' vera o falsa, ma per mancanza di informazione
possiamo soltanto fornire una stima della sua verita'. Nel secondo caso
l'informazione e' completa e la proposizione e' precisissima, ma non e'
ne' vera ne' falsa, bensi' qualcosa di intermedio.
Il linguaggio ordinario e' vago. Questo non e' un problema, come i logici
"bivalenti" (quelli che ammettono soltanto il vero e il falso) hanno sempre
sostenuto, ma una soluzione. E' grazie al suo essere vaga che una asserzione
viene creduta vera; all'aumentare della sua precisione diminuisce la certezza
della sua verita'. Per esempio, "I libri di Piero Scaruffi sono interessanti"
mi sembra ovviamente vera; ma se cerco di precisare che "I libri di Piero
Scaruffi sono interessanti con un grado di interesse di 0,76" non sono
piu' sicuro di quello 0,76: perche' non 0,77? L'essere vago e' una proprieta'
cruciale del linguaggio, senza la quale la nostra capacita' di comunicare
e di percepire il mondo sarebbe gravemente limitata. Il computer su cui
sto scrivendo e' "rumoroso", il tempo oggi e' "bello" ed e' gia' "tardi"
per andare al cinema: questo mondo e' facile da esprimere e da capire;
se dovessi riformulare ogni frase in termini precisi (magari usando decibel,
gradi centigradi e minuti) non riuscirei ad essere altrettanto chiaro
ed efficace.
Persino quando dico di essere alto un metro e settanta, o di avere trentotto
anni, o di avere gli occhi azzurri dico qualcosa che non e' del tutto
vero: sono tutte approssimazioni grossolane (in realta' sono alto m. 1,704325332;
ho trentotto anni, 192 giorni, 7 ore, 42 minuti e 12 secondi di vita;
la frequenza di colore dei miei occhi e'...). Ma alla domanda "quanti
anni hai?" la gente si aspetta di sentirsi rispondere "trentotto" e non
"trentotto anni, 192 giorni, 7 ore...".
Non bisogna eliminare la vaghezza, come tentano di fare i logici, ma fornire
una teoria della vaghezza. Esistono due tipi di vaghezza, una estensionale
e una intensionale: la prima e' quella relativa all'appartenenza di un
oggetto a un certo concetto (la vaghezza di "I libri di Piero Scaruffi
sono interessanti" esprime un grado di incertezza sul fatto che quei libri
appartengano al concetto di "interessante"), mentre la seconda e' relativa
all'appartenenza di un concetto a un altro concetto (la vaghezza di "I
libri sono mezzi di comunicazione"). L'esattezza (l'essere o vero o falso
e mai nulla di intermedio) e' un limite dell'approssimato.
Nel caso delle teorie dell'incertezza, il grado di verita' e' la misura
della coerenza che esiste fra una proposizione sul mondo e lo stato del
mondo. Il significato di una proposizione e' il vincolo che limita i valori
delle variabili presenti (esplicitamente o implicitamente) in quella proposizione.
Zadeh definisce una procedura per "calcolare" il significato, ovvero quel
vincolo, tramite tecniche di programmazione non lineare. Una proposizione
puo' cosi' risultare vera, falsa, parzialmente nota oppure vaga con un
certo grado di vaghezza.
La teoria delle quantita' "fuzzy" di Zadeh afferma che non esistono cose
vere e cose false, ma soltanto gradi di verita'. Questa e' una concezione
del mondo molto piu' vicina a quella del senso comune: non e' che un oggetto
sia rosso o meno; puo' essere piu' o meno rosso. La logica matematica
e' una grossolana approssimazione del nostro mondo, un'approssimazione
in cui gli oggetti possono soltanto essere rossi o non essere rossi, ma
non possono essere "molto rossi" o "poco rossi" o "quasi rossi".
Kline ha dimostrato che non solo questa concezione e' piu' intuitiva,
ma puo' anche risolvere i celebri paradossi causati dalla legge di non
contraddizione ("non e' possibile che una proposizione e il suo opposto
siano contemporaneamente veri") e dalla legge del medio escluso ("o una
proposizione e' vera o e' vero il suo opposto"): tanto il paradosso del
barbiere quanto quello del mentitore sono risolvibili ammettendo un grado
di verita' di 0,5.
La logica fuzzy e' una logica a piu' valori, come quella di Lukasiewicz,
nel senso che un termine puo' avere piu' dei due valori, vero e falso,
della logica classica. Non si oppone, pero', a quella classica, ma la
amplia.
La logica fuzzy rende persino conto di un problema ontologico che ha assillato
i Filosofi per secoli: se da un mucchio di sabbia tolgo un granello, ho
ancora un mucchio di sabbia? Se si', allora posso ripetere questa procedura
e ottenere sempre un mucchio di sabbia; ma i granelli sono in numero finito,
e prima o poi mi ritrovero' con nulla. Nella logica fuzzy, invece, ogni
volta che rimuovo un granello ottengo un oggetto che e' sempre di meno
un mucchio di sabbia: ogni applicazione di una regola di inferenza fa
perdere un po' di verita' alla proposizione risultante.
Addirittura nella logica fuzzy e' possibile che un insieme appartenga
(parzialmente) a una delle sue parti. Ogni insieme puo' essere sottoinsieme
di un altro insieme con un certo grado di appartenenza e nulla proibisce
che "alto" sia sottoinsieme parziale di "basso" mentre "basso" e' sottoinsieme
parziale di "alto".
L'idea di fondo e' un derivato del principio di indeterminatezza di Heisenberg,
che precisione e certezza siano inversamente proporzionali, e del principio
"di incompatibilita'" di Duhem, secondo cui la convinzione che una asserzione
vaga sia vera discende dal suo essere vaga. Entrambi dicono la stessa
cosa: all'aumentare della precisione di una proposizione diminuisce la
certezza che quella proposizione sia vera. Un aspetto di questo principio
e' un fenomeno ben noto ad ogni politico: e' facile essere certi di qualcosa
in termini qualitativi, visto che non si puo' essere precisi, mentre e'
difficile essere certi di qualcosa in termini quantitativi, poiche' allora
si dovrebbe essere molto precisi.
Un insieme "fuzzy" e' un insieme di elementi che appartengono all'insieme
soltanto in parte, ovvero ogni elemento e' caratterizzato da un certo
grado di appartenenza all'insieme fuzzy (o grado di esistenza). Per esempio,
nell'insieme fuzzy degli amici di Dario ci sono amici piu' amici e amici
meno amici. Questi gradi di appartenenza sono espressi come numeri reali
compresi fra zero e uno. Un amico di Dario che abbia grado di appartenenza
uno e' l'amico perfetto; un amico di Dario che abbia grado di appartenenza
zero e' il nemico perfetto. Su queste quantita' fuzzy e' allora possibile
operatore con "modificatori fuzzy" come "molto" e "poco", "quasi" e "alquanto"
e con "quantificatori fuzzy" come "molti" e "pochi".
Nella teoria classica degli insiemi un oggetto e' membro di un insieme
oppure non lo e'. Nella teoria degli insiemi fuzzy un oggetto puo' essere
membro di piu' insiemi con un certo grado di appartenenza ("membership"),
il quale puo' variare da zero a uno. Di conseguenza anche i valori di
verita' non sono piu' zero e uno ma variano in quello stesso intervallo
continuo. La logica non e' piu' bivalente, ma ha valori multipli. Una
frase fuzzy (come "I libri di Piero sono interessanti") puo' allora avere
un valore di verita' di 0,65 o 0,72 o 0,38.
A proiettare l'universo di discorso (relativo a una certa variabile) nell'intervallo
dei valori compreso fra zero e uno e' una "distribuzione di possibilita'"
(relativa a quella variabile), la quale specifica di fatto cio' che si
ritiene essere epistemicamente possibile (i valori ammissibili per quella
variabile). Il valore della distribuzione per un certo termine T del discorso
esprime il grado di preferenza che si attribuisce all'espressione "il
valore della variabile e' T", ovvero il grado di possibilita' di T per
quella variabile. Per esempio, se la variabile in questione e' la statura
di Dario, quanto ritengo che sia possibile che "Dario e' alto".
Gli esperimenti di Rosch sul modo in cui gli individui classificano oggetti
in categorie sembrano confermare che le categorie non sono necessariamente
esclusive, ovvero che uno stesso oggetto puo' appartenere parzialmente
a piu' categorie.
I sistemi fuzzy (per esempio quelli di Yager) sono sistemi di produzione
in cui le regole di produzione impiegano termini (predicati e modificatori)
fuzzy. (Di fatto questo significa che sono insiemi di vincoli elastici
su un insieme di variabili; e l'inferenza e' allora un processo di propagazione
di tali vincoli). A differenza delle regole di produzione classiche, che
sono attive o meno, le regole fuzzy sono sempre attive. Ogni regola e'
sempre parzialmente soddisfatta. Cio' che cambia e' il grado di soddisfazione.
Dworkin ha fatto notare che cio' e' piu' coerente con il modo in cui si
evolve la nostra societa'. Non e' vero che una legge e' in vigore o meno;
e' vero che certe leggi sono piu' o meno in vigore. Le leggi cambiano
nel tempo in accordo con i principi del vivere sociale. E ogni giudice
che si rispetti deve prendere in considerazione diverse leggi e applicare
secondo il relativo grado di rilevanza.
I sistemi fuzzy si prestano anche per rappresentare il significato di
un discorso i linguaggio ordinario. Secondo la semantica "test-score"
di Zadeh, che risulta essere una generalizzazione delle semantiche verita'-condizionale,
dei modelli e dei mondi possibili, il significato di una proposizione
e' la procedura che porta a calcolare il valore di "test-score" sulla
base del grado di soddisfazione dei vincoli elastici.
Kosko ha introdotto una formalizzazione della logica fuzzy in cui un insieme
fuzzy e' un punto in un ipercubo unitario (l'equivalente dell'"universo
di discorso" di Zadeh) e un insieme non fuzzy e' uno dei vertici di tale
ipercubo. Tutti i paradossi della logica classica si verificano nei punti
medi di questo ipercubo. L'entropia di un insieme fuzzy (e in un certo
senso la sua "ambiguita'") risulta definita dal numero di violazioni della
legge di non contraddizione rapportato al numero di violazioni della legge
del medio escluso; l'entropia e' nulla proprio quando queste leggi valgono
entrambe, e' massima nel centro dell'ipercubo. Alternativamente, e in
maniera equivalente, l'entropia di un insieme fuzzy puo' anche essere
definita come una misura di quanto un insieme e' sottoinsieme di un sottoinsieme
di se stesso.
Un sistema fuzzy risulta allora una relazione fra ipercubi, e, piu' precisamente,
una relazione che porta famiglie di insiemi fuzzy in famiglie di insiemi
fuzzy. Un genere particolare di sistemi fuzzy e' quello delle "memorie
associative fuzzy", che portano "palle" di insiemi fuzzy in "palle" di
insiemi fuzzy (dove una "palla" esprime la continuita' del sistema fuzzy).
In tal modo Kosko potrebbe anche dimostrare che la logica fuzzy si presta
meglio della teoria delle probabilita' a descrivere il mondo. La logica
fuzzy, che e' in grado di replicare tutti i risultati della teoria delle
probabilita', anzi persino di renderne conto senza postulare l'esistenza
del caso (per esempio, la frequenza relativa e' una misura di quanto un
insieme e' sottoinsieme di un altro insieme), si presta meglio a descrivere
il mondo. Per esempio, se la probabilita' che in un frigorifero ci sia
una mela e' 50% e in un altro frigorifero c'e' mezza mela e' ovvio che
i due frigoriferi si trovano in due stati diversi, anche se quegli stati
sono equivalenti dal punto di vista della loro incertezza numerica: il
primo e' uno stato casuale, il secondo e' uno stato fuzzy (ambiguo, ma
ancora deterministico). Kosko si domanda se la Meccanica Quantistica tratta
la casualita' o l'ambiguita' dell'universo: un'onda di probabilita' misura
la probabilita' che una particella si venga a trovare in una certa regione
dello spazio oppure il grado in cui una nuvola di elettroni copre quella
regione? L'universo e' casuale o deterministico? Einstein avrebbe probabilmente
preferito una Meccanica Quantistica basata sulla fuzzy logic.
Uno dei fatti piu' antipatici della Scienza moderna e' la netta e rigida
separazione fra le scienze della mente e le scienze del resto dell'universo.
Mentre da un lato Meccanica Quantistica e Relativita' Generale sembrano
convergere sempre piu' verso una formulazione unificata delle leggi della
Natura, la Neurofisiologia e la Psicologia stanno pervenendo a un modello
altrettanto solido e coerente, ma di tutt'altra forma. Sembrerebbe che
l'essenza dell'universo e delle sue leggi cambi drasticamente nel momento
in cui si varca la soglia del nostro cranio. D'altro canto i due mondi
appaiono separati da un abisso incolmabile.
Se fosse possibile ricostruire la Meccanica Quantistica utilizzando un
principio di "ambiguita'", invece che un principio di "incertezza", potremmo
descrivere il mondo con la logica fuzzy. Al tempo stesso abbiamo scoperto
delle relazioni matematiche fra sistemi fuzzy e sistemi neurali, ovvero
dovrebbe essere possibile descrivere anche il cervello con la logica fuzzy.
Allora avremmo trovato il ponte che colma quell'abisso.
Kosko fa notare che molte leggi della Fisica dovrebbero essere reversibili,
ma non lo possono essere perche' altrimenti si viola proprio il postulato
della sua casualita': se nel passare da uno stato X a uno stato Y esisteva
un certo grado di probabilita', una volta che quella transizione di stato
si sia verificata quel grado di probabilita' non esiste piu', in quanto
e' diventato certezza; nel tornare indietro pertanto la probabilita' e'
uno. Se si usa la logica fuzzy, invece, l'"ambiguita'" di un evento rimane
sempre la stessa, prima e dopo il suo essersi verificato, e un'ipotetica
ripetizione alla rovescia sarebbe perfettamente coerente.
Forse e' l'uomo, nella sua immane ignoranza delle cause fondamentali dell'universo,
a giocare a dadi, e non Dio. .sp 5
Aleliunas R. (1988): A new normative theory of probabilistic logic (Proc Biennial Conference of the CSCSI p.67)
Belnap N. (1982): Gupta's rule of revision theory of truth (Journal of Philosophical Logic n.11 p. 103)
Bunt H. (1985): Mass-terms and model-theoretic semantics (Cambridge Univ Press)
Carbonell J. (1983): Derivational analogy (Proc AAAI)
Churchland P. (1979): Scientific realism and the plasticity of mind Cox R. (1961): The algebra of probable inference (John Hopkins Press)
Dempster A. (1968): A generalization of Bayesian inference (Journal Royal Statistical Society n.B30 p.205)
Dubois D. & Prade H. (1988): Possibility theory (Plenum Press)
Dummett M. (1978): Truth and other enigmas (Harvard Univ Press)
Dworkin R. (1977): Taking rights seriously (Harvard Univ Press)
Goodman N. (1972): Problems and projects (Bobbs-Merrill)
Gupta A. (1981): Truth and paradox (Journal of Philosophical Logic n.11 p. 1)
Hayes-Roth B. (1985): A blackboard architecture for control (Journal of Artificial Intelligence n.26 p.251)
Hintikka J. (1983): The game of language (Reidel)
Kline M. (1980): The loss of certainty (Oxford Univ Press)
Kosko B. (1992): Neural networks and fuzzy systems (Prentice Hall)
Kripke S. (1963): Semantical considerations on modal logic (Acta Philos. Fenn. n.16 p.83)
Levesque H. (1989): A knowledge-level account of abduction (Proc. IJCAI p.1061)
Lewis C.I. (1932): Symbolic Logic (Mineola)
Michalsky R. (1983): Machine Learning I (Morgan Kaufman)
Michalsky R. (1986): Machine Learning II (Morgan Kaufman)
Michalsky R. (1990): Machine Learning III (Morgan Kaufman)
Pearl J. (1988): Probabilistic reasoning in intelligent systems (Morgan Kaufman)
Peirce C. (1965): Collected Papers (Harvard Univ Press)
Polya G. (1954): Mathematics and plausible reasoning (Princeton Univ Press)
Putnam H. (1981): Reason, truth and history (Cambridge Univ Press)
Raiffa H. (1968): Decision Analysis (Addison-Wesley)
Rorty R. (1979): Philosophy and the mirror of nature (Princeton Univ Press)
Savage L. (1954): The foundations of statistics (John Wiley)
Schank Roger (1982): Dynamic memory (Cambridge Univ Press)
Schank R. (1989): Inside case-based reasoning (Lawrence Erlbaum)
Shachter D. (1986): Evaluating influence diagrams (Stanford Univ Report)
Shackle G. (1961): Decision, order and time (Cambridge Univ Press)
Shafer G. (1976): A mathematical theory of evidence (Princeton Univ Press)
Shafer G. & Tversky A. (1985): Languages and designs for probability judgement (Cognitive Science n.9. pag.309)
Tversky A. & Kahneman D. (1986): The framing of decisions and the psychology of choice (Science n.211 p.453)
Von Neumann J. & Morgenstern O. (1953): Theory of games and economic behavior (Princeton Univ Press)
Winston G. (1979): Learning and reasoning by analogy (Communications ACM vol.23 n.12 p.689)
Yager R. (1992): An introduction to fuzzy logic applications (Kluwier Academic)
Zadeh L. (1975): Fuzzy sets and their applications (Academic Press)
Zadeh L. (1978): A theory of approximate reasoning (Machine Intelligence n.9 p.149)
Zadeh L. (1978): Fuzzy sets as a basis for a theory of possibilities (Systems n.1 p.3)
Zadeh L. (1986): test-score semantics (Literary and Linguistic Computing, n.1 p.24
|