|
||||||
DOCUMENTS
elab.immagini
galileo
realtà virtuale
vrml
biomeccanica
esapodi
formula1
intelligenza
Papers
meccanica
sistemi
robotica
La rivoluzione "chomskyana" ha illuso molti che il funzionamento del linguaggio fosse ormai chiaramente spiegato. In realta' la rivoluzione chomskyana e' servita soprattutto a portare alla luce problemi che prima non erano mai stati neppure intuiti, ma non ha spiegato molto dell'essenza del linguaggio. Non ha spiegato ne' "perche'" parliamo, ne' "come" parliamo.
Fin dall'antichita' e' piu' o meno tacitamente ammesso da tutti che il linguaggio e' un "mezzo" e non un "fine"; ma le opinioni divergono poi su quale sia il fine: "comunicare" e "pensare" sono i due candidati principali. Se tutto, alla fin fine, serve per sopravvivere, non e' in realta' molto chiaro come il linguaggio aumenti le nostre probabilita' di sopravvivere (spesso ci complica soltanto la vita).
Il "perche'", il "come" e il "cosa" sono ovviamente strettamente legati l'uno all'altro. Tentare di spiegare uno dei tre senza prendere in considerazione gli altri ha portato spesso a formulare teorie molto eleganti ma poco plausibili. Nel momento in cui, pero', si prendono in considerazione tutti e tre gli aspetti, i problemi aumentano vertiginosamente. Non e' piu' chiaro ne' come si impara a parlare, ne' come si parla.
Le origini del linguaggio sono inevitabilmente confuse con quelle dell'Homo Sapiens. Anche gli scimpanze', i nostri piu' prossimi "cugini", emettono suoni diversi per esprimere concetti diversi. Lieberman ritiene che il linguaggio abbia avuto origine per comunicare. Nel suo modello, fra l'altro, gli organi che svolgono compiti sofisticati si sono evoluti da organi piu' semplici che esistono ancora per compiti piu' semplici, ma che nondimeno partecipano nella produzione di quei compiti sofisticati (come dimostrato dal fatto che lesioni alle zone sensorimotorie del cervello riducono anche le capacita' linguistiche). Bickerton, invece, pensa che il linguaggio abbia come funzione fondamentale quella di rappresentare il mondo, quella di costruire un modello del mondo esterno, e che pertanto esso sia evoluto per il pensiero individuale piu' che per la comunicazione sociale. Mentre per Bickerton la sintassi e' il fulcro del linguaggio, per Lieberman tutto ha avuto inizio con il parlato. L'atto di parlare e' tutt'altro che semplice (si pensi alla coordinazione necessaria fra respiro e movimenti delle labbra e della lingua); una volta raggiunto questo livello, e' relativamente facile mettere insieme dei simboli per costruire delle frasi. Per Lieberman, pertanto, e' l'origine del parlato, non del linguaggio, a nascondere i segreti di questa facolta'. Siccome neppure l'uomo di Neanderthal non possedeva la lingua e la laringe dell'Homo Sapiens, il parlato e' probabilmente uno sviluppo molto recente.
Per spiegare la differenza fra "performance" (le frasi che un individuo usa durante la sua esistenza) e "competenza" (le frasi che e' capace di produrre, ma che non necessariamente produrra' durante la sua vita), Chomsky si rifa' a un fenomeno simile: il bambino riconosce una figura come triangolare anche se non sa cosa sia un triangolo, e anche se quella figura non e' un triangolo perfetto. L'unica spiegazione possibile e' che il triangolo sia una forma di consocenza innata (come gia' sosteneva Descartes), alla quale la mente tenta di ricondurre tutte le figure triangolari. La mente avrebbe pertanto a disposizione fin dalla nascita i principi della Geometria, cosi' come quelli del linguaggio, e l'esperienza non farebbe altro che adattare quelle conoscenze innate ai fabbisogni reali. D'altronde il teorema di Gold (ogni famiglia contenente tutti i linguaggi finiti e un linguaggio infinito non e' identificabile sulla base unicamente di esempi corretti) dimostra che al bambino non sarebbero comunque sufficienti le (poche) frasi ascoltate per riuscire a indurre il resto del linguaggio; e Chomsky stesso aveva gia' dimostrato che la grammatica di un linguaggio naturale non puo' essere assimilata a un automa a stati finiti.
Chomsky fa anche notare che in realta' non e' vero che il bambino "impari": il bambino non compie assolutamente nessuno sforzo, l'apprendimento del linguaggio e' qualcosa che "capita" al bambino senza che lui ne sia piu' conscio di tanto. L'apprendimento del linguaggio non e' poi cosi' diverso dalla crescita, dalla maturazione, dalla puberta', e cosi' via. La conoscenza innata non puo' allora essere altro che il bagaglio genetico della specie, accumulato nei millenni per adattarsi all'ambiente. L'ambiente influisce soltanto in quanto determina tutte le opzioni lasciate aperte dal codice genetico. In particolare cio' significa selezionare una delle tante lingue possibili. Chomsky fa notare come all'interno di ogni comunita' linguistica la lingua parlata dai vari individui sia incredibilmente identica, fino ai minimi dettagli, benche' nessuno di quegli individui sia stato esposto a tutti quei dettagli. Chomsky interpreta questo fatto come prova che esiste una struttura innata in tutti gli individui e che grazie a questa struttura l'apprendimento della lingua "deve" svilupparsi allo stesso modo per tutti.
In altre parole esisterebbe un genotipo linguistico, la cosiddetta "grammatica universale", composto di principi invarianti e di parametri; i valori dei parametri vengono "selezionati" dall'ambiente fra tutti i valori possibili. In tal modo si stabilisce un parallelo fra fenomeni biologici del corpo, come quello del sistema immunologico, e il linguaggio. Comrie, per esempio, ha redatto un catalogo di proprieta' universali che sembrano valere, con minime variazioni, per tutte le lingue note.
Non e' comunque chiaro come avvenga in pratica l'apprendimento della lingua. Dal punto di vista matematico Angluin ha dimostrato che al teorema di Gold si puo' ovviare assumendo che in ogni istante venga indotta la grammatica piu' piccola che e' possibile indurre sulla base degli esempi noti. Wexler e Culicover pensano invece che il bambino complementi le frasi ascoltate con informazioni extralinguistiche. Lightfoot propone che il linguaggio cambi in maniera graduale e che ogni tanto sia soggetto a revisioni "catastrofiche" (nel senso della teoria delle catastrofi), in accordo con il modello di cambiamento evolutivo di Gould.
Edelman oppone a questa visione "cartesiana" una visione "epigenetica" fondata su quattro premesse: 1. in alcune zone del cervello esiste una base necessaria, ma non sufficiente, per la semantica; 2. le zone del cervello che sono adattamenti evolutivi unicamente dedicati al linguaggio non sono per se' sufficienti a realizzare il linguaggio, ma richiedono la pre-esistenza dei meccanismi di categorizzazione; 3. a un certo punto nello sviluppo le parole e le frasi del linguaggio diventano simboli per concetti, e soltanto allora compare la sintassi; 4. quando le facolta' linguistiche sono sufficientemente sviluppate, il linguaggio viene trattato senza alcun bisogno di ricorrere alle sue origini o alle sue basi nella percezione.
Secondo questo modello epigenetico prima di tutto si formano i meccanismi di categorizzazione (si potrebbe dire "il pensiero senza linguaggio"). Secondo Edelman, pertanto, prima emerge la semantica e poi la sintassi, in accordo con la grammatica funzionale lessicale di Bresnan e con la teoria del "semantic bootstrapping" di Macnamara. Le capacita' fonologiche e sintattiche ebbero origine durante l'evoluzione, secondo uno schema gia' presentato da Lieberman. A differenza di Chomsky, secondo Edelman non esiste una grammatica nel cervello. La semantica pre-esiste, la sintassi viene costruita. Il cervello impara prima a formare concetti, e poi a esprimerli in maniera simbolica.
La "teoria standard" di Chomsky presuppone che della stessa frase esistano una struttura "superficiale" e una struttura "profonda": piu' frasi possono avere la stessa struttura di fondo pur avendo diversa struttura superficiale (per esempio, la forma attiva e la forma passiva della stessa azione). La comprensione del linguaggio consiste nel "trasformare" strutture superficiali in strutture profonde. Secondo Miller queste trasformazioni corrispondono a processi mentali. Questa trasformazione verrebbe compiuta da un insieme di moduli, ciascuno indipendente dagli altri e ciascuno guidato da principi elementari: ogni frase viene "compresa" come il risultato dell'interazione fra questi moduli. Se esiste una "grammatica universale", che vale per tutti gli individui a prescindere dalla lingua particolare che imparano a parlare, devono esistere delle regole grammaticali che possono essere applicate a tutte le lingue. Secondo Chomsky queste regole vanno interpretate come "vincoli" che determinano la struttura della stessa frase in lingue diverse.
L'inconveniente della teoria di Chomsky e' che ogni grammatica di quel genere e' equivalente a una macchina di Turing (come dimostrato da Peters e Ritchie), il che' significa che, esattamente come una macchina di Turing potrebbe non terminare mai la sua elaborazione, le grammatiche (in generale) potrebbero non riuscire a determinare mai se una frase appartiene al linguaggio o meno; mentre ovviamente noi riusciamo a farlo sempre, e in pochi decimi di secondo.
Un altro problema e' che la teoria di Chomsky e' puramente sintattica, anche se Katz e altri hanno cercato di darne un'interpretazione semantica: secondo Katz il significato di una frase puo' essere decomposto nel significato delle singole parole secondo le stesse strutture sintattiche dell'analisi di Chomsky e il significato di ogni parola puo' a sua volta essere decomposto in un certo numero di significati primitivi, detti "puntatori semantici" (semantic marker). Katz arriva a supporre che l'interpretazione semantica di una frase sia determinata dalla sua struttura profonda (ma frasi generiche come "Ogni persona in questa stanza parla almeno due lingue" e "due lingue sono parlate da ogni persona in questa stanza" non hanno gli stessi valori di verita' pur avendo la stessa struttura profonda).
Gazdar ha persino proposto di risolvere il problema abbandonando del tutto la componente trasformazionale e la struttura profonda. Nella sua grammatica le regole "analizzano" alberi sintattici invece che "generarli"; inoltre traducono le frasi in una logica intensionale (una variante del calcolo lambda) per la quale esiste un'interpretazione a modelli.
Secondo Katz, invece, il significato delle parole puo' essere decomposto in atomi di significato che sono universali per tutti i linguaggi, e Schank ne ha individuati undici (parlare, cambiare posto, spostare qualcosa, etc). In questa visione a un certo insieme di azioni primitive e' associato un insieme di ruoli primitivi, indipendenti dalla lingua e comuni a tutte le lingue: per esempio, esiste un'azione astratta di trasferimento che richiede i ruoli di oggetto, di agente che sposta quell'oggetto, di agente che riceve l'oggetto e di trasferimento fisico dell'oggetto. Ogni altro concetto puo' essere espresso tramite questi concetti primitivi.
La grammatica a "casi" di Fillmore sfrutta questa intuizione: in ogni frase vengono rappresentate esplicitamente le relazioni fra i vari concetti e l'azione. In tal modo si ottiene un'ovvia somiglianza di rappresentazione per frasi come "Vincenzo ha aperto la porta", "la porta e' stata aperta", "Vincenzo ha usato la chiave", "Vincenzo ha aperto la porta con la chiave". I "casi" dei termini usati per descrivere queste azioni sono sempre gli stessi. La "dipendenza concettuale" di Schank e' semplicemente un'ulteriore astrazione dei casi di Fillmore. Il problema diventa allora squisitamente riduzionista: come decomporre i verbi del linguaggio in un numero (possibilmente molto limitato) di "ruoli tematici". Jackendorff, per esempio, ritiene che il significato di molti verbi possa essere ricondotto ad alcune primitive spaziotemporali (moto, direzione, posizione, etc). Dowty riprende la classificazione aristotelica di "stato" ("Dario sa l'inglese"), "attivita'" ("Dario sta parlando in inglese") ed "eventualita'" ("Dario ha imparato l'inglese") e postula che gli operatori modali "fare", "diventare" e "causare" (nell'ambito di una logica intensionale) possano costruire il significato di ogni altro verbo.
I ruoli tematici, in generale, sono "tipi" di ruoli: lo scrivente di "Piero scrive un libro" e il vedente di "Vincenzo guarda un film" sono entrambi "agenti" (o comunque si voglia chiamare quel tipo di ruolo, quel ruolo tematico). Di conseguenza un ruolo tematico e' un insieme di proprieta' che sono comuni a tutti i ruoli appartenenti a quel ruolo tematico. Un ruolo tematico e' anche una relazione che collega un termine con un evento o uno stato: il ruolo tematico di "Piero" nella frase "Piero scrive un libro" mette in relazione Piero e l'evento di scrivere un libro. Il vantaggio di questa seconda formulazione e' che per i ruoli tematici e' allora possibile definire un "calcolo" basato sul calcolo lambda. Secondo Dowty i ruoli tematici non sono soltanto delle comodita' matematiche ma delle strutture cognitive molto importanti per permettere l'acquisizione del linguaggio.
Nel tentativo di dare una semantica (ovvero un senso!) al linguaggio, le grammatiche sono rapidamente proliferate.
La teoria lessicale funzionale di Bresnan postula l'esistenza di un livello funzionale intermedio fra strutture sintattiche e strutture semantiche. Anche secondo Bresnan le relazioni grammaticali, dette "funzioni", sono primitive.
La grammatica categoriale assume invece che le possibili configurazioni di frase in cui una parola puo' trovarsi sono implicite nella sua categoria grammaticale. In pratica il lessico del linguaggio contiene anche l'informazione di come le parole possono combinarsi per formare delle frasi. In tal modo le regole di "riscrittura" usate dalle grammatiche generative e trasformazionali si riducono a un piccolo gruppo di regole molto semplici, mentre il grosso dell'informazione su come si usa il linguaggio e' implicita nel lessico (in sostanza il vocabolario non si limita a dare il significato di una parola, indica anche "dove" e "come" possa essere usata).
Nella semantica procedurale di Johnson-Laird, invece, il significato di una parola e' l'insieme degli elementi concettuali che possono contribuire a costruire la procedura mentale necessaria per comprendere qualsiasi frase contenente quella parola. Tali elementi derivano certamente dal concetto espresso da quella parola, ma al tempo stesso dipendendo dalle relazioni possibili fra l'entita' indicata da quella parola e le altre entita' con cui puo' poi essere messa in relazione. Invece che specifici atomi di significato, esistono "campi" di significato, ciascuno comprendente un certo numero di concetti che sono in relazione fra di loro: per esempio, il campo di "moto" comprende azioni come "spostare", "spingere" e "espellere". Alcuni concetti possono comparire in piu' campi.
La comprensione del linguaggio naturale puo' essere infine vista come l'integrazione di vincoli imposti dal linguaggio e vincoli imposti dal contesto. I vincoli del linguaggio possono essere sintattici o semantici; ed entrambi possono essere lessicali o meno: i vincoli lessicali sono quelli relativi a parole e frasi fisse. I vincoli sintattici lessicali sono quelli relativi all'ordinamento delle parole, ai numeri e ai tempi; i vincoli semantici lessicali sono entita' come la "preferenze" di Wilks. Le preferenze di Wilks, cosi' come le "aspettative" (expectations) di Schank, sono "restrizioni di selezione" dei sensi di entita' lessicali circa le classi semantiche insieme a cui possono verificarsi; per esempio, il senso di un aggettivo "ha una preferenza" per la classe semantica dei nomi che accompagna; allo stesso modo il senso di un verbo ha una preferenza per le classi semantiche dei nomi che occupano i suoi ruoli ("bere" preferisce un animale come agente).
I vincoli lessicali (sintattici o semantici) vengono usati per esprimere quelle che Fass chiama "dipendenze", nelle quali una "sorgente" impone i propri vincoli a una "destinazione"; per esempio, "la nave" e' una dipendenza in cui "la" impone un vincolo sulla parola "nave" (non si tratta di una nave qualsiasi, ma di quella nave in particolare). Le relazioni semantiche sono il risultato di valutare i vincoli semantici lessicali di una frase, e ogni relazione semantica ha una sorgente e una destinazione (quelli che Richards chiama "veicolo" e "tenore", che Black chiama "soggetto secondario" e "soggetto primario", che Tversky chiama "referente" e "soggetto", che Gentner chiama "base" e "obiettivo").
La "sematica collattiva" di Fass distingue (almeno) sette tipi di relazioni semantiche, che possono essere combinate per formare diversi tipi di frasi retoriche. La "collazione" e' il processo tramite cui i sensi di due parole vengono confrontati per scoprire la relazione semantica fra di esse (la collazione e' di fatto una ricerca all'interno di una rete semantica per trovare tutti i percorsi possibili fra i nodi corrispondenti alle due parole). Un processo di misura della coerenza determina poi le relazioni semantiche che garantiscono l'interpretazione piu' coerente possibile.
L'ovvio paradosso di tutte le teorie della grammatica e' che richiedono anni di ricerca per essere formulate (e anni di studio per essere comprese!) quando il loro presupposto e' che tutti noi le abbiamo gia' apprese fin da bambini.
La fonologia viene trascurata un po' da tutti, benche' l'unica cosa certa del linguaggio, alla fin fine, e' che e' nato per essere parlato, non scritto. La fonetica non e' affatto una mera brutta copia della sintassi, tant'e' che l'analisi acustica del suono non mostra spesso alcuna frattura fra una parola e l'altra e tant'e' che l'enfasi e l'intonazione date a una parola, o anche soltanto a una sillaba, possono cambiare drasticamente il significato di quella parola, benche' la struttura sintattica della frase resti invariata. Il modello di Rumelhart e McClelland dimostra che alcune caratteristiche linguistiche (nel caso specifico, le irregolarita' dei tempi passati dei verbi inglesi) possono essere acquisite dalla semplice informazione fonetica. D'altronde i bambini iniziano a imitare l'intonazione degli adulti molto prima di poter usare le parole. Tra l'altro e' anche dubbio quando un bambino cominci a rendersi conto che esistono le parole: finche' non vanno a scuola, molti bambini inglesi non sanno che "you're" sono due parole, e anche da adulti molti continueranno a scrivere (erroneamente) "your" (analogamente capita per "it's" e "its"). Pertanto non e' sempre ovvio come si debba scomporre il segnale acustico in parole.
D'altro canto la memoria non sembra prestare molta attenzione all'acustica del parlato. A distanza di tempo ci ricordiamo il significato di una conversazione meglio di quanto ci ricordiamo le singole parole (la sintassi) e la cosa che ricordiamo di meno e' il suono di quelle parole. Il modo in cui pronunciamo una parola non sembra dipendere in alcun modo dal tono, dalla pronuncia, dall'enfasi con cui la pronuncio' la persona che ce la insegno'.
Altrettanto trascurato e' stato finora l'aspetto dei gesti. I gesti (in particolare quelli delle mani e della faccia) corredano la comunicazione tanto quanto l'intonazione delle parole. McNeill propone che i gesti contribuiscano direttamente alla semantica e alla pragmatica del linguaggio. Gran parte dei resoconti (soprattutto da parte dei ragazzini cresciuti nell'era dei media visivi) sarebbero incomprensibili senza i gesti che li accompagnano. Non e' raro sentire due persone che si raccontano degli episodi usando semplicemente delle parole onomatopeiche e convogliando gran parte della descrizione con una mimica accentuata. I gesti, secondo McNeill, trasformano immagini mentali in forma visiva e pertanto esprimono persino piu' di quanto il linguaggio possa esprimere; e, simmetricamente, nell'ascoltatore costruiscono immagini mentali che il linguaggio da solo non potrebbe costruire.
Il processo di comprendere il linguaggio non puo' prescindere da fattori extra-linguistici: un corpo di conoscenze del mondo comuni fra il parlante e l'ascoltatore e la credenza da parte dell'ascoltatore delle intenzioni del parlante. Devo "sapere" (fra le altre cose) che Vincenzo ha un appuntamento con Giusi, che Giusi e' sua moglie e che Vincenzo e' in ritado, e al tempo stesso "credere" (fra le altre cose) che Vincenzo voglia arrivare puntuale all'appuntamento con sua moglie per capire la frase: "Sbrighiamoci!" Ma, a voler essere pignoli, per capire quello "Sbrighiamoci!" devo anche sapere che per non arrivare in ritardo bisogna accelerare il passo e devo anche credere che Giusi arriva puntuale agli appuntamenti e che si arrabbia se Vincenzo non e' puntuale. Eccetera. In altre parole: per capire il linguaggio devo anche inferire le intenzioni del parlante, e lo posso fare soltanto sulla base della mia conoscenza e delle mie convinzioni circa il mondo (compreso il parlante stesso).
I discorsi hanno una struttura, che non e' meno palese di quella delle frasi, tanto che molti hanno provato a sviluppare una grammatica del discorso (del modo in cui viene analizzato e generato un discorso).
Johnson-Laird preferisce invece partire dalla condizione necessaria e sufficiente per affermare che un insieme di frasi costituisce un discorso: la coerenza. La coerenza e' la possibilita' di costruire un unico modello mentale da quell'insieme di frasi. Cio' dipende a sua volta dalle proprieta' di co-referenza (ogni frase deve far riferimento in qualche modo a qualcosa che in qualche modo e' riferito anche da un'altra frase) e di compatibilita' (quelle referenze non devono essere contraddittorie). La "plausibilita'" di un discorso e' invece determinata dalla possibilita' di interpretarlo in un unico contesto temporale, spaziale, causale e intenzionale. La plausibilita' (come quella garantita dagli script di Schank) non e' comunque necessaria affinche' un insieme di frasi sia anche un discorso (molti racconti dell'orrore non sono plausibili, ma sono egualmente delle "storie").
Le espressioni linguistiche in se' non sarebbero di grande ausilio nella comunicazione fra umani se non venissero opportunamente usate. Grice ha fatto notare quanto sia importante il gioco linguistico per cui chi parla vuole essere compreso e deve anche provocare un certo tipo di reazione in chi ascolta. Per esempio, un "parlante" vuol dire "p", quando pronuncia la frase "f" all'"ascoltatore", se e solo se il parlante vuole: 1. che "f" spinga l'ascoltatore ad adottare un certo comportamento nei confronti di p; e 2. che la propria intenzione nel far cio', una volta intuita dall'ascoltatore, sia determinante nel produrre nell'ascoltatore quel comportamento. C'e' molto di piu' che sintassi e semantica. Esistono in effetti diversi tipi di significato: il significato "permanente" (timeless) della frase "f" e il significato occasionale di quella particolare occorrenza di "f" come pronunciata da quel particolare parlante. I due significati possono coincidere, ma non sempre. Se scrivo qua che "Dario sta parlando con Cinzia", questo non vuol dire che io voglia dire veramente che Dario sta parlando con Cinzia: al lettore e' chiaro che si tratta soltanto di una frase scelta per fare un esempio e che io non ho in realta' la piu' pallida idea di cosa stiano facendo Dario e Cinzia in questo momento. Il significato che "conta" e' quello del parlante, altrimenti il lettore non riuscirebbe a capire gran parte degli esempi di questo libro, compreso questo. Al lettore e' peraltro chiaro che esistono davvero due persone chiamate Dario e Cinzia e che sono davvero sposate e che ogni tanto si parlano: l'ho scritto nell'introduzione.
La struttura del discorso porta a sua volta del significato. Posso organizzare un discorso in mille modi diversi, ma, a seconda della circostanza e dell'effetto desiderato, scegliero' uno particolare dei modi possibili. Cio' vale anche per le singole frasi. E' possibile in generale formulare la stessa frase in modi diversi, ovvero con sintassi diverse; il "significato" (in senso lato) e' altrettanto diverso. Per esempio, "Dario sta parlando con Cinzia", "Sta parlando con Cinzia, Dario", "Con Cinzia sta parlando Dario" sono frasi che descrivono la stessa situazione e usano persino le stesse parole; ma l'ordine delle parole determina una differenza nel modo in cui vengono percepite.
Tirando le somme, il linguaggio ha un significato in quanto esistono delle convenzioni all'interno della comunita' linguistica che regolano come le frasi vengono usate e comprese. Quelle convenzioni hanno uno scopo ben preciso: di aiutare chi parla a ottenere lo scopo che si propone nel parlare. (Quelle stesse convenzioni possono essere usate per trarre in inganno chi ascolta, come ogni politico ben sa).
Un'ulteriore complicazione e' dovuta alla "forza sentenziale" della frase: "Cinzia sta parlando con Dario" e "Cinzia sta parlando con Dario?" hanno lo stesso contenuto semantico ma diversa forza sentenziale. Secondo Stalnaker la forza sentenziale puo' essere presa in considerazione assumendo che il valore assegnato a una frase non sia un valore di verita' ma una funzione che porta la frase e il contesto attuale in un nuovo contesto di discorso. In tal modo un discorso e' piu' di un semplice insieme ordinato di frasi: l'effetto di ogni frase dipende dalle frasi che l'hanno preceduta.
Usare il linguaggio si traduce per forza di cose in un atto illocutorio: qualsiasi atto locutorio (composto di atto fonetico, atto fatico e atto retico, nella classificazione di Austin) fa parte di un discorso che, per il fatto stesso di essere un discorso, conferisce a quell'atto anche una forza illocutoria.
Un caso particolare di forza sentenziale, che sembrerebbe ridurre il divario fra atto locutorio e atto illocutorio, e' quello delle frasi "performative", quelle frasi cioe' che creano lo stato di cose del quale parlano. Per esempio, se dico a Dario "Sei licenziato" creo lo stato di cui sto parlando a Dario. Non ha senso domandarsi se quella frase corrisponde a verita' o meno, in quanto la sta creando. Austin suggerisce pero' che esistano delle convenzioni di "felicita'" (felicity) in base alle quali valutiamo le frasi performative: se queste convenzioni non sono soddisfatte (per esempio, se non sono piu' il capo di Dario), la frase performativa non ha alcun effetto.
E infatti Searle nega che esista una differenza significativa fra atti locutori e atti illocutori. Per Searle il significato di certe frasi sta proprio nell'insieme delle convenzioni sociali (delle "massime conversazionali", direbbe Grice) che hanno spinto a scegliere quelle frasi per raggiungere il proprio obiettivo. I valori di verita', invece, non servono assolutamente a nulla.
La forza illocutoria delle frasi e' cio' che determina la semantica del linguaggio.
Sadock e altri ritengono in effetti che ogni frase determini una forza illocutoria e che le frasi "performative" si limitino a esplicitare questa forza; ma due frasi come "Sei licenziato" e "Ti comunico che sei licenziato" devono essere identiche a un qualche livello di struttura profonda, anche se le loro sintassi sono diverse. A quel livello ogni frase assume la forma di un verbo performativo (come "comunicare") con un soggetto in prima persona e un oggetto in seconda persona. Il verbo performativo specifica, oltre all'"azione" descritta nella frase, anche l'"intenzione" di chi l'ha pronunciata.
Il problema e' che, come fa notare Levinson, la stessa frase puo' essere usata per eseguire diversi atti illocutori ("Ti verro' a trovare" puo' essere tanto una promessa quanto una minaccia) e, viceversa, uno stesso atto illocutorio puo' essere espresso da piu' di una frase ("Ti verro' a trovare" e "Faro' un salto a casa tua"). Esiste comunque un generale consenso che chi parla "vuol dire" piu' di cio' che le sue frasi "significano". Anzi: l'abilita' linguistica viene spesso giudicata dalla capacita' di produrre il massimo risultato usando il minimo di mezzi, dalla capacita' di "far capire" molto "dicendo" poco.
Le "implicature conversazionali" di Grice e le "rilevanze" di Sperber e Wilson servono appunto a rendere conto di queste differenze.
Sono indexicali anche dimostrativi come "questa", pronomi come "lei" e tutti i tempi dei verbi (nelle frasi "ero giovane", "ho trentasette anni" e "saro' vecchio" il tempo a cui si riferiscono dipende da che anno e' quello in cui sto scrivendo). Bar-Hillel ritiene che quasi tutte le frasi dichiarative realmente usate dalla gente siano indexicali (nel senso che fanno riferimento a chi parla o al luogo in cui si trova o al giorno, e cosi' via). Bar-Hillel fa anche notare che qualsiasi teoria del linguaggio deve riuscire anche a spiegare perche' una frase (sintatticamente e semanticamente ineccepibile) come "Io sono morto" non ha senso, chiunqua sia a dirla.
Un indexicale puo' essere "deitico", se fa riferimento a qualcosa attraverso un gesto ("Eccolo!", "Guarda quel signore!", "Mettilo qui"), o "anaforico", se fa riferimento a qualcosa che e' stato menzionato precedentemente ("Vorrei andare a trovare Dario, ma non so come andarci", "Dario mi aveva detto che sarebbe venuto, invece e' rimasto a casa"). Per interpretare gli indexicali, siano deitici o anaforici, occorre sempre inferire a quale referente il parlante si riferisca. Dal contesto linguistico e' possibile derivare l'insieme dei possibili antecedenti per le espressioni anaforiche e dal contesto del discorso e' possibile derivare i possibili antecedenti per le espressioni deitiche; ma per decidere quale delle tante possibili e' l'interpretazione corretta occorre sempre formulare delle ipotesi su cosa il parlante voglia dire.
Nunberg ha studiato la fondamentale ambiguita' di tutti i termini, che va ben oltre la polisemia. In effetti non ci sono limiti al numero di referenti che un termine puo' avere, a seconda del contesto. Per esempio, il termine "Il mio editore" nelle frasi seguenti si riferisce a oggetti completamente diversi: "Il mio editore e' uno dei due maggiori editori italiani di libri di Informatica" si riferisce alla casa editrice Apogeo, "Il mio editore e' venuto a trovarmi a Redwood City" si riferisce a Ivo Quartiroli, "Il mio editore si trova a Milano" si riferisce agli uffici della casa editrice Apogeo. Nunberg sostiene che in generale un termine non ha un referente standard e che i possibili referenti di un termine possono essere derivati l'uno dall'altro attraverso un certo numero di funzioni elementari (come "proprietario di" e "luogo di") che possono essere applicate ricorsivamente e in qualsiasi combinazione. Nunberg elenca poi i (quattro) principi in base ai quali l'ascoltatore decide quali funzioni usare per ricavare il referente piu' appropriato fra i tanti possibili (per esempio, una sorta di rasoio di Occam secondo cui se l'oggetto denotato letteralmente dal termine e' un possibile candidato, allora quell'oggetto e' il referente; come in "Il mio editore e' ottimo", che si riferisce alla casa editrice anche se potrebbe teoricamente riferirsi altrettanto bene a Ivo Quartiroli o al suo edificio). Nunberg assegna un ruolo determinante alla "normalita'" nel contesto: un termine viene usato in maniera normale quando risulta coerente con le normali convinzioni della comunita' linguistica. A un party di imprenditori il termine "Il mio editore" verrebbe usato "normalmente" per indicare Ivo Quartiroli, mentre a un party di scrittori indicherebbe "normalmente" la casa editrice Apogeo.
La presupposizione e' pertanto qualcosa (un elemento semantico) che viene dato per scontato nel contesto del discorso. La presupposizione ha la proprieta' di essere invariante rispetto a costrutti positivi ("L'auto di Dario e' dal meccanico"), negativi ("L'auto di Dario non e' dal meccanico") o interrogativi ("L'auto di Dario e' dal meccanico?"). In termini logici e' "implicata" tanto da una proposizione quanto dal suo negato e persino da una pura ipotesi di quella proposizione. (La presupposizione non deve essere necessariamente vera: Dario potrebbe non avere un'auto o io potrei aver confuso Dario con Vincenzo).
La presupposizione e' un buon esempio di come il nostro linguaggio faccia uso di logiche molto lontane da quelle formali. La presupposizione dimostra anche che le convinzioni di chi parla circa chi ascolta sono molto piu' importanti della verita' del mondo: per il fine di comunicare il mio concetto all'interlocutore, il fatto che Dario abbia davvero un'auto e' tutto sommato secondario rispetto al fatto che il mio interlocutore sappia chi e' Dario.
Un altro esempio di come la logica del nostro linguaggio differisca da quella formale e' l'uso delle parole "e", "o", "non", "esiste", "implica" rispetto al loro uso da parte dei logici matematici. Esistono numerosi casi in cui esse violano le piu' elementari regole logiche (per esempio quelli notati dagli intuizionisti). Secondo Grice la differenza non sta nel significato che i logici e i comuni mortali assegnano a quei termini, ma semplicemente all'uso che ne fa il nostro linguaggio; un uso forse "improprio", ma certamente piu' efficace nel convogliare informazione.
In effetti la massima piu' importante, che Grice non ha mai discusso, e' proprio questa: "sii rilevante!". E' la rilevanza a garantire la coerenza del discorso e a rendere possibile la comprensione stessa del discorso. E' sempre la rilevanza a far si' che il discorso possa essere compreso senza aver bisogno di lunghi calcoli logici: la logica della conversazione prende delle scorciatoie rispetto a quella formale.
Il discorso non viene pertanto costruito con gli strumenti della logica formale, alla base della quale e' un principio di verita', ma con quelli della conversazione, alla base della quale e' un principio di "rilevanza".
Angluin D. (1980): Inductive inference of formal languages (Information and Control n.45 p.117) Austin J. (1962): How to do things with words (Oxford Univ Press) Bar-Hillel Y. (1954): Indexical expressions (Mind n.63 p.539) Bickerton D. (1992): Language and species (Chicago Univ Press) Bresnan J. (1982): Mental representations of grammatical relations (MIT Press) Chomsky N. (1982): Theory of government and binding (MIT Press) Chomsky N. (1987): Generative grammar (Kyoto University) Comrie B. (1981): Language universals and linguistic typology (Univ. of Chicago Press) Dowty D. (1979): Word meaning and Montague grammar (Reidel) Edelman G. (1989): The remembered present (Basic) Fass D. (1991): Discriminating metonymy (Computational Linguistics n.17 p.49) Fillmore C. (1968): The case for cases (in Bach E.: Universals in linguistic theory, ed. Holt, Rinehart & Winston) Gazdar G. (1979): English as a context-free language (Univ of Sussex report) Gentner D. (1983): Structure mapping (Cognitive Science n.7 p.155) Gold M. E. (1967): Language identification in the limit (Information and Control n.10 p.447) Gould S. (1978): Ever since Darwin (Deutsch) Grice H. (1989): Studies in the way of words (Harvard Univ Press) Jackendorf R. (1983): Semantics and cognition (MIT Press) Johnson-Laird P. & Miller G. (1976): Language and perception (Cambridge Univ Press) Johnson-Laird P. (1983): Mental models (Harvard Univ Press) Katz J. & Fodor J. (1963): The structure of a semantic theory (Language n.39 p. 170) Levinson S. (1983): Pragmatics (Cambridge Univ Press) Lieberman P. (1984): The biology and evolution of language (Harvard Univ Press) Lieberman P. (1992): Uniquely human (Harvard Univ Press) Lightfoot D. (1982): The language lottery (MIT Press) Lyons J. (1977): Semantics (Cambridge Univ Press) Macnamara (1982): Names for things (MIT Press) McNeill (1992): Hand and mind (Univ of Chicago Press) Miller G. (1962): Some psychological studies of grammar (American Psychologist n.17 p.782) Nunberg G. (1978): The pragmatics of reference (Indiana Univ Linguistic Club) Peters P. & Ritchie R. (1973): On the generative power of transformational grammars (Information Sciences n.6 p.49) Quinn N. & Holland D. (1987): Cultural models in language and thought (Cambridge Univ Press) Reddy M. (1979): The conduit metaphor (in Ortony A.: Metaphor and thought, ed. Cambridge Univ Press) Richards I. (1936): The philosophy of rhetoric (Oxford Univ Press) Rumelhart D. (1986): Parallel Distributed Processing vol. 1 (MIT Press) Sadock J. (1974): Toward A Linguistic Theory Of Speech Acts (Academic Press) Schank R. (1975): Conceptual information processing (North Holland) Searle J. (1969): Speech Acts (Cambridge Univ Press) Sperber D. & Wilson D. (1986): Relevance, communication and cognition (Blackwell) Stalnaker R. (1984): Inquiry (MIT Press) Tversky A. (1977): Features of similarity (Psychological Review n.84 p.327) Wexler K. & Culicover P. (1980): Formal principles of language acquisition (MIT Press) Whorf B. (1956): Language, thought and reality (MIT Press) Wilks Y. (1992): The preference semantics family (Computer and Mathematics, special issue on Semantic Networks)