Linguistica, logica, informatica: una storia cognitiva parallela Domenico Fiormonte (
[email protected]) Dipartimento di Italianistica, Facoltà di Lettere e Filosofia, Università Roma Tre Via Ostiense 236 – 00146 Roma
Teresa Numerico (
[email protected]) Dipartimento di Scienze della Comunicazione, Università di Salerno Via Ponte Don Melillo – 84084 Fisciano (SA)
Sommario Questo intervento è un tentativo di costruire una sintetica mappa delle radici interdisciplinari dell’informatica. In particolare, cercheremo di ripercorrere le principali tappe dell’incontro fra scienze del linguaggio e tecnologie dell’informazione, mostrando come le due aree disciplinari si siano sviluppate in parallelo, l’una nutrendo i paradigmi teorici e le applicazioni dell’altra. Per ricostruire il percorso di questa reciproca ibridazione abbiamo selezionato alcuni principali temi, personaggi e snodi teorici. L’obiettivo è mostrare l’importanza dell’approccio cognitivo e la centralità della dimensione interdisciplinare nell’agenda di entrambe le discipline. Dal nostro esame risulta quanto sia la linguistica che l’informatica facciano parte del paradigma generale delle scienze cognitive.
Abstract In this paper we try to sketch a brief overview of the different intellectual interdisciplinary forces that shaped the history of computing since the 1930s. The work of both pioneering individuals and research groups – mainly in the field of linguistics and computer science – is analyzed not only for their specific technical or theoretical contributions, but also from an epistemological and cognitive point of view. Information technology emerges therefore as an ‘hybrid’ discipline formed since the beginning by two essential theoretical paradigms that developed – often with mutual influences – from the mainstream of philosophy, linguistics, psychology, logics, and mathematics. Cognitive science seems today the most credible candidate to take up the heritage of this network of disciplines, bridging the gaps between the exact sciences, the humanities, and the social sciences.
Il medium e la macchina universale Il paradigma teorico dell’informatica elaborato a partire dalla seconda metà degli anni ‘30 da uomini come Alan Turing (1912-1954) e John Von Neumann (1903-1957) non nacque isolato dal contesto scientifico, economico, sociale e culturale del proprio tempo. Esso fu il frutto di un lungo e tortuoso processo di elaborazione che, in certi casi, vide contrapposte diverse visioni della conoscenza e dell’intelligenza (e del modo in cui potevano essere rappresentate [Cordeschi 2002]). Sin dalle origini del calcolatore appare evidente come molta parte della discussione teorica alimentata o generata dalla sua nascita ruoti intorno al problema della formalizzazione dell’informazione e in particolare dell’informazione linguistica – intesa sia come dato da trasmettere, sia come
conoscenza da manipolare. Si può dire che a un certo punto anche per Turing il problema di che cosa sia l’intelligenza appare subordinato al problema di come essa sia definibile ed esprimibile (simulabile) linguisticamente. La linguistica non-storica si propone dunque da subito come un potente alleato di una determinata visione della computazione. Ma è questo precisamente uno dei punti più delicati della storia fra i rapporti fra queste due discipline. Quasi subito infatti si sviluppa una dialettica fra due diverse idee di che cosa sia il linguaggio e di come funzioni. Vediamo allora, da un lato, sorgere l’alleanza fra la concezione del linguaggio come struttura formale (l’orientamento sintatticista)1 e l’idea che la comunicazione sia riducibile a un problema di trasmissione dell’informazione,2 dall’altro, il saldarsi della concezione del linguaggio come interazione sociale (Austin 1962; Wittgenstein 1953) a una visione del computer come medium. Questi due paradigmi, tratteggiati qui nelle loro linee essenziali, danno luogo a esiti diversi e non di rado contrapposti.3 L’aspetto più interessante di questa dialettica è che essa lungi dall’apparire una questione solo inerente alle scienze ‘dure’ (o all’ingegneria), appare piuttosto come una discussione generata all’interno delle frange avanzate di logica, filosofia del linguaggio, psicologia e linguistica.
1
Per una storia della genesi del pensiero formale si veda l’esaustivo studio di Luigi Borzacchini: “(…) ‘pensare formalmente’ significa saper manipolare sequenze di segni rappresentativi riuscendo a effettuare ragionamenti intorno alla realtà, anche in mancanza di una effettiva comprensione del significato delle sequenze stesse. Significa cioè collocarsi in un ‘mondo’ di strutture puramente sintattiche manipolabili e attendersi che tale manipolazione permetta di ottenere conoscenze intorno alla realtà” (Borzacchini 2005: 13). 2 Sovrapposizione operata soprattutto da Weaver 1949. Alla genealogia della cosiddetta “teoria standard” della comunicazione e alle sue profonde implicazioni e radici speculative è dedicato un importante saggio di Rocco Ronchi (2003). 3 Il punto di partenza di Turing ovviamente non è il problema del linguaggio e dell’informazione, ma la rappresentazione formale degli asserti matematici. Da qui prende spunto la distinzione analogico-digitale per poi applicarsi al calcolatore. Il quale è figlio di due madri – simulare i processi continui e il loro controllo (cibernetica e feedback) o simulare presunti processi discreti (logico/formali) – e di un solo padre: la volontà di costruire dispositivi tecnologici che avrebbero alleviato le fatiche di maneggiare grandi quantità di dati complessi.
Dal calcolo alla simulazione Se accettiamo l’articolo di Turing del 1937 come l’atto di nascita – sia pure ancora inconsapevole – della struttura teorica dei calcolatori dobbiamo ammettere che l’inizio non fu molto promettente (Mahoney 2000: 22). In questo testo, infatti, si mostravano i limiti della computabilità, illustrando i problemi per i quali non era possibile ottenere una soluzione usando la macchina più generale mai ideata. Dall’idea della Macchina di Turing (= MT) nasceva però anche la consapevolezza che l’esecuzione di un calcolo fosse una semplice manipolazione di simboli, e che in linea di principio non vi fosse alcuna differenza qualitativa tra cifre e simboli alfanumerici. È su questo concetto – il computer come manipolatore di simboli e non più “semplice” calcolatrice – che si svilupperà, con alterne vicende, la scienza dei calcolatori, ponendo le basi della rivoluzione informatica del secondo dopoguerra. La soluzione proposta da Turing implicava una presa di posizione sulla logica nel suo insieme, che inevitabilmente la trascendeva dal punto di vista epistemologico e perciò si poteva fondare solo su argomentazioni date storicamente e costantemente passibili di una confutazione. Da un lato, quindi, la scienza dei calcolatori si determinava come un limite alle possibilità di risolvere problemi in forma algoritmica, dall’altro era sempre possibile ipotizzare l’esistenza di un dispositivo pratico o teorico diverso dalla macchina astratta, in grado di risolvere problemi della classe di quelli considerati irresolubili, visto che la tesi di Turing non si poteva dimostrare. Al risultato negativo tuttavia se ne affiancava uno positivo: la costruzione astratta eppure assolutamente credibile di una macchina universale, in grado di eseguire qualsiasi processo di calcolo svolto da un’altra macchina, una macchina virtuale e simulatrice. Si trattava, in un certo senso, del compimento del proposito di Leibniz. Il progetto della Characteristica Universalis infatti consisteva nel trovare un sistema che permettesse a tutti gli studiosi di sedersi e “calcolare” risultato di qualsiasi proposizione attraverso l’uso di un linguaggio adatto a rappresentare ogni asserzione (lingua characteristica) e un calcolo in grado di risolvere tutte le controversie (calculus ratiocinator). Tutta una parte della storia dell’informatica, almeno fino all’inizio degli anni ’60, sarà caratterizzata dal richiamo al progetto di rappresentazione e creazione della conoscenza vagheggiato da Leibniz4. Solo in un secondo momento 4
Leibniz introducendo la questione della characteristica universalis in una lettera del dicembre 1675 a Heinrich Oldenburg scriveva: “Quell’algebra che tanto apprezziamo non è che parte di tale artificio generale. Ci dà tuttavia la possibilità di non errare nemmeno se lo vogliamo. E vi si apprende la verità come impressa, stampata sulla carta mediante una macchina. […] tutto ciò che l’algebra prova in questo modo, non dipende da altro che dal beneficio di una scienza superiore, che sono ora solito chiamare caratteristica combinatoria […]. Oserei tuttavia dire che non può essere concepito alcunché di più efficace per la mente umana; e che, quando sia accolto tale metodo di ragionare verrà, e anche rapidamente, il tempo in cui avremo verità non meno certe su Dio e sulla mente di quelle che abbiamo sulle figure e sui numeri, ed in cui l’invenzione di macchine non sarà più difficile della costruzione di problemi geometrici” (Leibniz 1992: 432).
interverranno paradigmi parzialmente differenti per la definizione del ruolo delle macchine e soprattutto del loro rapporto con gli esseri umani. Turing e l’intelligenza delle macchine Negli anni successivi alla Seconda Guerra Mondiale il modello teorico della macchina universale offerto da Turing (1937) fu utilizzato per i calcolatori perché era pronto e sviluppato al momento giusto. Ciò non vuol dire che non esistessero o non fossero possibili altre soluzioni. È un fatto che negli anni ‘30 l’Analizzatore Differenziale progettato e costruito da Vannevar Bush, basato su di un modello analogico, fosse la macchina più potente allora in funzione. Tra le varie esigenze che misero in moto la ricerca per la costruzione di un dispositivo di calcolo più potente vi era anche la crittografia, poiché era necessario decodificare i messaggi in codice dell’esercito tedesco. Questo ambito di ricerca, sviluppato prevalentemente in Europa, vide tra i suoi protagonisti non solo matematici, ingegneri, fisici e logici, ma anche esperti di linguistica, enigmistica, scacchisti, statistici, ecc. Il principale gruppo di ricerca riunito a Bletchley Park, al quale partecipò attivamente anche Alan Turing (Lee & Holtzman 1995; Dettmer & Michie 1996), comprendeva competenze ibride, le sole in grado di garantire, in quel pericoloso frangente, la possibilità di successo. Fu in questo contesto, forse, che fu costruita la prima macchina di concezione completamente elettronica, il Colossus (progettato e realizzato a tempo di record tra gennaio e dicembre 1943 a Bletchley Park). È indubbio che la realizzazione del calcolatore fu un impresa complessa, collettiva e interdisciplinare, nella quale gli stessi protagonisti modificarono in corso d’opera le proprie visioni originarie, proprio sotto la pressione della pratica (Pickering 1995). A questo proposito è interessante notare che negli anni ‘40 quando Turing si dedicò al progetto di costruire un dispositivo in grado di emulare alcune capacità del cervello umano, egli in un certo senso modificò il modello da lui stesso creato: Finora abbiamo considerato solo la capacità di obbedire: convertire un cervello o una macchina in una Macchina Universale è la forma più estrema di disciplina. Ma la disciplina da sola non basta a produrre intelligenza. Chiamiamo iniziativa ciò che è richiesto in aggiunta [That which is required in addition we call initiative]. Il nostro compito è quello di capire la natura di questo residuo e cercare di copiarlo nelle macchine (Turing 1948/1994: 116-117).
Turing si rendeva conto, cioè, che per ottenere determinate prestazioni più interessanti in termini di intelligenza della macchina era necessario immaginare, oltre ad un metodo per obbedire completamente alle regole, anche un sistema per apprendere la capacità di iniziativa, giacché una macchina, sia pure universale, forse non era sufficiente di per sé alla simulazione dell’intelligenza.
Linguaggio e tecnologie dell’informazione: dalle Macy’s lectures a Chomsky Uno dei passaggi più importanti del dialogo interdisciplinare furono le Macy’s Lectures (1946-1953; cf. Heims 1994), i seminari ispirati da Norbert Wiener (1894-1964) e intorno ai quali nacque la cibernetica (Wiener 1948). Alle conferenze della Fondazione Macy parteciparono gli scienziati che hanno fatto la storia delle tecnologie dell’informazione, ma non solo: a John Von Neumann, Walter Pitts, Warren McCulloch, Claude Shannon e lo stesso Wiener, si affiancarono via via social scientist come Lawrence K. Frank e Gregory Bateson, antropologi come Margaret Mead (tutti membri fondatori del gruppo), linguisti come Roman Jakobson, psicologi come Hams Lukas Teuber, Donald G. Marquis, e Molly Harrower. Nella sesta conferenza Claude Shannon (19162001), padre della teoria dell’informazione (Shannon & Weaver 1949), introdusse un metodo per calcolare la percentuale di ridondanza dell’inglese scritto che costituisce uno degli atti di nascita della linguistica computazionale. Ed è probabile che fu questa una delle prime occasioni in cui Roman Jakobson (1896-1982) trovò conferma e stimolo alle ipotesi che lo portarono all’elaborazione del “principio dicotomico o binaristico”, base della sua idea di fonologia (Lepschy 1994: 440). È lo stesso Jakobson a tratteggiare le linee di convergenza fra linguistica e teoria della comunicazione in un suo saggio del 1961 dedicato al padre ingegnere (Jakobson 1966: 65). La convergenza di Jakobson sul modello ingegneristico (per riformulazioni e critiche cf. Gensini 1999; Cimatti 1999), è il segno che la collaborazione fra scienze del linguaggio e calcolatori è ormai in fase di decollo. Pochi anni dopo l’interruzione delle conferenze Macy, nell’agosto del 1956, il giovane matematico John McCarthy coadiuvato da Claude Shannon organizza al Dartmouth College l’evento in cui appare per la prima volta l’espressione “artificial intelligence”: il Summer Research Project on Artificial Intelligence. La caratteristica che distingue più di altre l’incontro di Dartmouth da quelli di New York è un orientamento dichiaratamente operativo rispetto alla simulazione dell’intelligenza e del linguaggio. Sebbene non sia possibile in poche righe riassumere la storia dei complessi rapporti fra cibernetica e IA concordiamo con chi vede nella IA il prevalere, sin dalle origini, del tentativo di “(…) ricreare i pensieri astratti, il ragionare. Quello dell’IA venne poi chiamato un approccio top-down, dall’alto verso il basso, perché tentava di simulare il comportamento umano o animale partendo dalle sue manifestazioni elevate (ragionamenti logici e matematici, concetti astratti, simboli). Quello cibernetico era invece un tentativo dal basso verso l’alto, bottom-up, che cercava di arrivare ad esseri artificiali intelligenti in maniera non logico-simbolica” (Castelfranchi & Stock 2000: 190).
Il linguaggio a due dimensioni Il momento di svolta per l’interazione fra linguistica e informatica, che servirà di impulso per la nascita dei sistemi NPL (Natural Language Processing), è costituito dalla pubblicazione nel 1957 di Syntactic Structures di Noam Chomsky. Sebbene non sia possibile sottovalutare il contributo di Chomsky, forse il debito dell’informatica
nei suoi confronti andrebbe ricondotto al capitale comune della logica simbolica, alla quale Syntactic Structures esplicitamente si ispira (Mahoney 2004, 2005). Il modello sintattico-computazionale della lingua nato dal dibattito sull’intelligenza artificiale che si sviluppò in quegli anni, porterà alla formulazione del primo cognitivismo che si spingerà a sostenere la metafora della simulazione della mente da parte di un computer. Le teorie cognitiviste, dopo un primo interesse per la visione di Syntactic structures, però, si opposero alla visione formale del linguaggio proposta da Chomsky, accusandola di non essere interessata alla performance, che divenne ben presto il centro delle nuove ricerche sull’intelligenza artificiale. Forzando un’analogia si potrebbe affermare che i due approcci, AI e cibernetica, nella realtà delle ricerche e delle applicazioni (dalla robotica alle reti neurali) spesso mescolati, sembrano riprodurre la dicotomia che ritroviamo nello studio del linguaggio: la “prevalenza sintattica” vs. la “prevalenza pragmatica” (altri preferiscono parlare di “paradigma formale” e “paradigma funzionale” [Caffi 2002: 17]). Al fondo, come abbiamo visto nel primo paragrafo, vi sono due orientamenti epistemologici distinti. Il primo, che abbiamo collegato a Leibniz, vede il pensiero, il ragionamento, come qualcosa di ‘linguisticamente’ formalizzabile, modellizzabile (modello che a sua volta serve per costruire altri modelli: per esempio la grammatica trasformazionale di Chomsky) e in ultima analisi come contenuto trasmissibile (il modello standard della comunicazione [Shannon e Weaver 1949]); il secondo, più che di pensiero preferisce parlare di conoscenza, la quale è vista come il risultato del confronto, dell’azione, dell’apprendimento, della memoria. Continuando con l’analogia, potremmo dire che il primo approccio si identifica con la scrittura (e infatti Leibniz chiama il suo sistema di notazione formale “scrittura universale”5), la seconda con la struttura reticolare della conversazione, in cui il senso emerge dall’interazione: la semantica dipende dalla pragmatica (Ronchi 2003: 88-137). Entrambe sono necessarie forme di rappresentazione ed espressione della conoscenza e al tempo stesso veicolo di comunicazione; entrambe sono necessarie per parlare di intelligenza. Ma raramente sono riuscite a produrre sintesi concilianti. Al cuore della disputa vi è il dilemma di quale sia, e di come si articoli, la relazione fra concetti complessi e sfuggenti come linguaggio, pensiero, conoscenza. La risposta che ciascuno dei due schieramenti fornisce a tali dilemmi è ciò che informa le scelte dell’informatica, guidandola verso certi sviluppi piuttosto che verso altri. Da questo punto di vista sembra esemplare la parabola scientifica di un altro protagonista dell’IA: Terry Winograd. Ottenuto un BA in Matematica dal Colorado 5
Sempre in una lettera a Oldenburg, non datata ma successiva al marzo del 1673, Leibniz scriveva: “Io affermo che una scrittura razionale è il maggiore strumento della ragione […]. E a chiunque vorrà parlare o scrivere su qualche argomento, il genio stesso della lingua fornirà non soltanto le parole ma anche le cose. […] poiché la scrittura e la meditazione andranno di pari passo, o meglio, la scrittura sarà il filo del meditare […] Il filo del meditare una volta dato farà sì che possiamo progredire con ragione determinata nella maggior parte delle cose e libererà pertanto gli uomini da gran parte dell’ansietà” (Leibniz 1992: 426-429).
College, nel 1967 Winograd si reca a Londra a studiare linguistica.6 Da questa formazione interdisciplinare nasce SHRDLU, un programma per la comprensione del linguaggio naturale creato negli anni 1968-1970 presso il MIT. Ma Winograd non si riterrà soddisfatto di questi risultati e dopo aver esplorato i vari filoni di ricerca della IA, nel 1986, insieme al sociologo ed ex ministro di Allende, Fernando Flores, pubblicherà uno dei testi fondamentali (Winograd & Flores 1986) sulla progettazione dei sistemi informatici, spunto per lo sviluppo di discipline come la Human-Computer Interaction (Norman 2005). Da questo testo emerge innanzitutto una visione del linguaggio dichiaratamente in contrasto con il paradigma sintattico-informazionale.7 Secondo, è probabilmente la prima volta che dall’interno dell’IA (per quanto contaminato dal pensiero di un rifugiato cileno) si gettano le basi per un diretto confronto teorico con linguisti, psicologi (Maturana) e filosofi (Austin, Habermas, Gadamer, Heidegger).
Web ‘sociale’ o web semantico? Il presente del futuro Sembrerebbe che anche la storia del Web riproduca, sebbene in scala temporale ridotta, l’eterno confronto fra i due principali orientamenti epistemologici dell’informatica così come l’abbiamo analizzata fino a questo momento. E la dialettica si riflette nello stesso Tim Berners-Lee (2001), all’inizio fautore di uno strumento per la libera circolazione delle idee, oggi soprattutto impegnato nella ricerca di soluzioni che garantiscano al Web una maggiore ‘governabilità’ delle risorse. Stiamo parlando del progetto del Semantic Web, uno strumento che dovrebbe ovviare al problema della localizzazione e gestione dei contenuti di Internet attraverso la creazione di “linguaggi che esprimano l’informazione in modo processabile da una macchina”.8 In pratica ciascuna risorsa verrebbe catalogata in base a delle categorie di significato, assegnando un valore semantico a ciascun contenuto. Tale ‘strato’ semantico dovrebbe essere aggiunto nella forma dello standard RDF (Resource Description Framework), basato su XML. Ancora una volta siamo di fronte alla scelta di un preciso modello di rappresentazione della conoscenza: l’idea che si possa categorizzare il contenuto di tutto il Web e interfacciare queste categorie, per quanto personali e soggettive, fino a rendere le macchine capaci di elaborare simboli che le aiutino a ‘comprendere’. Berners-Lee si affretta a precisare che tale applicazione, per quanto standardizzata, renderà inevitabile che “it will be possible to ask unanswerable questions. This is how the world is” (Berners-Lee 2001: 198). Ma per molti l’esercizio di costruzione delle ontologie adeguate a rappresentare il Web potrebbe facilmente essere paragonato allo sforzo 6
Per informazioni sulle ricerche e il percorso scientifico di Winograd: http://pcd.stanford.edu/~winograd/. 7 “Popular accounts of language portray it as a means of communication by which information is passed from one person (or machine) to another. (…) language cannot be understood as the transmission of information. Language is a form of action” (Winograd & Flores 1986: 76). 8
http://www.w3.org/DesignIssues/Semantic.html.
leibniziano di costruire un unico linguaggio nel quale esprimere tutte le nozioni rilevanti, le loro relazioni per poterle combinare in modo infallibile e preciso. Questo progetto “semantico” si contrappone ai metodi usati dai motori di ricerca che invece di tentare una catalogazione semantica delle risorse si limitano a considerare le pagine immaginandole come un vettore di stringhe (le parole) e nei casi più efficienti, come in Google e in altri, strutturano i risultati delle query sulla base di un algoritmo di classificazione (ranking) che tiene conto delle relazioni tra le pagine, attribuendo più valore alle pagine meglio connesse al resto della rete. Questo modello che chiameremo sintattico-relazionale, pur con i suoi limiti, ha contribuito a rendere il Web più accessibile e disponibile (Witten, Gori & Numerico 2006). Questo secondo metodo probabilmente si avvicina di più all’associazione delle idee, delineata nel XVIII secolo da David Hume (1739) e ripresa da Bush (1945), e a una conoscenza concepita non come un insieme statico di fatti da ordinare, ma come un complesso di credenze, visioni, conversazioni, intuizioni collegate tra loro che acquisiscono dinamicamente valore in relazione a quanto sono consultate e citate nel tempo e non necessariamente per la loro connessione con la “verità”. Entrambi questi metodi di strutturazione delle informazioni si basano su una implicita, ma potente concezione del sapere e si fronteggiano prima che sul campo delle tecniche su quello del modello epistemico. Ogni soluzione proposta ha vantaggi e svantaggi e soprattutto comporta delle conseguenze sulla nostra capacità di reperire o meno informazioni rilevanti.
Conclusioni Ci sembra appropriato concludere con le parole Norbert Wiener, uno dei personaggi chiave della nostra ricostruzione. Nella sua autobiografia, intitolata I am a mathematician. The later life of a prodigy, egli scrive: Father was a philologist who regarded the history of languages not as a quasi-biologic growth of almost isolated organisms but rather as an interplay of historic forces. For him, philology was a tool of the cultural historian, exactly as the spade is of the archaeologist. It is not surprising that the son of a father who could not be contented with the formal and the abstract in the study of languages should himself fail to be contented with that thin view of mathematics […]. (Wiener 1956: 358).
Questa affermazione non mostra solo quanto Wiener avesse chiaro il fondamento storico-culturale di qualunque sapere, ma rivela come il rampollo dell’inflessibile filologo di Harvard (che voleva per il figlio un futuro di filosofo [Conway & Siegelman 2005: 22]) fosse consapevole della necessità di muoversi dentro un continuum multidisciplinare. È dunque da qui che occorre partire. Analizzare la storia dell’informatica come dialettica fra paradigmi teorici ed equilibri sociali, politici o economici, osservarla cioè come fenomeno che si costruisce nella storia, vuol dire innanzitutto non darne per scontata l’evoluzione. Ciò implica anche andare oltre il riconoscimento dei singoli contributi disciplinari
all’informatica, acquisendo consapevolezza che l’informatica non annette soltanto territori, ma è piuttosto essa stessa una delle molte facce assunte dall’evoluzione della riflessione intellettuale nell’ultimo secolo. È chiaro allora quanto non abbia senso disegnare confini o misurare fratture, quanto capire quale e come sarà la scienza cognitiva del futuro. E chi ne saranno i nuovi protagonisti.
Ringraziamenti Sebbene questo contributo sia frutto di un confronto e di un dialogo costante fra i due autori, dal punto di vista redazionale si devono a Domenico Fiormonte il secondo paragrafo e le conclusioni, a Teresa Numerico il primo e il terzo paragrafo. Gli autori desiderano ringraziare per l’aiuto e i preziosi consigli forniti durante la ricerca e la stesura del lavoro Tito Orlandi, Paolo D’Achille, Roberto Cordeschi, Marcello Frixione, Donald Michie e Desmond Schmidt.
Riferimenti bibliografici9 Austin, J. L. (1962 [1987]. How to do things with words. Oxford: Oxford University Press (trad. it. Come fare cose con le parole. Milano: Marietti). Berners-Lee, T. (2000 [2001]): Weaving the web. The past, present and future of the World Wide Web by its inventor. London-New York: Texere (trad. it. L’architettura del nuovo web. Milano: Feltrinelli). Borzacchini, L. (2005). Il computer di Platone. Alle origini del pensiero logico e matematico. Bari: Dedalo. Bush, V. (1945). As we may think. Atlantic Monthly, Vol. 176, 641-649. URL: http://www.theatlantic.com/ doc/print/194507/bush Caffi, C. (2002). Sei lezioni di pragmatica linguistica. Genova: Name. Castelfranchi, Y. & Stock, O. (2000). Macchine come noi. Roma-Bari: Laterza. Chomsky, N. (1957 [1970]). Syntactic Structures. The Hague-Paris: Mouton (trad. it. Le strutture della sintassi. Roma-Bari: Laterza). Cimatti, F. (1999): Fondamenti naturali della comunicazione. In Gensini 1999 (Ed.): 53-88. Conway, F. & Siegelman, J. (2004 [2005]). Dark Hero of the Information Age: In Search of Norbert Wiener. New York: Perseus Books (trad. it. L’eroe oscuro dell’età dell’informazione. Alla ricerca di Norbert Wiener, il padre della cibernetica. Torino: Codice edizioni). Cordeschi, R. (2002). The Discovery of the Artificial. Behavior, Mind, and Machines Before and Beyond Cybernetics. Dordrecht: Kluwer. Dettmer, R. & Michie, D. (1996): Doing something useful. IEEE Review, March 1996, 49-52. Gensini, S. (1999) (Ed.). Manuale della comunicazione. Roma: Carocci. Gensini, S. (1999). Preliminari sul segno e la comunicazione. In Gensini 1999 (Ed.): 21-51. Heims, S. J. (1991 [1994]). The Cybernetics Group. Cambridge, Mass: MIT Press (trad. it. I Cibernetici. Roma: Editori Riuniti).
9
Le date fra parentesi quadre si riferiscono all’edizione italiana consultata.
Hume, D. (1739). A treatise of human nature. London: John Noon. Jakobson, R. (1963 [1966]). Essais de linguistique générale. Paris: Éditions Le Minuit (trad. it. Saggi di linguistica generale. Milano: Feltrinelli). Lee, A. N. J. & Holtzman, G. (1995). 50 Years After Breaking the Codes: Interviews with Two of the Bletchley Park Scientists. IEEE Annals of the History of Computing, 17, 1, 32-43. Leibniz, G. W. (1992): Scritti di logica, Vol. 2, a cura di F. Barone. Roma-Bari: Laterza. Mahoney, M. S. (2000). The structures of computation. (in Rojas & Hashagen 2000: 17-32). Mahoney, M. S. (2004). What was the question? The origins of the theory of computation. In A. Akera & W. Aspray (Eds.), Using history to teach computer science and related disciplines. Washington: Computer Research Association. Norman, D. (1998 [2000-2005]): The Invisible Computer. Cambridge, Mass: MIT Press (trad. it. Il computer invisibile. Milano: Apogeo). Pickering, A. (1995). The Mangle of Practice. Chicago: The University of Chicago Press. Ronchi, R. (2003). Teoria critica della comunicazione. Milano: Bruno Mondatori. Shannon, C. E. & Weaver, W. (1949 [1971]). The Mathematical Theory of Communication. Urbana, Ill: The University of Illinois Press (trad it. La teoria matematica della comunicazione. Milano: ETAS). Weaver, W. (1949). Recent Contributions to the Mathematical Theory of Communication. URL: http://grace.evergreen.edu/~arunc/texts/cybernetics/wea ver.pdf. Wiener, N. (1948-1965 [1968]). Cybernetics: or Control and Communication in the Animal and the Machine. Cambridge, Mass: MIT Press (trad. it. La cibernetica: controllo e comunicazione nell’animale e nella macchina. Milano: Mondadori). Wiener, N. (1956). I am a mathematician. The later life of a prodigy. Cambridge, Mass: MIT Press. Winograd, T. & Flores, F. (1986 [1987]). Understanding Computers and Cognition: A New Foundation for Design. Norwood: Ablex (trad. it. Calcolatori e conoscenza: un nuovo approccio alla progettazione delle tecnologie dell’informazione. Milano: Mondadori). Witten, I.; Gori, M. & Numerico, T. (2006). Web Dragons. Inside the Myths of Search Engine Technologies. New York: Morgan Kaufmann. Wittgenstein, L. (1953 [1967]). Philosophische Untersuchungen. Oxford: Basil Blackwell (trad. it. Ricerche filosofiche. Torino: Einaudi).