Il progresso scientifico dell'informatica

24
Il progresso scientifico dell’informatica in prospettiva laudaniana Marco S. N. matr. ... 1 ottobre 2010 Indice 1 Cos’` e l’informatica 2 2 L’informatica teorica 5 3 Il connessionismo 9 4 L’intelligenza artificiale 13 5 L’interazione uomo-macchina 16 A Alcune definizioni dei termini di Laudan 20 A.1 Tipi di problemi .......................... 20 A.1.1 Problemi empirici ..................... 20 A.1.2 Problemi concettuali ................... 21 1

description

Breve saggio epistemologico, prodotto per un esame. La chiave di lettura è il neo-pragmatismo di Larry Laudan.

Transcript of Il progresso scientifico dell'informatica

Page 1: Il progresso scientifico dell'informatica

Il progresso scientifico dell’informaticain prospettiva laudaniana

Marco S. N.matr. ...

1 ottobre 2010

Indice

1 Cos’e l’informatica 2

2 L’informatica teorica 5

3 Il connessionismo 9

4 L’intelligenza artificiale 13

5 L’interazione uomo-macchina 16

A Alcune definizioni dei termini di Laudan 20A.1 Tipi di problemi . . . . . . . . . . . . . . . . . . . . . . . . . . 20

A.1.1 Problemi empirici . . . . . . . . . . . . . . . . . . . . . 20A.1.2 Problemi concettuali . . . . . . . . . . . . . . . . . . . 21

1

Page 2: Il progresso scientifico dell'informatica

2

1 Cos’e l’informatica

Computer Science is no more aboutcomputers than astronomy is abouttelescopes

Edsger Wybe Dijkstra

Il termine informatica e relativamente nuovo nella storia dell’umanita.Il vocabolo, che deriva da informatique, ha origini francesi: si tratta di unacronimo che fonde le parole information e automatique coniato dal fisicoPhilippe Dreyfuss nel 1962 [1]. Gia a prima vista si intuisce quale fossero lemire di questa disciplina nascente: lo studio dei fondamenti teorici dell’in-formazione e della sua elaborazione automatizzata, sull’onda dell’entusiasmoscaturito dalla nascita dei calcolatori nella seconda meta del XX secolo.

Dopo gli studi teorici di Turing e Godel negli anni ’30 sulla realizzabilitadi macchine elementari in grado di effettuare calcoli e sui limiti delle lorocapacita, si crearono aree di ricerca incardinate sulle proprieta del calcoloautomatico, sull’analisi degli algoritmi [2], lo studio dei linguaggi di pro-grammazione [3] [4] [5], e cosı via. Ecco quindi emergere una nuova gammadi problemi da risolvere, per usare la terminologia laudaniana, inizialmentetutti di natura logico-matematica: la computer science (il nome in inglese epiu sincero sulla natura piu intima della disciplina) plasmata da Turing, pervia del suo formalismo, ha fornito un solido punto di partenza incardinatosu rigore e determinismo: l’informatica teorica.

L’informatica naturalmente e evoluta dai primordi ed e fiorita la ricercain altri campi, dall’ottimizzazione dell’hardware ai sistemi operativi, dallagestione di processi alle attivita parallele. Un punto di svolta, interessanteda analizzare, fu la diffusione di sistemi informatici al di fuori dei centri diricerca: nel momento in cui il computer doveva essere utilizzato anche da nonaddetti ai lavori, l’informatica si scoprı primitiva nella capacita di far com-prendere il sistema all’utente e viceversa. Si apriva il fronte si e aperto conla cosidetta human-computer interaction (HCI), che investiga sui pro-blemi concernenti l’usabilita dei sistemi, come ci si approccia ad essi, come lipercepiamo e quali reazioni ci suscitano. In definitiva, l’informatico non de-ve piu “solo” produrre un software che svolga un qualche compito ma anchetenere in considerazione chi e come lo utilizzera [6]. Per la prima volta l’infor-matica sconfino dal puro formalismo per invadere dominii tradizionalmenteappannaggio delle scienze umane, introducendo novita epistemologiche: nonsi tratta piu di creare modelli e formalizzazioni in grado di dimostrare mate-

Page 3: Il progresso scientifico dell'informatica

3

maticamente un’ipotesi, bensı di formulare teorie al limite della scientificitaintesa in termini popperiani, poiche l’introduzione di una solida teoria falsi-ficabile di stampo socio-cognitivista, sull’interpretazione che diamo dei varielementi che compongono un’interfaccia, puo essere un compito arduo se nonimpossibile.

Se lo scopo di uno studio di usabilita e - ad esempio - la riduzione deglierrori dell’utente1, non esistera mai una formula da minimizzare con stra-tegie di ricerca operativa, ma richiedera piuttosto considerazioni di naturapsicologica e cognitiva. Potremmo facilmente trovare una giustificazione alfatto che un elemento di testo con un colore fortemente contrastato rispettoallo sfondo risulti piu facile da percepire, perche si riduce il rischio di in-convenienti da daltonismo e discromia. Questa teoria trova buoni riscontria livello fisiologico perche compatibile con l’attuale modello di fuzionamen-to del nostro apparato visivo, un modello basato sulla risposta sensorialealle stimolazioni cromatiche, sul quale possiamo costruire misure (spazi co-lore) e verificare correlazioni tra colori e leggibilita. Viceversa, e assai menoimmediata l’accettazione di un concetto come l’affordance, la capacita cheun elemento di interfaccia ha di “spiegarsi” all’utilizzatore; e praticamenteimpossibile stabilire un metro quantitativo per questo tipo di aspetti, la va-lutazione e qualitativa, fortemente soggettiva e pressapochista - per usare laterminologia di Koyre. La sua arbitrarieta puo lasciare interdetti ma, perLaudan, il progresso della scienza procede grazie alla risoluzione di quelli chechiama problemi empirici, ovvero quesiti che l’uomo si pone di fronte a certeesperienze di cui vuole ricavare la spiegazione; comprendere perche alcuneforme risultino maggiormente intuitive di altre ricade sicuramente in questaclasse di problemi e dunque e giusto ritenerla un’area di ricerca2 portatricedi progresso scientifico.

Altri campi storicamente forieri di problemi, empirici ma anche di naturametafisica (ovvero di livello superiore, delle cause prime per usare le paro-le di Aristotele), sono la cibernetica [7] e la sua evoluzione: l’intelligenzaartificiale [8]. La cybernetics nasce come una scienza legata alla teoria del con-

1Intesi come utilizzo errato del software - per un errore di esecuzione o una cattivavalutazione del risultato - derivante da un fraintendimento dell’interfaccia. Verra spiegatomeglio nel paragrafo relativo alla HCI.

2Laudan pone l’accento sul fatto che “i problemi sorgono all’interno di un certo con-testo di ricerca”, in questo caso l’informatica. L’usabilita in genere e una prerogativa deidesigners, prima che degli informatici. Tuttavia, e difficile che un designer sappia esatta-mente di cosa e capace un computer e sopratutto cosa non puo fare, ed e per questo chesi preferisce una figura a meta strada.

Page 4: Il progresso scientifico dell'informatica

4

trollo, alla realizzazione di sistemi di autogovernarsi, correggersi e reagire aglistimoli. Il nome stesso, coniato da Wiener nel 1947, deriva da κυβερνητης(pilota) [9]. La tradizione di ricerca piu tenace nella storia di questa discipli-na e l’emulazione del sistema nervoso umano con mezzi elettronici: ricreandoartificialmente neuroni e sensori si intende replicare la capacita di autore-golazione che gli esseri viventi possiedono (come il cacciatore che anticipale traiettorie e percorsi della preda) al fine di realizzare mezzi di trasportointelligenti, sistemi dinamici autoregolanti, armi e sistemi di difesa piu effi-caci. L’approccio ha portato (sopratutto in passato) ad una convergenza diricercatori in fisica, logica e matematica, ma anche medicina e neurofisiolo-gia, nonche filosofia. Si cerca di realizzare reti neurali artificiali per megliocomprendere il funzionamento delle reti biologiche, ma nel contempo si speradi sfruttare questa conoscenza per realizzare macchine “intelligenti”. Il co-sidetto paradigma connessionista saccheggia a piene mani le neuroscienze, el’informatica fornisce il supporto ideale per realizzare un’architettura artifi-ciale simile al sistema nervoso.

Naturalmente furono mosse critiche importanti a questa visione “funzio-nale” del cervello, per via delle implicazioni filosofiche e religiose che portacon se. La diffidenza si concretizzo in una totale opposizione quando il no-tevole risultato del Percettrone di Rosenblatt - una rete neurale in grado diimparare - fu messo in ginocchio dalla dimostrazione di Minsky e Papert del-la sua inadeguatezza a gestire una particolare gamma di problemi. Fu quelloil momento della transizione, sempre favorita dalle ricerche di Minsky, dallacibernetica all’intelligenza artificiale: non si cerca piu di simulare il fun-zionamento del cervello bensı i meccanismi piu ad alto livello della mente;non ci si aspetta piu che l’intelligenza emerga dalla complessita neuronalema si pensa a come organizzare la conoscenza per elaborarla meccanicamen-te attraverso l’uso di logiche, algoritmi di manipolazione simbolica o metodistatistici, simulando i meccanismi del pensiero umano ripartendo, alla stre-gua di Aristotele, dall’analisi del linguaggio. Anche l’intelligenza artificialesottointende una quantita enorme di quesiti filosofici irrisolti, non ultima ladefinizione stessa di intelligenza.

Nello spazio che segue non effettuero una disamina della disciplina in-formatica in se, ma cerchero di entrare piu nello specifico delle criticitaepistemologiche e filosofiche delle quattro aree appena introdotte.

Page 5: Il progresso scientifico dell'informatica

5

2 L’informatica teorica

The idea behind digital computersmay be explained by saying thatthese machines are intended tocarry out any operations whichcould be done by a humancomputer

Alan Turing

Il piu astratto e radicale tra i campi di ricerca dell’informatica e l’infor-matica teorica. Nato per studiare i limiti e i confini della computazione, sia intermini di risorse impiegate che di tempi di calcolo, fa dell’estremo formali-smo la sua base. Questo rigore assoluto, peculiare delle scienze matematiche,la rende la piu “pura” dal punto di vista epistemologico poiche procede perdimostrazioni di “consistenza” all’interno del framework concettuale in cuivanno a incastonarsi.

Tuttavia, anche in questo contesto non mancano degli aspetti controversi.La cosidetta tesi di Church-Turing [10] ad esempio asserisce che ¿un qualun-que calcolo automatizzabile puo essere svolto da una macchina di TuringÀ,ovvero da un automa in grado di manipolare un nastro, organizzato in cel-le. La nozione di “calcolo automatizzabile”, nella visione di Turing, significache i calcoli non proseguono all’infinito, sono sempre corretti, non richiedo-no intuzione o deduzione (se non formalizzata a sua volta) dal calcolatore eprocedono per piccoli passi, come li farebbe un essere umano dotato di solecarta e penna.

Una possibile interpretazione di questa teoria e che “se un problema e cal-colabile da una persona, allora deve esistere un sistema di calcolo automaticoin grado di svolgere il compito”. Se un uomo e in grado di calcolare un’in-tegrale e “sa spiegare” come cio avviene, allora si puo realizzare un sistemameccanico che replichi tale risultato. Questa tesi di stampo leibniziano[11],che puo suonare perfettamente ragionevole o eccessivamente positivista, none mai stata dimostrata.

In maniera molto naıve si potrebbe ragionare induttivamente: poiche nonsi e ancora visto un “cigno nero”, sembra proprio che le macchine Turing-equivalenti siano in grado di realizzare qualunque calcolo un uomo sia in gra-do di svolgere. Certamente Popper non gradirebbe questa argomentazione,pur approvando la congettura in quanto tale. La falsificazione della conget-

Page 6: Il progresso scientifico dell'informatica

6

tura significherebbe l’esistenza di una classe di problemi risolvibili a manoda un uomo che la macchina non e in grado di processare, e ancora non sene ha l’evidenza.

Secondo Laudan una teoria e scientifica se va ad inserirsi in una tradi-zione di ricerca per risolvere dei problemi aperti: in questo senso la tesi diChurch-Turing non si inseriva in un discorso informatico (anche perche talescienza era lungi dal venire), ma faceva parte di un piu ampio discorso lega-to all’Entscheidungsproblem, ossia il problema “di decisione” dell’aritmeticaavanzato da Hilbert [12] nei primi del ’900. La risposta a quel quesito (¿datoun gruppo di assiomi, e possibile determinare se una proposizione e consi-stente con essi?À) venne fornita da Godel e il suo teorema di incompletezza(¿si puo sempre costruire una proposizione che non puo essere provata, neconfutata, dagli assiomiÀ), ma fu determinante il contributo di Turing e del-le sue macchine per chiudere la questione e dimostrare che non puo esistereun calcolo automatizzabile, nel senso definito prima, in grado di stabilire laverita di una proposizione.

Le macchine di Turing nell’accezione Laudaniana sono dunque portatricidi progresso. Ne e una prova il fatto che da questo punto di partenza, oltre asrotolarsi l’intera teoria informatica, fu ricavato un secondo notevole risulta-to: la scoperta del “problema dell’arresto”: non puo esistere un algoritmo ingrado di determinare se un... altro algoritmo si fermera o proseguira all’infi-nito il proprio calcolo.

Algoritmi che analizzano altri algoritmi; quando entra in gioco l’autore-fenzialita l’informatica tende a gettare la spugna, e in modo particolare inquesto frangente, in cui si tratterebbe dell’equivalente della pietra filosofale:fossimo in grado di determinare se un calcolo si arresta o meno in un tempofinito, infatti, avremmo accesso alla mente di Dio per come se la figuravaLeibniz. Per sapere se un numero e primo, ad esempio, basterebbe scrivereun algoritmo (anche dai tempi lunghissimi) che si ferma se il numero e primoe prosegue in eterno se non lo e; valutando l’arresto di tale algoritmo otter-remmo immediatamente la risposta. Con metodi simili a quelli goedeliani, esfruttando il formalismo della sua macchina ideale, Turing ha risposto an-che a questo dilemma con tutte le ricadute filosofiche del caso. Ad esempio,potremmo domandarci: l’impalcatura teorica da per assodato che le MdTsiano equivalenti, come capacita di calcolo, agli esseri umani, e che quindi iproblemi di decisione e di arresto valgano in senso assoluto anche per noi. Mae proprio vero che e il “limite superiore” della capacita di calcolo artificiale?come si dimostra che non esiste un formalismo piu potente, non soggetto alle

Page 7: Il progresso scientifico dell'informatica

7

limitazioni descritte? Se una macchina di Turing effettua le medesime opera-zioni della mente umana, perche non accadono regressi all’infinito anche perchi si trovi a ragionare su proposizioni contraddittorie (vedi il paradosso diRussell [13])?

La macchina di Turing e alla base anche della cosidetta teoria della com-plessita che rappresenta la tradizione imperante nell’analisi delle performan-ce. Per dirla “a la Kuhn”, siamo in una fase di scienza normale per quantoconcerne l’evoluzione dell’analisi degli algoritmi: i programmi vengono intesisequenziali, deterministici, e si sfrutta il formalismo della MdT per valutarecon precisione i costi asintotici in funzione della dimensione dell’input.

All’interno della tradizione di ricerca esistono diverse teorie che propon-gono strategie alternative per la risoluzione di problemi. Una di queste e laparallelizzazione nella quale i compiti vengono suddivisi tra piu processori ericombinati al termine del calcolo. Il problema della condivisione delle risorsetra processori e la loro necessita di armonizzazione ha introdotto nuovi forma-lismi, tra i quali spiccano le Reti di Petri [14] e il pipelining ; mentre le primesono nate per indagare il dinamismo dei sistemi paralleli, facendone emerge-re le criticita, la seconda strategia punta a risolvere la questione affidandoil medesimo compito ad una moltitudine di unita indipendenti; non tutti glialgoritmi si prestano a questo tipo di scomposizione, dunque e raro trovarecompiti da distribuire su piu pipelines: attualmente le killer-applications so-no la grafica in tempo reale (dove si lavora su decine di migliaia di singoleprimitive geometriche) e il calcolo scientifico, specialmente vettoriale.

Assai piu gettonata risulta la strada delle Reti di Petri e, in generale, la“concorrenza”. Tuttavia questo approccio, come detto, richiede una certa ac-cortezza nel gestire quelle che sono le cosidette “corse critiche” e tutte quellesituazioni di stallo o starvation in cui piu processi si bloccano/danneggiano avicenda. Un classico esempio di questo problema sono i filosofi a cena di Di-jkstra [15]: Aristotele, Popper, Khun, Lakatos e Laudan si ritrovano a tavola.I filosofi, si sa, mangiano con due posate e sulla tavola ce ne sono cinque:non potranno mangiare tutti contemporaneamente e andranno alternate fasidi meditazione ad altre di nutrizione. La criticita emerge nel momento incui tutti cercano di mangiare nello stesso momento e iniziano afferrando laforchetta alla loro sinistra: la situazione e bloccata in maniera inestricabile.L’unica via d’uscita e che almeno due filosofi rilascino la posata, ma comepersuadere un processo a fare una cosa del genere, nell’economia di un siste-ma operativo? Diciamo subito: dotare i processi di una personalita e fuoridiscussione. L’alternativa e istruire i processi affinche verifichino al dispo-

Page 8: Il progresso scientifico dell'informatica

8

nibilita della risorsa che stanno andando a richiedere: il filosofo controllerache ci siano due forchette libere, e a quel punto le afferrera. Anche se puosembrare una buona strategia, in campo informatico si traduce nel verificareil contenuto di un’area di memoria condivisa e, nel caso risulti libera, alte-rarla; ma nei sistemi a divisione di tempo (come i computer tradizionali) none scontato che la lettura della memoria e la sua alterazione siano istruzioniconsecutive: puo avvenire altro nel frattempo, ad esempio un’alterazione daparte di un altro processo.

Questo e stato per lungo tempo quello che Laudan definisce problemainsoluto, ovvero non risolto da alcuna teoria o modello ipotetico, all’internodella tradizione di ricerca sui sistemi operativi. Gli scienziati si sono dun-que concentrati sulla sua risoluzione pratica, conclusasi con l’introduzionedi primitive come i mutex, che han richiesto un’interessante regressione delproblema fino ad un livello “atomico”: e necessario che l’hardware collabori,consentendo a un solo processo l’accesso ad una regione critica ed, eventual-mente, la sua alterazione. La strategia funziona, ma ci si puo domandare cosasucceda se il filosofo mangione non rilascia la sua forchetta. Come garantireche l’accesso sia fair, ovvero che a turno tutti i filosofi riescano a desinare?Ancora una volta, dotare i processi di buona educazione e escluso. Attual-mente ci si aspetta il verificarsi di due condizioni: il programmatore fa unuso corretto delle primitive per la concorrenza e il sistema operativo tienea mente i pasti dei filosofi, cercando di servire tutti in maniera equa. Ov-viamente, i due aspetti sono ortogonali tra loro e possono anche entrare inconflitto. Esistono poi teorie completamente diverse (come la presenza di unprocesso-arbitro che sorvegli situazioni di blocco, il dialogo tra i filosofi peraccordarsi tra loro eccetera), ma ognuna ha punti di forza e debolezze: sonoi problemi che Laudan definisce anomali, ovvero non risolti in maniera defi-nitiva da una teoria, su cui c’e ancora margine di lavoro e che non spingonoall’abbandono dei diversi modelli.

La tradizione di ricerca di Turing ha proposto un ulteriore modello astrat-to, assolutamente teorico ma foriero di affascinanti nuovi punti di vista; talemodello, detto Macchina di Turing Non-deterministica (NDTM), propone diestendere le sue capacita di parallelismo: la transizione di stato non avvienetramite una funzione ma una applicazione, e quindi possono essere sondateinfinite possibilita. Tale differenza comporta una cascata di considerazioni especulazioni teoriche, non ultimo il fatto che esiste una classe di problemi dicalcolo assai complessi su macchine deterministiche ma trattabili (e in tempopolinomiale) su quelle indeterministiche. Quest’ultima classe e comunementedetta NP (non-deterministic polynomial) ed e ancora oggi accesissimo [16] il

Page 9: Il progresso scientifico dell'informatica

9

dibattito sul fatto che sia o meno equivalente a quella dei problemi polino-miali (P).

L’importanza di una eventuale scoperta che queste due classi sono, inrealta, la medesima, renderebbe improvvisamente aggredibili una vasta gam-ma di problemi che sono ritenuti ingestibili, come la crittoanalisi: poter ridur-re un problema cosı complesso ad un altro molto piu semplice renderebbe isistemi di sicurezza improvvisamente inefficaci. Anche l’intelligenza artificia-le e fortemente limitata dal fatto che gli algoritmi di inferenza - al massimodelle loro potenzialita - richiedono tempi enormi per giungere allo scopo, fi-no agli eccessi delle logiche descrittive che effettuerebbero i loro calcoli intempi esponenziali perfino sulle NDTM. Scoprire che e possibile ridurre que-sti problemi, attualmente non approcciabili, a classi di complessita inferiore,spalancherebbe una porta ben serrata.

3 Il connessionismo

The brain is a computing machineconnected with a spirit

Kurt Godel

Un neurone e una cellula particolare che trascorre la sua esistenza riceven-do stimoli elettrici e, quando superano un certo limite, ne emette uno a suavolta lungo una diramazione che lo collega ad altri simili chiamata assone. Isegnali elettrici in questione compongono l’attivita del sistema nervoso; quel-li scambiati all’interno del cranio definiscono la nostra attivita cerebrale. E’opinione comune - ma non una verita comprovata - che questa attivita elettri-ca nel cervello sia strettamente correlata a quella mentale e ai nostri pensieri.

Che il cervello fosse la sede del pensiero lo sospettava gia Platone, e ildualismo cartesiano suggeriva di separare l’attivita mentale dalla fisicita cor-porea. Searle riassume la diatriba cosı: i cervelli causano le menti [17]? Gliesseri umani pensano (e sviluppano linguaggi) per via della struttura cere-brale, o c’e dell’altro? Come impariamo? Cos’e la fantasia? Si puo simularela coscienza di se? E’ evidente che una vasta gamma di problemi filosofici (edepistemologici, nonche teologici) si spalanca con questo tipo di questioni.

Alcune delle risposte cui si e giunti sollevano quelli che Laudan defini-sce problemi concettuali esterni al mondo scientifico, in particolare del tiporiconducibile alla nostra visione del mondo. Se ammettiamo che il pensiero

Page 10: Il progresso scientifico dell'informatica

10

e frutto di attivita cerebrale di tipo deterministico, allora il libero arbitriodiventa una illusione e si contrappone ad un punto fermo della tradizione cri-stiana, che va ad impattare sui dibattiti etici e filosofici. I problemi di naturaesterna sono molteplici, e molti si sovrappongono al dibattito sull’intelligenzaartificiale o simulata, quindi rimando il discorso alla sezione successiva.

Tornando allo scopo della ricerca connessionista, essa come detto volevaindagare i meccanismi neurologici; considerata l’oggettiva difficolta di effet-tuare studi non invasivi sui cervelli di esseri umani, agli scienziati e parsaghiottissima l’opportunita, con la nascita dell’elettronica prima e dell’infor-matica poi, di riprodurli artificialmente e studiarne i meccanismi [18]. Il pri-mo modello fu proposto dai ricercatori McCullogh e Pitts nel 1943 [19] edera fondamentalmente un combinatore lineare: i segnali elettrici dagli al-tri neuroni sono rappresentati da valori numerici reali e il neurone “spara”un numero a sua volta se la somma di tali valori supera una certa soglia.Nonostante l’estrema semplificazione rispetto la realta biologica, tale unitalogico-matematica si dimostro comunque in grado di svolgere semplici com-piti, tra cui l’emulazione di porte logiche. Dunque, se un singolo neurone diMcCullogh-Pitts era in grado di svolgere compiti basilari, un neurone umanoprobabilmente puo fare altrettanto.

Un altro notevole risultato fu il perceptron di Rosenblatt (1958) [20], unarete neurale artificiale feed-forward (ovvero in cui i neuroni non rimandanoindietro i segnali, ma solo a quelli dello strato successivo) in grado di appren-dere dagli stimoli ai sensori. Il mondo della cibernetica esulto per il risultato,ma fu un entusiasmo momentaneo perche due ricercatori (Papert e Minsky)dimostrarono che esiste un’intera gamma di funzioni che il percettrone none in grado di riconoscere (si tratta di quelle non linearmente separabili3, adesempio lo XOR). Questa anomalia, ritenuta troppo grossa dall’ambiente,causo un brusco rallentamento del ritmo di progresso della cibernetica - ein particolare della teoria connessionista. Quando poi si realizzarono la diffi-colta di modellare delle reti a retro-propagazione e la necessita di fornire unaquantita notevole di esempi perche l’apprendimento abbia luogo (la cosidettadimensione di Vapnik-Chervonenkis [21]) si ebbe il freno definitivo, a tuttovantaggio dell’emergente ambito dell’intelligenza artificiale.

3Ovvero in cui una retta separa nettamente gli elementi di un insieme sul piano dellepossibilita.

Page 11: Il progresso scientifico dell'informatica

11

In seguito, nei primi anni ’80, la cibernetica viene riscoperta; il problemadelle funzioni non linearmente separabili vien superato con le reti multistra-to; il problema della velocita di apprendimento porta allo studio di tecnichespeciali, come le support vector machines [22] utilizzate in molti ambiti delcosidetto machine-learning.

Nascono poi nuove concezioni di rete neurale, come le reti ricorrenti (ov-vero con connessioni ad anello) [23] e le macchine di Boltzmann [24]; questeultime si basano su una analogia con la termodinamica: la rete viene lasciataevolvere fino a dei punti di equilibrio partendo da una configurazione caoticadei pesi. Il raggiungimento della stabilita avviene simulando il “raffredda-mento” della rete, con la tecnica detta della simulated annealing (tempraturasimulata).

La potenza di questo nuovo tipo di reti e che riescono a trattare infor-mazione incompleta o parzialmente erronea, ad effettuare deduzioni con varilivelli di confidenza nel risultato, a creare prototipi sulla base delle caratte-ristiche degli individui, perfino di poter avanzare ipotesi sui dati mancantie di ricavare nuova conoscenza su basi induttive. Un esempio di Frixione:¿supponiamo di non disporre di un’informazione su un individuo; sappiamoche nella rete ce ne sono altri con cui condivide un certo tipo di caratteristi-che. Quando attiviamo i neuroni delle proprieta del nostro individuo, questiandranno a contribuire all’attivazione delle unita nascoste che a loro voltaattiveranno i neuroni relativi alle informazioni mancanti e dedotte su baseinduttivaÀ.

La parte interessante di questi modelli e che sembrano presentare carat-teristiche dell’intelligenza umana (astrazione, deduzione, induzione, gestionedell’incertezza) senza una spiegazione esplicita di cosa essa sia: dalla sempli-cita dei neuroni e della complessita della topologia emergono dalle proprietacomputazionali della rete stessa. Non c’e programmazione, non c’e codice enon ci sono dati. Anzi, per meglio dire, ci sono solo dati distribuiti all’in-terno della rete, che non corrispondono piu al singolo soggetto (paradigmasub-simbolico).

Tutti questi risultati sono ottimi e avvincenti, ma l’antico desiderio diricreare una mente artificiale e ancora lontano, sebbene gli sviluppi di calcoloparallelo e distribuito stiano creando di anno in anno le condizioni affinche sipossa ricreare un modello architetturalmente simile in tutto e per tutto allamente umana. Inoltre, grossi freni all’entusiasmo son derivati dagli studi sullinguaggio naturale: le reti neurali han serie difficolta a emulare i meccanismi

Page 12: Il progresso scientifico dell'informatica

12

di apprendimento del linguaggio, dati ormai per assodati da linguisti formali(come Chomsky), antropologi e psicologi; inoltre, non esiste alcun modelloalternativo per spiegare come sia possibile apprendere una lingua, mentre ilparadigma simbolico dell’Intelligenza Artificiale sembra lasciare piu margini.Secondo il pensiero di Collingwood riportato da Laudan, ¿si puo parlare diprogresso solo se c’e guadagno senza perditaÀ, ovvero se la conoscenza av-viene mediante teorie cumulative in grado di risolvere piu problemi di quelleprecedenti senza perderne altri per strada. Questo si sarebbe sistematicamen-te rivelato falso per il connessionismo: ad ogni spinta in avanti e corrispostaun’obiezione fondamentale all’indietro. Ma per Khun [25] ¿la sostituzione diuna vecchia teoria con una nuova e solitamente associata a perdite oltre chevantaggiÀ.

Viceversa, una grossa critica dai connessionisti puri alla AI e questa: l’ar-chitettura di Von Neumann, e in particolare l’esecuzione sequenziale di datiimmagazzinati separatamente al processore centrale, non puo ricreare allaperfezione i meccanismi cerebrali. Il nostro apparato nervoso e organizzatoin decine di miliardi di piccoli processori paralleli (cioe i neuroni), del tut-to asincroni tra loro, fortemente interconnessi. Questa differenza e notevole,significa che nel cervello l’unita di elaborazione e di immagazzinamento nonsono separati, ovvero “dati” e “programmi” sono la stessa cosa. Dunque, imodelli funzionali della scienza cognitiva, in cui la mente e vista come unelaboratore “monolitico” di dati, non hanno alcuna plausibilita anatomica eneurofisiologica [26].

I modelli simbolici, in cui si maneggiano concetti, mostrano limiti che lereti neurali artificiali non hanno: ad esempio, queste ultime tollerano megliogli errori e le inconsistenze; patiscono meno l’overfitting, ovvero l’adattamen-to eccessivo ai dati di esempio, cosa che capita con facilita in altri modellidi apprendimento come gli alberi di decisione, nonostante tutte le loro evo-luzioni derivate dalla teoria dell’informazione; le reti neurali, come gli esseriviventi, sanno inoltre arrangiarsi meglio in mancanza di dati completi, mentrela semplice rimozione di un assioma in una knowledge base puo distruggereun’intera impalcatura deduttiva.

Finora, proposte di architetture innovative ad alto parallelismo non hannoavuto successo e la tradizione di Von Neumann resta la piu gettonata. Forseun giorno avremo la possibilita di addestrare una rete topologicamente ugualea quella umana, indistinguibile dal suo funzionamento e chissa, forse potrebbeemergere una mente e una coscienza.

Page 13: Il progresso scientifico dell'informatica

13

4 L’intelligenza artificiale

The question of whether MachinesCan Think... is about as relevant asthe question of whetherSubmarines Can Swim

Edsger Wybe Dijkstra

L’idea di creare un sistema di intelligenza artificiale e, in un certo sen-so, antica quanto l’uomo. A piu riprese, in svariate forme, si sono palesatii prodromi per quella che oggi chiameremmo intelligenza artificiale debole:meccanismi in grado di simulare una parte delle attivita mentali dell’uomo.Minsky una queste parole: ¿far fare alle macchine cio che richiederebbe in-telligenza se fosse fatto da uominiÀ.

Dal punto di vista storico, la prima concretizzazione di questo desideriofu la fabbricazione da parte di Pascal della sua pascalina, la prima calcola-trice meccanica (invero capace solo di addizioni e sottrazioni). Questo tipodi macchinari, piu che simulare l’attivita mentale a basso livello, sfruttanoi procedimenti che l’uomo applica per arrivare al risultato, e cioe gli algoritmi.

Gli algoritmi sono metodi per la risoluzione di problemi; il nome vieneda quello che e considerato il primo teorizzatore, il persiano Muhammad ibnMusa ’l-Khwarizmi, che per primo propose un intero libro di procedimentiper risoluzioni algebriche. Scomporre un problema in passi elementari (ancheripetitivi) e farlo eseguire ad un macchinario e un po’ l’essenza della program-mazione. Diversi secoli dopo ’l-Khwarizmi, l’inglese Charles Babbage giunse,sulla scorta della pascalina, a teorizzare una calcolatrice programmabile tra-mite schede, chiamata “macchina analitica”; non venne mai costruita, ma fustudiata a lungo da una donna con cui Babbage intratteneva un fitto scambioepistolare: la figlia del poeta Lord Byron, la matematica Ada Lovelace. Ellacodifico un algoritmo per il calcolo dei numeri di Bernoulli e rappresenta,in assoluto, il primo programma informatico della storia. Questo primato estato riconosciuto alla Lovelace, al punto che quando il Ministero della Dife-sa statunitense decise di creare un linguaggio di programmazione “perfetto”(cosı fu definito sul bando di gara) per i propri sistemi di difesa lo battezzoproprio Ada.

Un notevole impulso alla ricerca dei sistemi “ragionanti” avvenne ovvia-mente con l’arrivo dell’informatica; fu il solito Turing a mettere la pulcenell’orecchio del mondo della ricerca con un articolo sulla rivista Mind [27]

Page 14: Il progresso scientifico dell'informatica

14

in cui rilanciava l’annosa quaestio: ma le macchine possono pensare? In que-sto caso si parla non di sistemi in grado di risolvere problemi specifici in undominio, ma di una intelligenza forte.

La questione e subito spinosa per quanto concerne il chiarimento di dueconcetti: macchina e pensiero. Il modo in cui il matematico esce dall’em-passe e ridurre la domanda ad un’altra, ovvero il celebre “test di Turing”:se dialogassimo con due individui A e B, di cui uno e un uomo e l’altro unamacchina, parlando attraverso una telescrivente (o una chat, per trasportarel’idea nel contemporaneo) per non subire l’influenza del tono di voce, riusci-remmo a capire quale dei due e l’interlocutore artificiale? Turing e convintoche non c’e modo di simulare l’intelligenza umana, se non realizzandone unavera e propria.

Finora nessuno e stato in grado di scrivere un software in grado di passareil test; non sono mancate, pero, le critiche di principio. La piu nota e quelladi Searle del 1980 [17] detta della “Stanza Cinese”: se fossimo in grado direalizzare un computer che, dati in ingresso dei simboli cinesi, rispondessesempre in cinese e in una maniera tale da superare un test di Turing, si po-trebbe concludere che tale computer conosca il cinese? Prima di risponderealla domanda, Searle aggiunge: che cosa succederebbe se fossimo noi stessi alposto del computer? Di certo, non diremmo di conoscere il cinese! Con questaobiezione, assai potente, ha generato un forte dibattito (non concluso) sullareale differenza tra intelligenza e mera risposta meccanica.

Al di la di tutto questo dibattito filosofico ruotante attorno alla ArtificialIntelligence (AI), ammesso fosse possibile escluderlo dalla dalla questione, laricerca si sviluppo veloce. Il primo passo fu l’introduzione dei linguaggi dimanipolazione simbolica; il paradigma della intelligenza artificiale (forte odebole che sia) non e sub-simbolico come nel connessionismo, in cui i “con-cetti” e le “funzionalita” sono riconducibili a gruppi di neuroni. Al contrario,nel campo della AI si ragiona al piu alto livello dei simboli e i linguaggi natiper questo tipo di processazione (come LISP [3]) sono la diretta conseguenzadi questo approccio. L’opportuna rappresentazione dei concetti del mondo,la capacita di manipolarli al fine di effettuare deduzioni ed eventualmentecreare nuova conoscenza sono le finalita di una informatica delusa dalle diffi-colta intrinseche del ricreare una mente e preferiva simulare i meccanismi diinferenza umani.

Si ripartiva dalla logica dei predicati e si effettuava inferenza sui simboli,intesi come quegli atomi logici che Russell [28] prima e Wittgenstein [29] poi

Page 15: Il progresso scientifico dell'informatica

15

identificavano alla base del linguaggio e, in definitiva, del pensiero stesso. Ipiu vivaci funzionalisti non avevano dubbi che da questo approccio sarebbeemersa un’intelligenza. Tuttavia, come si puo prevedere, ci si e scontrati conla difficolta di immagazzinare ogni possibile nozione all’interno di un sistemainformatico (per ragioni di spazio, efficienza, anche semplice possibilita di in-dagine esaustiva delle realta, e cosı via. Ne parla ampiamente McCarthy [30])ma sopratutto con l’impossibilita di elaborare in tempi utili questa mole diinformazioni. Una logica del primo ordine, completa di tutto l’armamentarioteorico a sua disposizione, e molto meno che trattabile per i sistemi attuali(sia come hardware che software). Per questa ragione, negli ultimi anni laricerca ha ripiegato su piu modesti campi di applicazione, come la AI debolee i sistemi esperti, ovvero applicazioni ristrette di strategie “razionali” peraffrontare problemi “intelligenti”.

Ad esempio, attivita di questo tipo sono il machine learning (ovvero mac-chine in grado di imparare da esempi, sia sotto la guida di un esperto di do-minio che in maniera del tutto automatica, come gli algoritmi di clustering, ocon tecniche di apprendimento per rinforzo). Domandiamoci ora: stanno dav-vero imparando questi software? L’etimologia del termine e dal latino parare,ovvero “procacciare”, in questo caso nuove cognizioni. Sembra presupporreun ruolo attivo e in tale ottica, non c’e dubbio, la macchina NON sta “impa-rando”: sta immagazzinando passivamente ed elaborando (in genere su basistatistiche) i dati come noi gli abbiamo insegnato. Ma se sottointendiamoche la volonta di procacciamento e determinata dalla nostra programmazio-ne, allora la macchina non ha alcuna scelta e il termine intelligenza artificialedebole e quantomeno sovradimensionato 4. Ora rivolgiamo la stessa criticaa noi stessi... non siamo anche noi programmati per immagazzinare? Se sof-frissimo di una disfunzione della memoria a breve termine non potremmoimparare nemmeno se ci costringessimo a farlo (anche perche ce ne dimen-ticheremmo), dunque anche la nostra “intelligenza” e tutta da dimostrare;probabilmente esistono funzionalita di livello piu basso, verso cui non possia-mo rivolgere l’introspezione, che gestiscono l’attivita di learning degli esseriumani. Attivita programmate (nel DNA), meccaniche, ripetitive, determini-stiche. Sono cosı diverse dalle MdT?

Una delle critiche mosse a Turing fu l’obiezione teologica: Dio ha dato l’in-telligenza solo all’uomo. Non agli animali, non alle macchine, tantomeno ai

4Douglas Hofstadter [31] scrive nel suo libro Godel, Escher, Bach: ¿i calcolatori sono(...) gli esseri piu rigidi, privi di desideri e ubbidienti che ci siano, (...) sono l’essenzastessa della inconsapevolezza. Come puo allora essere programmato un comportamentointelligente? Non e questa la piu appariscente delle contraddizioni in termini?À

Page 16: Il progresso scientifico dell'informatica

16

computer: solo ad esso. ¿Dunque le macchine non potranno mai pensareÀ[27].Si tratta di una argomentazione metafisica che va contro quel principio di ade-guata semplicita che gli epistemologi auspicano; ciononostante, Turing nonsi sottrasse alla discussione e mosse un’obiezione abbastanza convenzionale,e cioe che questa teoria limitava drammaticamente l’onnipotenza divina. Vi-ceversa, sostenne il matematico, Dio puo tutto, anche dotare un computerdi pensiero. E siccome un computer, o meglio una macchina di Turing, vaprogrammato, significa che esiste almeno un software in grado di pensare eDio ne conosce il codice.

L’altra forte obiezione che gli venne mossa e di origine filosofica, gia an-ticipata in precedenza: noi non possiamo assumere che i processi mentalisiano deterministici, perche altrimenti non avremmo libero arbitrio. Hofstad-ter paragona tale attivita azione (stimolo) / reazione (processo mentale) aduna pallina che rotola da una collina sassosa: ¿compie delle scelte? Credotutti diremmo di no, che non potrebbe percorrere un’altra strada ed e sem-plicemente spinta avanti dalle inesorabili leggi della naturaÀ[31]. Ma allorail nostro pensiero e inesorabile? Si parte con una configurazione cerebraleiniziale che viene modificata dall’esperienza e dall’apprendimento, ma su cuinon possiamo esercitare alcun controllo? La sensazione e che non sia cosı, maquesta stessa sensazione e generata, all’atto pratico, dalla fisica che avvienenei neuroni. Due sono le soluzioni: affermare che la mente ha un’origine oli-stica (cioe che va oltre la composizione delle sue parti) oppure che la fisicanon e totalmente deterministica (e il principio di indeterminazione di Hei-senberg sembra fornire una via di fuga in tal senso, sebbene se la sua valenzain questo ambito sia tutta da dimostrare).

Oppure, e tutto gia scritto.

5 L’interazione uomo-macchina

I have always wished for mycomputer to be as easy to use asmy telephone; my wish has cometrue because I can no longer figureout how to use my telephone

Bjarne Stroustrup

La storia dell’usabilita e antica quanto l’uomo e ha accompagnato, anchese in maniera implicita, quella delle sue invenzioni. Ogniqualvolta si sia reso

Page 17: Il progresso scientifico dell'informatica

17

necessario costruire un qualche artefatto per raggiungere uno scopo (ad esem-pio, la selce tagliare la carne) la tendenza e sempre stata quella di renderlopiu efficiente e facile da usare (dunque piu tagliente e con una impugnaturapiu adeguata alle caratteristiche della nostra mano).

Finche siamo noi stessi a fabbricare gli oggetti, e evidente che li faccia-mo quanto piu possibile conformi alle nostre esigenze; il problema dell’u-sabilita emerge quando la realizzazione avviene da parte di un progettistache non e necessariamente l’utente finale. Costui potrebbe essere tentato adar fondo alle proprie estrosita artistiche o alle piu recondite fantasie sulsuo funzionamento, o piu banalmente essere un incapace, perdendo di vistala soddisfazione dell’utente finale. Questo tipo di problemi ha dato vita adautentici mostri ingegneristici, completamente inutilizzabili quando non dan-nosi per l’integrita fisica dell’utilizzatore [32] e ha ingenerato un filone teoricochiamato - appunto - usabilita, che ha perfino una definizione ISO ben preci-sa: ¿l’efficacia, l’efficienza e la soddisfazione con le quali determinati utentiraggiungono determinati obiettivi in determinati contestiÀ. Se il contesto eristretto ai calcolatori si parla di human-computer interaction (HCI o inte-razione uomo-macchina). In realta, questa disciplina si compone anche di undiscorso parallelo sull’accessibilita, che non verra affrontato in questa sedenon essendo particolarmente interessante dal punto di vista epistemologico.

Il principio della HCI e che esistono due dimensioni fondanti nello svilup-po di un sistema interattivo: la complessita funzionale e quella strutturale[33].Un esempio classico di sistema molto semplice sotto i due aspetti e la gia ci-tata selce: ha una sola funzione (tagliare), assolutamente autoevidente, e hauna complessita interna pari a zero. Al contrario uno smartphone di ultimagenerazione ha entrambi i valori fuori parametro: tantissime funzioni, tantis-sima complessita interna.

La tendenza degli informatici e quella di badare molto alle struttura in-terna, saturando di features i software, il che si riflette in una complessitafunzionale elevatissima. Cosı il sistema diventa molto difficile da comprenderee utilizzare dai non addetti ai lavori. Per questa ragione, si cerca di impronta-re gli informatici al verbo dell’usabilita, insegnandogli a mantenere semplici(e possibilmente autoevidenti) le funzionalita senza sacrificare la complessitainterna.

Nel tentativo disperato di non lasciare margine di incomprensione, i desi-gners di interfaccia tendono a dar colpi di bisturi, eliminando alcune caratte-

Page 18: Il progresso scientifico dell'informatica

18

ristiche perche ¿gli utenti tendono ad essere confusi dalle troppe funzioniÀ5.Questo approccio porto ad una feroce polemica nell’ambiente *nix quando Li-nus Torvalds, l’inventore di Linux, annuncio di esser passato dalla interfacciadesktop GNOME a KDE e che avrebbe consigliato a tutti di fare altrettantoperche quest’ultima non toglieva all’utente delle funzionalita per renderglila vita piu semplice: ¿se il programmatore pensa che gli utenti siano idioti,allora solo gli idioti useranno il suo softwareÀ. Come dargli torto. In parti-colare, fece notare la differenza tra il programmare codice “facile da usare”e codice “che puo esser solo facile da usare”, dicendo che nel primo caso sie in presenza di una curva di learning poco ripida, mentre nel secondo lacurva e bassa perche non c’e nulla da imparare. La chiosa finale fu spietata:¿GNOME sembra dirti: quando hai finito di imparare non chiedere altro,perche non ti serve. Ma non e cosıÀ. Ignorance is not bliss, per il finlandese.

Tornando ai termini chiave (efficacia, efficienza, soddisfazione), il primosi traduce in “quanto gli utenti riescono a completare i propri compiti”. Dalpunto di vista epistemologico e una bella grana, perche non esistera mai unametrica di valutazione ne una teoria che abbracci tutte le casistiche di uten-za poiche, per ognuna di esse, interverranno fattori culturali, psicologici ecognitivi. Per questa ragione, si tende a restringere (o meglio focalizzare) iltarget di utilizzo e ad eseguire i cosidetti “test di usabilita” che danno unabase statistica con cui valutare quantitativamente le qualita del prodotto euna strategia di identificazione delle criticita. Tali test consentono anche diraccogliere un feedback qualitativo, che racchiude la terza delle nostre parolechiave (soddisfazione) e per forza di cose presenta le medesime perplessitametodologiche viste prima: si parla piu di arte ed estetica che di scienza.Rimane da determinare cosa sia l’efficienza di un sistema.

Per efficienza intendiamo quante risorse sono richieste ad un utente perraggiungere uno scopo; per risorse si intende:

� quanto ragionamento gli e richiesto durante l’utilizzo;

� quanta interazione deve effettuare;

� quale background teorico e presupposto (un classico - e annoso - pro-blema dei software open-source);

� quanta parte viene automatizzata e quanta e lasciata nelle sue mani

5 http://mail.gnome.org/archives/usability/2005-December/msg00021.html

Page 19: Il progresso scientifico dell'informatica

19

Con raggiungere uno scopo si intende che l’utente e soddisfatto dei risul-tati e non ha riserve su quanto ha ottenuto e sul modo. Se i risultati nonsono quelli attesi, who’s to blame? E’ colpa dell’utente che ha frainteso leindicazioni o e il software a presentare ambiguita?

Come sosteneva Popper, qualunque osservazione non e scevra di teoria,ogniqualvolta ne effettuiamo una partiamo da preconcetti e pregiudizi. An-che il programmatore di interfacce dovrebbe far “tabula rasa” di quanto sa ocrede di sapere, partendo da una condizione zero paritetica all’utente finale,ma cio e fondamentalmente impossibile ed espone ad un classico problemadi HCI: un software che appare perfettamente logico al suo programmatore,perche magari riflette la struttura interna o le sue procedure, ed estrema-mente macchinoso, quando non criptico, per chi lo utilizzi.

Spunti per una soluzione son provenuti dalla psicologia della Gestalt [34],una teoria incardinata sulla nostra percezione della realta. Molta della suateoria e stata trasportata nella HCI, perche ben si presta allo sviluppo diinterfacce intuitive che conducano l’utente per mano lungo l’esecuzione.

La teoria delle affordance di Gibson [35], presentata nella introduzione,e una diretta evoluzione della Gestalt e sostiene che la percezione dell’am-biente conduce inevitabilmente ad una qualche azione; e possibile introdurredegli indizi in tale ambiente per suggerire la possibilita di un’azione, in par-ticolare quella azione che l’utente desidera compiere. Se realizzati bene, taliindizi sarebbero percepiti direttamente, senza necessita di una aggiuntivaelaborazione mentale. Un esempio che Gibson portava era quello dell’acquache e “tuffabile” senza troppe spiegazioni. Oppure la forchetta, che dovrebbe“farsi capire da se” e che ha passato miglioramenti di affordance nel corsodei millenni. Dunque, si propone di realizzare interfacce che siano quanto piupossibili autoesplicative, con gli elementi capaci di descrivere da se i ruoli cheassumono. In un certo senso, la cosa funziona: un bottone con scritto “ESE-GUI” dovrebbe in primo luogo mettere voglia di premerlo, e in secondo luogorassicurare sulla sua utilita. Tuttavia ci si puo domandare: la affordance e unvalore assoluto, o c’e di nuovo un problema cognitivo? Non vi e una fortis-sima base esperienziale nel riconoscimento di un pulsante (o una forchetta)?Un aborigeno (al di la della diversita di linguaggio) possiede tali nozioni? Seper lui il discorso cade, abbiamo falsificato la teoria? Tralasciando il solitometro statistico sull’efficenza del sistema, qual e la sua scientificita?

Riprendendo Laudan ancora una volta, la teoria dell’affordance, pur pre-sentando delle anomalie irrisolte, aiuta il superamento di molti problemi e

Page 20: Il progresso scientifico dell'informatica

20

non si scorgono al momento idee piu efficaci: nella tradizione di ricerca dellaHCI rimane la piu quotata, e tanto basta.

A Alcune definizioni dei termini di Laudan

Il libro di Laudan Il progresso scientifico inizia affermando che la scienza pro-gredisce attraverso delle teorie, la cui razionalita e capacita di progresso sonoindissolubilmente legate alla loro capacita di risolvere problemi, alleggerendogli assunti verificazionisti della Scuola di Vienna e falsificazionisti di Popper.In particolare, definisce razionali ¿le scelte teoriche costituiscono il progressomaggioreÀ.

Tutte le teorie nascono e si sviluppano in quelle che chiama tradizioni diricerca, una evoluzione dei paradigmi di Kuhn e dei programmi di ricerca diLakatos: si tratta di insiemi di teorie sui problemi di un dominio, teorie legateda comuni assunti metafisici, ontologici e metodologici, che attraversano piumodifiche nel tempo. Vediamo ora come Laudan classifica tali problemi.

A.1 Tipi di problemi

Esistono due soli tipi di problemi nella scienza:

� problemi empirici;

� problemi concettuali.

A.1.1 Problemi empirici

I primi sono i ¿problemi attorno al mondo, questioni di base sugli oggettiche costituiscono il dominio di una data scienzaÀ. Si sottolinea questa appar-tenenza ad una scienza, perche il medesimo problema puo essere affrontatoda piu discipline: ¿situazioni che pongono problemi in un contesto di ricerca,non necessariamente li pongono in un’altro o risultano peculiariÀ. Esistonotre tipi di problemi empirici:

� insoluti (nessuna teoria al momento puo spiegarli);

� risolti (hanno gia trovato una teoria che li spieghi adeguatamente);

� anomali (non sono stati risolti da una particolare teoria, ma son statirisolti da altr in competizione con essa).

Page 21: Il progresso scientifico dell'informatica

21

L’ultima classe, quella dei problemi anomali, era ritenuta pericolosa dagliempiristi logici come Popper; una teoria con problemi anomali era da consi-derarsi indegna di considerazione. Per Laudan, la storia della scienza insegnache alcuni scienziati hanno appoggiato tout court teorie piene di anomalie ene hanno abbandonate altre in cui ve n’erano poche. Questo e spiegabile solose ¿non e tanto il numero delle anomalie a contare, quanto la loro importanzacognitivaÀ; viene naturale introdurre quelli che definisce gradi di minacciaepistemica.

A.1.2 Problemi concettuali

Il secondo tipo di problemi e quello dei problemi concettuali, che Laudanritiene ¿importanti tanto quanto quelli del primo tipo e colpevolmente igno-rato da storici e filosofi della scienzaÀ. La prima definizione che Laudan ne dae per esclusione: sono tutti quei problemi delle teorie di natura non empirica.In questo contesto, li suddivide in altre due tipologie:

� problemi interni (incoerenze interne di una teoria o le anomalie deri-vanti da poca chiarezza);

� problemi esterni (conflitti con altre teorie o dottrine).

La prima classe di problemi e assai frequente nel campo scientifico e ingenere si identifica con le incoerenze logiche di una teoria o la sua contrad-dittorieta coi risultati. Se non si riesce a sistemare l’impalcatura, la tendenzae di rifiutare la teoria. Per i problemi esterni la questione e piu delicata, per-che si puo parlare di incompatibilita non tanto legate ai risultati sperimentaliquanto derivanti dalla ¿visione del mondoÀche la societa, o lo scienziato stes-so, hanno in quel momento. Oppure, l’incompatibilita puo avvenire tra teorierivali appartenenti a dominı antagonisti. O ancora puo esserci una difficoltaad accettare le metodologie adoperate, all’interno di una comunita scientifica.

Secondo Laudan, l’unita di base del progresso scientifico e la risoluzione diproblemi, a prescindere dalla loro natura. Piu una teoria si dimostra capacedi aumentare i problemi risolti, piu va ritenuta efficace.

Riferimenti bibliografici

[1] Philippe Dreyfus. L’informatique. Addison-Wesley Professional, 1962.

Page 22: Il progresso scientifico dell'informatica

22

[2] Donald Knuth. Art of Computer Programming, Volume 1. AddisonWesley Publishing Co, Reading, 1968.

[3] John McCarthy. Recursive functions of symbolic expressions and theircomputation by machine, part i. Commun. ACM, 3(4):184–195, 1960.

[4] John McCarthy. Programs with common sense. Technical report,Symposium on Mechanization of Thought Processes. National PhysicalLaboratory., Teddington, England, 1958.

[5] Benjamin Pierce. Types and Programming Languages. MIT Press,Cambridge, 2002.

[6] Roberto Polillo. Facile da usare. Apogeo, 2010.

[7] Roberto Cordeschi. La scoperta dell’artificiale. Psicologia, filosofia emacchine intorno alla cibernetica. Duonod, 1998.

[8] Somenzi Vittorio & Cordeschi Roberto. La Folosofia Degli Automi.Bollati Bornighieri, 1986.

[9] Norber Wiener. Cybernetics: Or Control and Communication in theAnimal and the Machine. MIT Press, 1948.

[10] Alan M. Turing. On Computable Numbers, with an Application tothe Entscheidungsproblem. Proceedings of the London MathematicalSociety, s2-42(1):230–265, 1937.

[11] Gottfried Leibniz. New Essays on Human Understanding, book III.Cambridge University Press, Cambridge, 1996.

[12] David Hilbert. Mathematical problems. Bulletin of American MathSociety, 33(4):433–434, 1902.

[13] Godehard Link. One Hundred Years of Russell’s Paradox: Mathematics,Logic, Philosophy. Walter De Gruyter Inc, City, 2004.

[14] Carl Adam Petri. Kommunikation mit Automaten. Bonn: Institut furInstrumentelle Mathematik, Schriften des IIM Nr. 2, 1962.

[15] Edsger Wybe Dijkstra. Cooperating sequential processes, technical re-port ewd-123. Technical report, Department of Mathematics, Universityof Eindhoven, 1965.

[16] Vinay Deolalikar. P != NP. In revisione, 2010.

Page 23: Il progresso scientifico dell'informatica

23

[17] John R. Searle. Minds, brains, and programs. Behavioral and BrainSciences, 3(03):417–424, 1980.

[18] Paul Churchland & Terence J. Sejnowski. Rappresentazione neurale ecomputazione neurale. Sistemi Intelligenti, 1(2):177–212, 1989.

[19] F. Hoppensteadt. Weakly Connected Neural Networks. Springer-Verlag,Berlin, 1997.

[20] F. Rosenblatt. The perceptron: a probabilistic model for informationstorage and organization in the brain. Psychological Review, 65(6):386–408, 1958.

[21] V. N. Vapnik and A. Ya. Chervonenkis. On the uniform convergence ofrelative frequencies of events to their probabilities. Theory of Probabilityand its Applications, 16(2):264–280, 1971.

[22] Corinna Cortes and Vladimir Vapnik. Support-vector networks.Machine Learning, 20:273–297, 1995. 10.1007/BF00994018.

[23] Marcello Frixione. Appunti su reti neurali e connessionismo. Technicalreport, Department of Communication Sciences, University of Salerno,2009.

[24] Geoffrey E. Hinton & Terrence J. Sejnowski. Analyzing cooperativecomputation. Technical report, 5th Annual Congress of the CognitiveScience Society, Rochester, NY, 1983.

[25] Thomas S. Kuhn. The Structure of Scientific Revolutions. UniversityOf Chicago Press, 1996.

[26] Marcello Frixione. Appunti su reti neurali e connessionismo. Technicalreport, Department of Communication Sciences, University of Salerno,2009.

[27] Alan M. Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[28] Russell Bertrand. La filosofia dell’atomismo logico. Einaudi, 2003.

[29] Ludwig Wittgenstein. Tractatus Logico-Philosophicus (RoutledgeClassics). Routledge, 2001.

[30] John McCarthy. Some philosophical problems from the standpoint ofartificial intelligence. Technical report, Computer science department,Stanford University, 1969.

Page 24: Il progresso scientifico dell'informatica

24

[31] Douglas R. Hofstadter. Godel, Escher, Bach. Adelphi, 1979.

[32] Donald Norman. La caffettiera del masochista. Giunti editore, 1990.

[33] Roberto Polillo. Facile da usare. Apogeo, 2010.

[34] Ernst Mach. Beitrage zur Analyse der Empfindungen. G. Fischer, 1886.

[35] J.J. Gibson. The Senses Considered as Perceptual Systems. Boston:Houghton Mifflin, 1966.