l'autore del sito
i nostri collaboratori
il blog di jacopo
blog fotografico
motore di ricerca
r i s o r s e   o n l i n e   s u l l a   f i l o s o f ia   e   l ' i n f o r m a t i c a
sito v.1.6.0
menu principale vuoi collaborare con questo sito? clicca qui

Pillole di Saggezza
«»



QUANTO E' NATURALE L'INTELLIGENZA ARTIFICIALE? di: Giuseppe Bonaccorso

Premessa
Lo scontro dialettico tra “naturale” e “artificiale” deve certamente le sue origini, anche se in modo indiretto, alla distinzione cartesiana tra res cogitans e res extensa: il filosofo francese partiva infatti dal presupposto che esistesse una differenza netta tra chi è in grado di pensare e tutto il resto dell’universo. Un simile approccio al problema porta certamente verso una concenzione dell’attività mentale che è del tutto svincolata dai limiti della materia inerte: l’uomo, pur essendo fatto di atomi esattamente come una roccia, è “costretto” a possedere una sorta di vis viva che trasmuta la sua natura oggettivamente materiale in una omologa definibile solo in termini metafisici. Tutto ciò ha portato negli ultimi vent’anni ad un acceso dibattito tra coloro che sono del parere che è ontologicamente necessaria una distinzione tra mente e cervello e chi, come me, sostiene che ciò che noi ci ostiniamo a chiamare mente non è altro che il risultato dell’attività, reale e fisicamente analizzabile, del sistema nervoso centrale. Grazie alle moderne tecniche di brain imaging come la PET o la risonanza magnetica funzionale è stato possibile provare sperimentalmente che determinate aree del cervello si attivano solo quando il soggetto in esame è sottoposto a particolari test; ad esempio, se si chiede di eseguire un calcolo numerico non troppo banale si evidenzia una spiccata attività bioelettrica nell’emisfero sinistro del cervello, mentre se la prova comporta la lettura mentale di un testo si vede come l’area di Wernicke, responsabile della decodificazione semantica, entri in azione, permettendo all’individuo di comprendere ciò che sta leggendo. Naturalmente è assurdo pensare che si possa effettuare una localizzazione esatta di ogni funzione cerebrale poichè, come avremo modo di vedere, la struttura stessa del cervello è tale da consentire una fusione di flussi informativi provenienti da sorgenti diverse. E’ proprio grazie a tale peculiarità che noi, ogni giorno, possiamo affrontare attività che scomposte in sotto-problemi risulterebbero proibitive anche per il più potente supercomputer. Come fa notare Alberto Oliverio, nel problema della lettura è necessario essere capaci di decodificare circa 40 caratteri al secondo senza alcun tipo di vincolo sulle forme e sulle caratteristiche degli stessi; se io avessi deciso di scrivere questo articolo utilizzando un font particolarmente elaborato (al limite basti pensare ai manoscritti) il mio cervello non avrebbe comunque avuto particolari difficoltà a guidare le mie dita sui tasti corretti e, rileggendo quanto scritto, io avrei lo stesso compreso il significato di ogni frase.
Un cervello “statico”, cioè fortemente localizzante, si troverebbe in estrema difficoltà ogniqualvolta si dovessero presentare alternative – funzionalmente e strutturalmente compatibili – alle strutture pre-immagazzinate; per tentare di comprendere come ciò possa avvenire dobbiamo necessariamente andare indietro nel tempo e interpellare il grandissimo filosofo Immanuel Kant: fu proprio lui, infatti, il primo ricercatore a domandarsi come mai la rielaborazione mentale di un concetto fosse quasi del tutto indipendente dalla particolare esperienza che ci ha precedentemente condotti ad esso. La prima volta che lessi la Critica della Ragion Pura rimasi fortemente turbato dall’acume dimostrato da Kant qundo egli spiegava, senza fare riferimento alla posteriore psicologia cognitiva, il perchè, ad esempio, la mia idea di “casa” fosse svincolata dall’edificio in cui abito o da quello che osservo guardando fuori dalla mia finestra. La sua indagine partì dal presupposto che il pensiero di un oggetto non si forma a partire da una “catalogazione” di percezioni, ma piuttosto da una sintesi di un molteplice che scaturisce da una serie di informazioni in ingresso: la “casa” – intesa come concetto/oggetto – viene scomposta nelle sue parti peculiari e, una volta che l’idea ad essa collegata è divenuta sufficientemente stabile , il cervello ri-utilizza questi dati per poter “costruire” una casa basandosi sulle esperienze correnti o, anche solo sulla fantasia. Naturalmente Kant non possedeva i mezzi di indagine necessari per potere, seguendo gli insegnamenti di Galileo, confermare sperimentalmente le sue ipotesi e di conseguenza si lasciò guidare solo dall’intelletto; oggi invece la situazione è stata chiarita (non del tutto, ma abbastanza per poterci scrivere sopra un articoletto !) e ad essa è stato dato il nome di “capacità di generalizzazione”. Tutto il resto dello scritto sarà dedicato a questa caratteristica della mente, per cui chiedo al lettore di avere un minimo di pazienza affinchè io possa tornare momentaneamente alla domanda che fa da incipit all’articolo “Quanto è naturale l’intelligenza artificiale ?” per chiarire alcuni punti essenziali.
Se si chiedesse ad una persona se la sua intelligenza è naturale è ovvio che la risposta sarebbe certamente affermativa, ma se si chiedesse che cosa essa intenda per “naturale” si potrebbero collezionare così tante spiegazioni da poter compilare una nuova enciclopedia britannica... Ognuno di noi è convinto di essere un membro della natura, intendendo con ciò che il corpo e la mente si sono formati a partire da processi che non possono in alcun modo essere definiti artificiali. Questo è vero, tuttavia a noi interessa capire se può esistere una qualche distinzione tra un uomo e un’ipotetica macchina pensante: quali parametri bisogna prendere in considerazione ? E, soprattutto, a quali test è necessario sottoporre entrambe le parti ?
Un primo approccio potrebbe essere quello di chiedere alla macchina se essa è naturale (ciò si rifà al famoso test di Turing), ma che valore potrebbe avere questa risposta ? Un eventuale “sì” o il suo contrario non ci illuminerebbero più di tanto; è ovvio che un computer è costruito dall’uomo, ma è altrettanto scontato che gli elettroni, i protoni e i neutroni che lo compongono sono uguali sia all’interno del suo microprocessore, sia nel cervello, nel cuore e nel fegato del soggetto umano: entrambi sono “costruiti” a partire dai medesimi elementi, ma, mentre la macchina è fredda e inespressiva, la persona manifesta caratteristiche che noi definiremmo “emozionali”. Ci si potrebbe allora chiedere se siano proprio le emozioni a fare la differenza, ma, pur rispettando coloro che pensano che esse siano una sorta di “ispirazione divina”, è giusto precisare che ciò che noi chiamiamo paura, ansia o felicità è traducibile in tutta una serie di percezioni-elaborazioni cerebrali-auto condizionamenti dovuti ai neurotrasmettitori prodotti dai neuroni e da alcuni ormoni secreti dalle ghiandole surrenali. In altre parole, l’emozione è uno stato interno che scaturisce a partire da una causa qualunque, ma che si sviluppa seguendo una sorta di copione che il nostro organismo conosce estremamente bene. (Se non fosse così la vista di un grosso serpente potrebbe attivare meccanismi selettivi che “ripetano dall’interno” la frase “Niente panico !”, ma purtroppo il controllo automatico delle reazioni – e ciò vale anche per le macchine – è quasi sempre preventivo e difficilmente modificabile dallo stesso organismo).
Scartando, quindi, anche l’ipotesi dell’emozione non resta che rifarsi alle capacità intellettive pure, vale a dire alla logica, al pensiero astratto e, in ultima analisi, anche alle capacità artistiche. Agli albori dell’intelligenza artificiale, grandi pioneri come Marvin Minsky proposero quella che per molti anni a seguire fu la “metodologia” da adottare per affrontare problemi di particolare complessità; in particolare la loro idea si basava sul presupposto che l’aggettivo “artificiale” fosse riferito non tanto all’intelligenza della macchina, ma piuttosto al fatto che un bravo programmatore riuscisse a scrivere algoritmi innovativi e capaci di far fronte a situazioni computazionalmente molto pesanti. In pratica, seguendo questo filone, la risposta alla nostra domanda iniziale non può che essere: “L’intelligenza artificiale è naturale tanto quanto lo è un computer”, con la differenza che, mentre l’uomo è capace di astrarre ma non di calcolare velocemente, il calcoltore, opportunamente predisposto dall’operatore, è virtualmente in grado di assolvere ad entrambi i compiti. Il problema principale, tuttavia, nasce proprio dal fatto che senza l’ausilio dell’esperto umano non è praticamente possibile effettuare quella transizione di intelligenza che può migliorare il comportamento delle macchine automatiche.
Fortunamente la ricerca si è spinta oltre il vicinissimo confine tracciato dai padri dell’intelligenza artificiale detta ormai “classica” e la cosa più stupefacente è stata non tanto la variazione di strategia, ma piuttosto l’idea che un calcolatore può divenire più intelligente solo se imita operazionalmente e strutturalmente gli organi animali preposti a svolgere tutte le svariate funzioni di controllo ed elaborazione. In parole povere, a partire dai risultati della neurofisiologia, si è pensato di implementare particolari strutture (le reti neurali) che avessero un funzionamento analogo a quello delle omologhe naturali; in questo modo – che noi non descriveremo per mancanza di spazio – fu immediato constatare che il ruolo del programmatore non era più centrale, ma andava assumendo una posizione sempre più marginale per lasciare spazio ad un’evoluzione interna semi-autonoma guidata solo dagli obiettivi che si desiderava raggiungere. Ad esempio, con una rete di 20 neuroni, è possibile far sì che essa apprenda (apprendimento inteso come modificazione di alcuni parametri caratteristici) a riconoscere le lettere dell’alfabeto e sia in grando di riconoscere con estrema facilità un carattere distorto. Ormai molti software per personal computer si basano su questo approccio, basti pensare ai cosidetti OCR, ovvero a quei programmi che sono in grando di convertire un’immagine contenente del testo in un documento elettronico, oppure ai sofisticati strumenti utilizzati dalla polizia per confrontare un volto sospetto con quelli contenuti nella loro banca dati; questi naturalmente sono solo banali esempi, ma in realtà l’intelligenza artificiale basata sul connessionismo è ormai così diffusa da essere un requisito essenziale per ogni programmatore di sistemi intelligenti che si rispetti.
E’ chiaro che adesso la risposta alla domanda inizia lentamente a volgere verso un’affermazione positiva, ma ancora non è chiaro perchè un semplice cambiamento di rotta abbia determinato una rivoluzione la cui portata è comprensibile solo agli scrittori di fantascienza, ma di ciò parleremo ampiamente nel prossimo paragrafo.
[...]

Il testo completo lo puoi scaricare - per una comoda lettura - cliccando sul link poco sotto. Per commenti, suggerimenti o domande puoi contattare l'autore, Giuseppe Bonaccorso, scrivendo al suo indirizzo email: giuseppe_bonaccorso@tiscali.it.

Scarica la versione .DOC - [57KB] - Compatibile con Microsoft Word.
Scarica la versione .PDF - [72KB] - Compatibile con Adobe Acrobat Reader.
Leggi la versione .HTML - Solo nel caso gli altri formati non vadano.

Copyright (c) 1996-2002 by Jacopo Agnesina
This material may be distributed only subject to the terms and conditions set forth in the Open Publication License, v1.0 or later.
(the latest version is presently available here).