In una situazione in cui istituzioni e privati sono costretti a contendersi aspramente i (pochi) fondi destinati alla ricerca, ha destato scalpore presso la comunità scientifica la recente decisione dell’Unione Europea di inserire lo Human Brain Project[i] fra i FET, i così detti “progetti faro”, per il prossimo decennio. A peggiorare le cose il forte stanziamento: un miliardo di euro in dieci anni per creare una simulazione completa del cervello umano attraverso una rete di supercomputer.

Un obiettivo che in molti hanno dichiarato irrealistico, se non addirittura un problema mal posto[ii]. Ma questo e altri progetti simili[iii] non vengono dal nulla: hanno alle spalle circa 50 anni di storia della disciplina nota come Intelligenza Artificiale (IA) o Artificial Intelligence (A.I.) in inglese.

Solitamente le origini dell’IA sono collocate quasi all’unanimità nel 1956, anno in cui il matematico americano John McCarthy tenne una conferenza a Dartmouth, nel New Hampshire (USA). All’incontro presero parte, tra gli altri, scienziati come Claude Shannon e Marvin Minsky, entrambi appartenenti al mondo dell’ingegneria e delle scienze logico-matematiche, l’economista e futuro premio Nobel Herbert Simon e l’informatico Allen Newell. L’ordine del giorno era incentrato su un tema molto semplice: sviluppare una “congettura per cui ogni aspetto dell’apprendimento e dell’analisi dell’intelligenza possano essere descritti o simulati da un computer”.ai2

Il periodo che va dal 1956 alla metà degli anni ‘60 (convenzionalmente fino al 1966, anno in cui il governo degli Stati Uniti ha tagliato i finanziamenti destinati all’IA giudicando deludenti la maggior parte dei risultati ottenuti fino a quel momento[iv]), è considerato come la fase iniziale dell’Intelligenza Artificiale.

In quegli anni l’attenzione si è concentrata su aspetti come l’implementazione dei software parser o degli automi a stati finiti per la gestione delle stringhe (ovvero delle sequenze di simboli). I risultati principali si sono registrati soprattutto nella risoluzione automatica di problemi matematici, in cui è d’obbligo citare il software Logic Theorist creato da Herbert Simon e Allen Newell, che fu in grado di risolvere la maggior parte dei teoremi dei “Principia Mathematica” di Russell e Whitehead.

L’elaborazione delle lingue naturali invece non raggiunse gli obiettivi sperati, ciononostante il software Eliza sviluppato dallo psicologo Joseph Weizenbaum e il software Shrdlu di Terry Winograd ottennero esiti significativi. Dalle ceneri di questo primo tentativo nacque una nuova fase dell’intelligenza artificiale, quella dei Sistemi Esperti[v].

Come il precedente, anche questo progetto era incentrato sui software ma il concetto di base era davvero innovativo, superando l’idea che il programmatore dovesse codificare esplicitamente tutte le strategie risolutive. A tale scopo era necessario emulare ciò che di solito avviene quando gli esperti umani in varie discipline fanno delle estrapolazioni: non solo devono conoscere molte regole, ma anche gli schemi cognitivi adeguati.

Di conseguenza il nuovo software includeva due componenti fondamentali: il primo, il così detto “sistema knowledge-based”, era costituito da alcune strutture come le proposizioni IF THEN ELSE o gli alberi decisionali; il secondo era un “motore di inferenza”, un meccanismo capace di convertire un INPUT in una soluzione (OUTPUT) derivante da un flusso elaborativo non esplicitamente codificato nei programmi.

In questi anni la lingua primaria per l’implementazione dei progetti di IA è passata dal LISP (inventato da McCarthy in persona) al PROLOG, consentendo un uso maggiore di tipologie di elaborazione in precedenza poco esplorate come la ricorsione e il backtracking. Tra i sistemi fondamentali possiamo citare Mycin, Molgen e Teiresias; le loro possibili applicazioni variavano dall’analisi dei sistemi rumorosi (diagnosi, interpretazione dei dati), alla previsione, pianificazione e schedulazione (ad esempio nel settore industriale, ma non solo) alla progettazione (macchine che progettano altre macchine).

Sebbene i Sistemi Esperti fossero efficienti in diverse aree, fu chiaro in seguito che la loro natura meramente computazionale (e associativa) poteva essere un limite insormontabile per il progresso futuro. Gli esseri umani dimostrano la propria intelligenza non solo risolvendo equazioni matematiche e problemi ingegneristici, o imparando le lingue, ma anche muovendosi, riconoscendo forme e colori e, soprattutto, implementando comportamenti.

Inoltre gli studi degli anni ‘80 e ‘90 iniziarono a mettere in evidenza alcuni fatti interessanti circa il funzionamento fisico dei cervelli umani e animali.

Con il tempo è diventato sempre più evidente che questi sistemi elaborano segnali elettrici che si propagano in una rete costituita da circa 1010 neuroni. I neuroni risultano connessi gli uni agli altri (ma non tutti con tutti) in modo più o meno forte, con linee di trasmissione biologiche (assoni) e punti di interfaccia (sinapsi), più o meno “aperti” al passaggio dei segnali e con un grado di apertura sicuramente influenzato dall’esperienza individuale.

Inoltre è stato provato che i neuroni hanno la proprietà di attivarsi[vi] elettricamente a seconda degli input e di trasmettere il loro stato ai neuroni successivi. Nel tentativo di includere tutto questo in un solo modello [vii], i dati sensoriali potevano essere associati all’input complessivo del sistema mentre i segnali elettrici più a valle al comando trasmesso agli organi attuatori (output).

ai3

Il passaggio da queste considerazioni ad un software che le implementasse è stato quindi molto rapido e tali programmi hanno preso il nome di Reti Neurali Artificiali o Artificial Neural Networks (ANN) in inglese. In quegli anni, un’altra riflessione influenzò il panorama dell’IA: la teoria degli algoritmi genetici[viii]. Il concetto di selezione naturale in ambito biologico, come sviluppo delle osservazioni di Charles Darwin, era ormai patrimonio comune.

L’idea di fondo era che, da una popolazione iniziale e da un insieme di regole per ottenere nuovi geni a partire dai vecchi, si potessero innescare meccanismi di selezione per cui certi individui con certe caratteristiche sarebbero diventati prevalenti all’interno di una specie. C’era in questa selezione una qualche intelligenza? In parte sì, perché gli individui che rimanevano dopo diverse generazioni erano più adatti a vivere in un determinato ambiente rispetto ai predecessori.

Se, anziché parlare di geni, ci si fosse concentrati sulle variabili biologiche, questo avrebbe influenzato le proprietà esposte degli oggetti (ad esempio forma, colore, dimensione). L’evoluzione, dunque, potrebbe essere interpretata come una trasformazione di un modello iniziale della popolazione totale in uno finale. Il famoso Gioco della vita di John Connway fornisce una potente rappresentazione grafica di tutto ciò.

Le reti neurali artificiali e gli algoritmi genetici hanno aperto la terza fase dell’IA, in cui le parole chiave erano “modello black box”. Le implementazioni a questo stadio non solo hanno creato una funzione di trasferimento (INPUT – OUTPUT) attraverso un insieme ben definito di regole (ad esempio i parser o i Sistemi Esperti), ma hanno anche codificato le conoscenze corrispondenti utilizzando un approccio distribuito, cioè molte unità di memoria elementari (ad esempio i pesi sinaptici nelle ANN), ognuna delle quali non associata a nessuna informazione specifica.

Gli sviluppatori, in altre parole, permettono ai programmi di costruire e utilizzare la loro intelligenza – cioè la capacità di risolvere una serie di problemi che comprenda più campi possibili – senza alcuna interferenza. Il fatto che tale intelligenza possa essere considerata una proprietà emergente (qualcosa non ottenibile con la semplice somma delle proprietà dei componenti elementari) ha causato l’integrazione di questa fase con la teoria dei sistemi complessi che in quegli anni stava guadagnando rapidamente terreno.

Ha portato anche all’affermazione di una scuola di pensiero all’interno dell’IA chiamata connessionismo, che per la prima volta aveva trovato i suoi principali esponenti al di fuori dell’informatica e delle scienze logico-matematiche (ad esempio gli psicologi David Rumelhart, David McClelland e il biologo Gerald Edelman).

Questi sistemi hanno avuto un grande successo nel campo dell’elettronica, della biologia, dell’economia per gli algoritmi genetici, del riconoscimento audio/video nei campi del data mining e delle previsioni (es. meteorologia) per le ANN. Tutti risultati importanti, per certi versi straordinari, ma non abbastanza da portare l’intera comunità scientifica a confermare la nascita della prima intelligenza creata dall’uomo.

Al giorno d’oggi siamo dunque nell’ultima fase della IA, e tentiamo di metterci alle spalle i mezzi passi falsi compiuti finora, quantomeno nell’obiettivo, per così dire, massimalista. In ogni caso, perché un tipo di IA generale, che emuli l’intelligenza umana, sarebbe irrealizzabile?

ai5

Secondo alcuni scienziati, come John Lucas e Roger Penrose, il fulcro della questione è la limitatezza dei sistemi formali, derivante dai teoremi dell’incompletezza e dell’indecidibilità di Gödel. Stando ai due teoremi, il fattore critico di successo della mente umana starebbe nel ragionamento non simbolico o algoritmico. Secondo altri ricercatori il problema è che non esiste una definizione esatta di intelligenza. Sul banco degli imputati non c’è l’IA stessa, ma il cosiddetto test di Turing, metodo che consente di stabilire, almeno a livello concettuale, se un software è intelligente o meno.

La visione più recente e ampiamente accettata si basa sugli apparenti sistemi di interazione unidirezionali di IA (software> hardware), che contrastano con l’osservazione della bi-direzionalità mente-corpo e con il ruolo decisivo svolto non solo dagli stimoli fisici (ambiente), ma anche da quelli culturali (società)[ix].

A causa di questi dubbi e del fatto che i migliori risultati sono stati ottenuti solo in applicazioni verticali, l’interesse dei ricercatori è principalmente incentrato sull’integrazione di diversi software intelligenti, anche se per scopi estremamente limitati (IA debole). Attualmente, quasi nessuno si preoccupa di costruire macchine o programmi che possano superare il test di Turing o comunque dimostrare la comprensione di un’ampia gamma di comportamenti.

Potremmo quindi chiederci dove sia finita l’IA forte. In qualche modo, è sopravvissuta, anche se è cambiata molto dalla sua impostazione originale[x]. Innanzitutto ha cambiato nome: probabilmente per distanziarsi dai precedenti fallimenti, alcuni sostenitori dell’IA Forte si ridefiniscono con il nuovo acronimo AGI (Artificial General Intelligence – Intelligenza artificiale generale)[xi], o con il titolo WBE (Whole Brain Emulation – Emulazione del cervello)[xii].

Oggi è difficile capire quali siano le sue caratteristiche distintive. Certo, c’è un’effettiva volontà di staccarsi totalmente dal passato, creando metodi di misurazione più approfonditi e più completi, rispetto al test di Turing[xiii]. Un altro obiettivo primario è il superamento degli approcci tradizionali, considerati troppo legati alle scienze dell’informazione. Infatti, il nucleo della AGI, per prima cosa, è basato sull’integrazione di informatica, biologia, scienze cognitive e nanotecnologia.

ai6

Certo, in contrasto con questo incredibile dispiegamento di sapere scientifico, alcune affermazioni di chi, tutt’oggi, continua a credere nell’IA forte, possono sembrare piuttosto assurde o non scientifiche, se non vagamente inquietanti. Prendiamo il concetto di singolarità tecnologica, ad esempio: gli attuali sostenitori di AGI e WBE concordano quasi tutti con le idee di Ray Kurzweil[xiv] secondo il quale i primi risultati significativi in termini di emulazione delle funzioni celebrali arriveranno fra il 2015 e il 2045.

Tuttavia, questo sarebbe solo il primo passo per un progresso sempre più accelerato in cui l’uomo, grazie alla tecnologia, aumenterebbe sempre di più il proprio potenziale fino a diventare un qualcosa che qualcuno ha chiamato “Uomo 2.0”. Idee discutibili? Eccesso di semplificazione e fiducia nella tecnologia? Disinteresse per tutte le possibili implicazioni etiche o di sicurezza per il genere umano? Forse. Una cosa è certa: per capire se ci stiamo avvicinando o no a quanto previsto da Kurzweil non occorrerà aspettare troppo a lungo.


Note:

[i] “Human Brain Project”, 2013, URL: http://www.humanbrainproject.eu/

[ii] Vaughan Bell, The human brain is not as simple as we think, The Observer, 2013, URL: http://www.rawstory.com/rs/2013/03/03/the-human-brain-is-not-as-simple-as-we-think/

[iv] Pietro Greco, Einstein e il ciabattino, Dizionario asimmetrico dei concetti scientifici di interesse filosofico, Editori Riuniti, 2002

[v] Paola Mello, Lucidi sui Sistemi Esperti, Laboratorio di Informatica Avanzata, Università di Bologna, URL: http://www.lia.deis.unibo.it/Courses/AI/fundamentalsAI2011-12/lucidi/SistemiEsperti2011.pdf

[vi] Paul Churchland,  Il motore della ragione la sede dell’anima, Il Saggiatore, Milano, 1998

[vii] Giovanni Martinelli, Reti neurali e neurofuzzy, Euroma La Goliardica, 2000

[viii] John H. Holland, Genetic Algorithms Computer programs that “evolve” in ways that resemble natural selection can solve complex problems even their creators do not fully understand, URL: http://www2.econ.iastate.edu/tesfatsi/holland.GAIntro.htm

[ix] Gerald Edelman, La materia della mente, Adelphi, 1999

[x] Jonathan Russell, Peter Norvig, Intelligenza Artificiale: Un Approccio Moderno, Pearson, 2010

[xi] Pei Wang And Ben Goertzel, Introduction: Aspects of Artificial General Intelligence, 2006, URL: https://a316de03-a-62cb3a1a-s-sites.googlegroups.com/site/narswang/publications/wang-goertzel.AGI_Aspects.pdf

[xii] Sandberg, A. & Bostrom, N. (2008): Whole Brain Emulation: A Roadmap, Technical Report #2008‐3, Future of Humanity Institute, Oxford University, URL: www.fhi.ox.ac.uk/reports/2008‐3.pdf

[xiii] Itamar Arel and Scott Livingston, Beyond theTuring Test, IEEE Computer Society, 2009, URL: http://web.eecs.utk.edu/~itamar/Papers/IEEE_Comp_Turing.pdf

[xiv] Ray Kurzweil, La singolarità è vicina, Apogeo, 2008