Dopo oltre dieci anni dalla nascita ufficiale della struttura portante dell’attuale Internet, il concetto di memoria applicato ai computer appare di uso comune, tanto da accettare come implicita l’analogia tra cervello, sede della memoria umana e il computer come una sorta di cervello elettronico che memorizza informazioni digitali, mentre Internet, proseguendo il paragone, sarebbe da considerare una rete distribuita che grazie alla sua funzione di produzione di intelligenza collettiva costituisce e conserva una memoria universale.

La Stanford Encyclopedia of Philosophy definisce la memoria come “a label for a diverse set of cognitive capacities by which humans and perhaps other animals retain information and reconstruct past experiences, usually for present purposes.” Effettivamente tra la memoria umana e quelle tecnologiche sussistono alcune affinità, soprattutto dal punto di vista dei processi, quali la codifica delle informazioni da memorizzare, la loro archiviazione e il loro recupero.

Se la memoria umana è fondamentale per la continuità del proprio io, ovvero l’identità e la coscienza, la memoria tecnologica è altrettanto necessaria per i computer poiché serve alla stessa attivazione degli apparecchi. Ad esempio, la prima operazione che esegue un calcolare appena avviato è quella di iniziare a leggere il BIOS (basic input output system) sulla ROM da un punto fisso prestabilito .

.

Per la sua precisione e per la sua ideale capacità di recupero dei dati memorizzati, la memoria tecnologica supera quella fisiologica, ma il rapporto non è certo da considerare in concorrenza, ma in complementarità.

Del resto la memoria umana si rivela funzionalmente assai più potente quando l’informazione è stata memorizzata senza percorsi obbligati di memorizzazione, quali possono essere, ad esempio, l’immissione di dati attraverso un software e la relativa registrazione dell’operazione, perché innanzitutto la memoria umana non registra solo significanti (cioè l’espressione fisica di un significato) ma anche significati, sotto forma di emozioni, impressioni, concetti, rappresentazioni mentali e avvenimenti. Inoltre diverse teorie della memoria hanno messo in evidenza come la memoria umana selezioni, ottimizzi, integri ed elabori automaticamente i suoi contenuti. Nel recupero di queste informazioni essa può sfruttare tutte queste operazioni tramite la potenzialità immensa dell’analogia e dell’associazione tra di essi.

Tutto ciò riguarda i nostri personal computer (o machintosh), ma a livello sperimentale sappiamo che la sfida di riprodurre informaticamente una mente è stata raccolta fin dal Secondo Dopoguerra (a partire da Alan Turing, poi ufficialmente nel 1956 da John McCarty, al congresso sulla Intelligenza Artificiale al Dartmouth College di Hanover nel New Hampshire) dall’area progettuale dell’Intelligenza Artificiale, creando un alone di interesse verso le scienze informatiche che darà poi vita, secondo corrispondenze interdisciplinari, alla psicologia cognitivista.

.

Uno degli assunti fondamentali dell’Intelligenza Artificiale è “se riesco a definire l’insieme delle operazioni computative che sostengono il pensiero, posso in linea teorica riprodurre un’attività mentale su qualunque supporto, meccanico o elettronico che sia” (Roberto Marchesini in Post-human). Una tesi che se radicalizzata porta a considerare il funzionamento del cervello come esclusivamente algoritmico, quando abbiamo già sottolineato che, al contrario, il processo di memorizzazione umana avviene tramite diversi tipi di input (emozionali, sensoriali e concettuali), tramite selezione automatica (e ancora da indagare appieno) e su un sostrato neuronale che è il frutto di una filogenesi, ovvero di una storia del processo evolutivo che comprende ridondanze e logiche sfumate.

Il problema principale è dunque di dare un corpo ai processi mnemonici della mente tecnologica e collocarlo in un ambiente che possa esercitare su di essa pressioni di adattamento. E’ questa la sfida di un indirizzo di ricerca che nasce dall’Intelligenza Artificiale, ma che ha preso fin da subito un’altra direzione. Parliamo della ricerca sulle reti neurali artificiali (McCulloch e Pitts, Rosenblatt) ispirate a quelle naturali del nostro cervello, ma ben diverse nel loro funzionamento. Con un approccio bottom-up, che utilizza innanzitutto la capacità di apprendere nuove funzioni non programmate nel sistema, essi hanno potuto risolvere problemi complessi che computer dall’elevata intelligenza artificiale non riuscivano a portare a termine, come riconoscere dei suoni e delle immagini che non fossero comprese nell’algoritmo iniziale di programmazione, memorizzare nuovi concetti, ecc.

.

Il problema maggiore è però strutturale. Cosa potrebbe diventare il computer con questo tipo di memoria? Sarebbe ancora un computer, magari con un nuovo tipo di memoria oltre a quelle prefigurate nell’architettura di Von Neumann? e se sì con quali conseguenze, visto che solitamente quando memorizziamo file nei calcolatori elettronici, non lo agiamo con la consapevolezza che una volta recuperato quel file, esso possa mutare così come avviene nella memoria umana che continuamente rielabora e attualizza il ricordo.


http://plato.stanford.edu/entries/memory/