EDUCAWEB: spazio virtuale di incontro sociosanitario ed educativo

giovedì 19 ottobre 2017

Home arrow Notizie arrow Ultime arrow I segreti della mente
giovedì 19 ottobre 2017
Home
Notizie
LINKS
Mappa del sito
Tutti i contenuti
Cerca
Licenza Joomla
Psichiatria
Educativo
Guest Book
Download Files
Calendario e Appuntamenti
Libri e pubblicazioni
Meteo
NEWS Salute
Disclaimer medico




by Zippy
Advertising - Pubblicità
I segreti della mente PDF Stampa E-mail
Scritto da tratto da "le Scienze"   

 Rodolpho Llinas

Il cervello è un emulatore della realtà

Possiamo chiederci quanti neuroni ci siano approssimativamente all'interno del cervello. La risposta è 10 alla decima, o 10 000 000 000. E' un numero enorme! Eppure, questo sistema funziona come un singolo evento funzionale: la coscienza.

Ci possiamo chiedere quanti neuroni siano dedicati alla vista, all'udito o al tatto. In verità, molto pochi: la maggior parte dei neuroni del cervello non si occupa del mondo esterno. Queste e altre considerazioni ci fanno ritenere che il cervello sia, fondamentalmente, un sistema chiuso.


Come sapete, i colori in realtà non esistono indipendentemente da noi, ma sono l'interpretazione che il nostro cervello fa di particolari informazioni provenienti dalla retina. Anche i suoni non esistono, ma sono la nostra interpretazione delle vibrazioni dell'aria. Analogamente, il tatto è qualcosa che noi produciamo in seguito alla deformazione della pelle. Tutto questo ci dice che il nostro cervello è un emulatore della realtà, qualcosa che si è evoluto nel tempo per "imitare" ciò che esiste al di fuori di noi, o, in altre parole, per costruire una storia. Ma gli elementi di questa storia esistono da prima della nostra nascita, poiché nessuno ci insegna a vedere i colori, né a sentire il dolore o le altre sensazioni. Queste facoltà nascono con noi, proprio come il naso, le orecchie e il corpo. Noi siamo come una coscienza equipaggiata con un sistema di sensazioni! Il nostro cervello è dunque, un emulatore che genera una realtà e che ne verifica l'affidabilità servendosi delle sensazioni.

Daniel Schacter

Il numero di telefono che si dimentica

Quando cerchiamo di trattenere un numero di telefono per un breve periodo di tempo, utilizziamo un particolare tipo di memoria, che gli psicologi cognitivi chiamano memoria a breve termine o anche memoria attiva. Si tratta di un sistema che conserva l'informazione per pochi secondi, a uso temporaneo.

Un elemento importante della memoria attiva, almeno fintanto che è applicata al ricordo di un numero telefonico, è che non combineremo gran che con questo numero. E' possibile che conserveremo questo numero nella mente per qualche tempo, ma se qualcuno ci distrae e quindi cerchiamo di richiamare l'informazione, probabilmente non ci riusciremo. Perché? Una possibilità è che limitarsi a recitare passivamente l'informazione non sia sufficiente per introdurla nella memoria a lungo termine, il sistema in cui essa deve "entrare" per essere trattenuta sulla lunga durata.

Il segreto di una buona memoria

E allora, come si fa a ricordare un numero di telefono per più di qualche secondo? La cosa migliore è mettere questo numero in relazione ad altre informazioni già presenti nella memoria, di collegarlo a conoscenze preesistenti, in altre parole acquisirlo nel modo che gli psicologi chiamano "assimilazione per elaborazione".

L'assimilazione per elaborazione consiste nello stabilire un legame fra le nuove informazioni e ciò che è già presente in memoria. Se, ad esempio, siete in grado di mettere quell'informazione in relazione con qualcosa che già conoscete, qualcosa che per voi è significativo, allora avrete una probabilità molto maggiore di ricordarla a lungo.

Supponiamo che io vi mostri una lista di nomi di oggetti ordinari, come "tavolo", "macchina" e "giardino". Immaginiamo che io vi chieda di esprimere un giudizio su questi oggetti, di dirmi, ad esempio, se queste parole si riferiscono a cose viventi o non viventi, oppure di dirmi quanto vi piaccia ciascuno di questi oggetti. Gli psicologi cognitivi chiamano quest’esercizio "assimilazione semantica". Quando vi concentrate sugli aspetti semantici di una parola, al fine di decidere, ad esempio, se la parola "tavolo" denota una cosa vivente o non vivente, o se vi piacciono i tavoli, voi riattivate tutti i tipi di informazione relativi alla parola tavolo e già presenti nella vostra memoria. Se in seguito io dovessi testare la vostra memoria su questa lista di parole, la vostra prestazione sarebbe senza dubbio ottima, poiché avrete effettuato un'assimilazione per elaborazione semantica.

D'altro canto, vi potrei mostrare la stessa lista e chiedere di contare il numero di vocali e consonanti in parole come "tavolo" e "giardino". Anche in questo caso dovreste prestare molta attenzione alle parole e contarne tutte le vocali e le consonanti. In seguito, però, scopriremmo che voi non ricordate quasi nessuna delle parole di questa lista, poiché non le avrete messe in relazione ad alcuna conoscenza preesistente.

In psicologia, questo fenomeno è noto come "effetto dell'elaborazione in profondità". Esso dimostra ancora una volta che noi non siamo dei semplici ricettacoli passivi che registrano automaticamente le informazioni, come una videocamera, ma che il fattore determinante è il modo in cui l'informazione è trattata.

Il segreto di James Bond

Vi sono alcune ricerche recenti e molto istruttive, sul modo in cui gli attori memorizzano i copioni, che dimostrano che essi non imparano il proprio ruolo in modo distaccato, recitando i testi passivamente e in modo ripetitivo. Piuttosto, questi studi hanno dimostrato che un attore cerca di entrare nel proprio personaggio analizzando molto finemente le battute del copione, cercando tra le righe delle indicazioni che lo aiutino a comprendere il carattere da interpretare.

Queste elaborazioni gli permettono poi di ricordare molto precisamente ciò che il personaggio deve dire. Questo è perché tutta l'attenzione è concentrata precisamente sulle parole, dal momento che è proprio nelle parole che si trova la chiave del personaggio. Per dirla in altro modo, l'attore intraprende esattamente il tipo di assimilazione per elaborazione, ideale per ricordare un testo parola per parola. Questo è un buon esempio del fatto che con l'assimilazione per elaborazione si può arrivare a imparare un testo a memoria anche quando questo non era l'obiettivo che ci si prefiggeva in prima istanza.

Attenzione alle inferenze!

Come abbiamo già visto, l'assimilazione per elaborazione aiuta a costruire i ricordi. D'altro canto, però, il fatto che le nostre conoscenze preesistenti abbiano un ruolo così importante nell'assimilazione di un avvenimento può portarci a includervi delle inferenze, cioè ad aggiungere cose che non sono realmente accadute. Queste inferenze possono diventare parte integrante delle nostre memorie e dar luogo a inaccuratezze nel ricordo degli eventi.

Succede, ad esempio, a tutti di aggiungere elementi di inferenza a una frase che abbiamo visto scritta o a una conversazione cui abbiamo partecipato. Si potrebbe, tuttavia, ancora sostenere che in questi casi che in questi casi il nostro ricordo riflette, comunque, accuratamente il modo in cui il nostro cervello si è rappresentato l'evento nel momento in cui esso è accaduto. L'unico problema è che le inferenze che il nostro cervello ha fatto non corrispondono alla realtà.

Come vengono ricostruiti i ricordi

Mi viene in mente una bell’analogia, che fece qualche anno fa lo psicologo Ulrich Neisser, fra il lavoro di ricostruzione di un ricordo e il lavoro di un paleontologo che si appresta a ricostituire un dinosauro sulla base dei resti fossili.

In entrambi i casi abbiamo a disposizione degli elementi vestigiali: dei fossili per il dinosauro e, nel caso della memoria, ciò che resta di un evento, i frammenti di informazione che sono stati trattenuti. Il dinosauro ricostituito è , tuttavia, ben di più dei resti fossili di partenza, poiché la ricostituzione ha fatto appello a tutto ciò che il paleontologo già sapeva sui dinosauri.

Analogamente, ciò che resta di un evento non è identico al ricordo che si ha di tale evento. Il ricordo di un evento si ricostruisce, infatti, a partire dai resti "fossili" che noi raccogliamo, e cui aggiungiamo tutte le conoscenze generali sul modo in cui le cose possono o devono essere andate, oltre che i nostri pregiudizi, i nostri desideri e quant'altro.

Quest'analogia è molto efficace, poiché c'è davvero qualcosa nel passato che vincola i nostri ricordi e che è la base di partenza per ricostruirli. E', dunque, un errore pensare che i ricordi siano identici a ciò che abbiamo tenuto archiviato nel nostro cervello in tutti questi anni.

Gli effetti del contesto

Il principio di specificità delle rappresentazioni fa riferimento a una condizione importante per il recupero dell'informazione. Fondamentalmente il principio sostiene che la probabilità di recuperare il ricordo di un'esperienza passata dipende moltissimo dal modo in cui essa fu memorizzata in origine e dal rapporto fra la rappresentazione di tale esperienza e ciò che si utilizza per provocarne il recupero. Per recuperare la memoria di un'esperienza particolare occorrerà una suggestione collegata sia all'idea che ci si è fatti nel momento in cui ha avuto luogo l'evento, sia al modo in cui si è poi ripensato all'evento.

Un buon esempio di questo fenomeno è illustrato da un esperimento nel quale a una persona vengono mostrate delle frasi da memorizzare. Si tratta di frasi semplici, del tipo "Il pesce ha attaccato il nuotatore." Quindi si va a verificare il ricordo di queste frasi, stimolando la persona con alcune suggestioni.

Questo esperimento ha dimostrato che la suggestione più efficace per far ricordare la frase "Il pesce ha attaccato il nuotatore" è la parola "squalo". Perché proprio "squalo"?

La parola "squalo" è addirittura più efficace di "pesce", nonostante "squalo" non fosse presente nella frase originale, mentre "pesce" lo era. La ragione è che la maggior parte delle persone, di fronte a una frase come "il pesce ha attaccato il nuotatore", compie l'inferenza che si tratti di uno squalo. E' come se i soggetti si fossero immaginati la scena di uno squalo che attaccava un nuotatore. Di conseguenza la suggestione che più si avvicina alla rappresentazione mentale che essi devono avere avuto di tale frase è la parola "squalo".

I ricordi lontani

Che cosa ci dice il principio di specificità delle rappresentazioni sulla possibilità di evocare ricordi lontani? Esso suggerisce che una delle ragioni per cui è difficile ricordare queste esperienze è che la nostra rappresentazione del mondo non è più la stessa di quando eravamo bambini. Ritrovare queste antiche rappresentazioni è diventato difficile. Noi pensiamo al mondo in modo molto diverso, e i nostri antichi ricordi sono incompatibili con il nostro modo di pensare di oggi.

Questo ci porta a un'altra questione interessante, ossia se tutte le nostre esperienze restino per sempre nella nostra memoria, nella attesa di essere evocate, e se a noi manchi solamente lo stimolo giusto per riportarle in superficie. Effettivamente nella nostra memoria sono presenti cumuli di ricordi cui non pensiamo più, e per recuperare uno di questi ricordi "perduti" è sufficiente trovare la suggestione giusta in grado di farlo riaffiorare. Detto questo, penso anche che abbiamo tutte le ragioni di credere che alcune esperienze, certe rappresentazioni, siano completamente scomparse dalla nostra memoria, o si siano attenuate a tal punto che molto probabilmente non saremo mai più in grado di trovare uno stimolo capace di reintegrarle.

Come i ricordi si deformano

Il fatto di ricordare un evento è anche un'occasione per riassimilarlo. Quando recuperiamo un ricordo, il nostro modo di vedere le cose non è più lo stesso di quando l'abbiamo registrato. E ciò che noi andiamo a riarchiviare oggi sarà probabilmente una versione leggermente alterata del ricordo iniziale.

In particolare, se i dettagli sono un po' confusi, noi cerchiamo di ricostruirli, e se qualcuno ci suggerisce come potrebbero essere andate le cose, noi diciamo a noi stessi "Sì, può darsi che sia andata proprio così." Poi rimettiamo in memoria questa versione un po' modificata. La volta successiva che accederemo a questo ricordo non ci verrà più in mente che è stato qualcun altro a dirci che è successa una cosa o un'altra, ma semplicemente ricorderemo il passato in modo leggermente alterato.

Perciò, quando pensiamo alla memoria nel tempo, dobbiamo liberarci di una metafora fuorviante, quella del computer che si limita ad attivare e riporre i file. Dobbiamo renderci conto che ricordare è , al contrario, un processo dinamico, in grado di modificare il contenuto della memoria, soprattutto se siamo esposti a suggestioni che ci possono influenzare.

Come creare dei falsi ricordi

Alcune ricerche dimostrano che certi interrogatori con qualche suggerimento di troppo possono facilmente portare certe persone a crearsi false memorie di cose mai accadute.

Ad esempio, è stato fatto di recente uno studio su ciò che accade quando si pongono delle domande a degli studenti su un evento specifico della loro infanzia, un evento che i loro genitori affermano non sia mai accaduto, ad esempio quando quel clown ha spruzzato la soda addosso a tutti gli invitati alla festa del loro sesto compleanno. Se chiedete ai genitori, essi vi risponderanno: "No, questo non è mai successo". la prima volta gli studenti non si ricorderanno di niente e risponderanno: "No, questo non è mai successo, io non mi ricordo di un clown che mi versa addosso qualcosa al mio quinto o sesto compleanno". Ma se voi insistete a ripetere loro queste domande, vi sarà qualcuno, diciamo un 25-30 per cento delle persone, che a poco, a poco si costruirà un ricordo dettagliato, e a volte anche molto vivo, di quest'evento che non è mai accaduto! E' dunque possibile, proprio in virtù della natura costruttiva del processo di recupero, che le persone si creino dei falsi ricordi.

Perché accade tutto ciò? Come abbiamo potuto vedere, occorre fare più di un tentativo prima che la gente cominci a ricordare degli avvenimenti che non sono mai accaduti. Probabilmente, la prima volta che viene loro posta la domanda, essi ricordano un frammento di un'altra esperienza simile, ma non veramente uguale. La volta successiva, tutto questo sembrerà loro molto più familiare. Cominceranno a pensare: "Può darsi che sia successo davvero qualcosa del genere". Inizieranno a combinare vari frammenti di esperienze diverse, fino ad arrivare a raccontarvi un evento dettagliato che non è mai accaduto.

Ancora una volta, per capire questo genere di fenomeni, dobbiamo abbandonare l'idea che l'azione del ricordare sia semplicemente come puntare un riflettore su degli oggetti della memoria, e comprendere, invece, che noi costruiamo attivamente i nostri ricordi.

La memoria non è come una videocamera

E' molto importante capire che la nostra memoria funziona per assimilazione. Ciò permette di demistificare una credenza molto diffusa, secondo la quale la memoria funzionerebbe come una sorta di videocamera che registra passivamente una serie di immagini del mondo.

Il concetto di assimilazione fa riferimento a un meccanismo molto diverso. La nostra memoria non fa delle riprese cinematografiche di ciò che ci circonda, né registra passivamente quello che accade. Al contrario, essa funziona in maniera costruttiva, servendosi di pezzi di conoscenza che essa già possiede, per mettere elementi diversi del mondo in relazione con i nostri bisogni e i nostri obiettivi.

L'influenza del contesto sul ricordo

A mio avviso, più il tempo passa e più il contesto di ciascun ricordo diventa importante. Un ricordo di qualcosa che è appena accaduto si recupera molto facilmente. Tuttavia, più passa il tempo e più accade che ciò che resta in memoria siano delle briciole frammentarie dell'avvenimento originale. Questo è perché il contesto del ricordo - ad esempio il modo esatto in cui vi si chiede cosa è successo - diventa molto più importante.

Come evolvono i ricordi?

Alcuni dati indicano che la sostanza di un evento resiste meglio dei dettagli. Ciò che tendiamo a trattenere più a lungo dipende da come è stato assimilato inizialmente e dagli stimoli disponibili al momento del recupero. Ad esempio, quando gli attori si concentrano sulle proprie battute alla ricerca di informazioni sul loro personaggio, può darsi che proprio queste informazioni siano le cose che vengono poi conservate nel tempo. Ritengo che ciò che ha la massima probabilità di rimanere in memoria sia oggetto dell'assimilazione elaborativa.

Reti neurali e memoria umana

Le reti neurali hanno fatto il loro ingresso in psicologia solo di recente. Esse esemplificano concretamente alcuni concetti generali, scaturiti dal lavoro sperimentale sulla memoria umana. Ad esempio, nelle reti neurali non c'è nulla che corrisponda a un immagazzinamento esplicito di un'informazione. La memoria è , piuttosto, una distribuzione di attività su tutto un insieme di unità neuronali interconnesse.

Analogamente, l'evocazione di un ricordo avviene con la ricostruzione della sua rappresentazione a partire dalle informazioni presenti nell'ambiente. Questi processi sono molto simili a ciò che noi riteniamo accada effettivamente nella memoria umana e ci permettono di evitare di ricorrere a metafore fuorvianti, come quella che assimila la memoria a una videocamera.

E se non si dimenticasse mai nulla?

Cosa succederebbe se non si dimenticasse mai nulla? Di primo acchito potremmo pensare che sarebbe una cosa molto vantaggiosa: non avremmo più bisogno di scrivere le cose da ricordare e non saremmo più afflitti da problemi di memoria. Ma se ci riflettiamo un po' più a lungo, ci rendiamo conto che in realtà la nostra mente sarebbe piena di dettagli inutili, che normalmente non avremmo alcun motivo di ricordare.

Anni fa Luria, un grande neuropsicologo russo, raccontò un bell'esempio di questo fenomeno. Egli ebbe l'occasione di studiare il caso di un uomo che sembrava avere una memoria virtualmente perfetta per qualsiasi tipo di informazione. In realtà, però, la memoria di quest'uomo era costantemente invasa di dettagli inutili e banali, al punto che egli non era assolutamente in grado di fare alcun tipo di ragionamento elementare o di risolvere semplici problemi.

Deformazione dei ricordi emotivi

I ricordi emotivi, anche se generalmente sono molto precisi, possono comunque essere deformati e dimenticati. Prendiamo ad esempio lo studio di alcuni psicologi che hanno intervistato le persone coinvolte in un terribile evento accaduto qualche anno fa a Chicago, quando un uomo armato tenne queste persone in ostaggio all'interno di una scuola. Gli psicologi hanno scoperto che, sebbene essi ricordassero molti aspetti dell'evento, il loro ricordo non era mai definito.

Ad esempio, i ricordi degli intervistati riguardo al luogo esatto in cui si trovavano nel momento in cui il sequestratore aprì il fuoco cambiavano nel tempo. Così, alcune persone che allora si trovavano a 35 km dalla scuola dichiaravano, invece, di essere stati sul posto. Altri affermavano di trovarsi all'esterno della scuola, mentre, invece, erano all'interno. Questo è un buon esempio di alterazione dei ricordi emotivi.

Ci possiamo vedere nei ricordi?

Quando ci ricordiamo di una scena del passato, certe volte possiamo rivederla sia dalla prospettiva di un osservatore distaccato, sia dalla nostra prospettiva originale del momento in cui si è prodotto l'evento. Nel primo caso si parla di "memoria dell'osservatore" e nel secondo di "memoria di campo". Freud fu tra i primi a notare che nei nostri ricordi siamo in grado di vedere noi stessi.

Sono stati condotti degli studi in cui si domandava a delle persone di figurarsi sia una memoria di campo, sia una memoria dell'osservatore, di alcuni ricordi precisi, e poi di confrontare l'emotività associata all'evento nel momento in cui era accaduto, con l'emotività sentita adesso nel richiamare il ricordo. Il risultato è interessante: la prospettiva utilizzata (di campo o dell'osservatore) in parte influenza la carica emozionale associata al ricordo!

Il ricordo dell'avvenimento ha una maggiore valenza emozionale con la prospettiva di campo che con quella dell'osservatore. Questi risultati confermano che gli aspetti emozionali della memoria hanno una componente ricostruttiva. Se quando ricordiamo un'esperienza emotiva non facessimo altro che leggere una sorta di termometro, indicante il grado di emozione associato all'esperienza, allora la prospettiva utilizzata nel recupero del ricordo non avrebbe alcuna importanza.

Che cos'è il consolidamento?

Il consolidamento è il fenomeno per cui, nonostante la nostra tendenza naturale a dimenticare gli eventi, alcune esperienze sembrano diventare col tempo più resistenti alle perturbazioni e all'oblio.

Un esempio particolarmente convincente su questo soggetto è lo studio triste e toccante di uno scienziato russo, diventato amnesico in seguito all'alcolismo che gli aveva provocato la sindrome di Korsakof. Questa sindrome distrugge la parte interna del lobo temporale e provoca amnesia. Dal momento che questo scienziato aveva scritto la propria autobiografia, alcuni psicologi decisero di fargli alcune domande su delle informazioni che lui stesso aveva riportato nel suo scritto.

Essi scoprirono che la sua memoria per gli eventi avvenuti nell'infanzia era eccellente (quanto meno per quelli riportati nell'autobiografia). Tuttavia non aveva alcun ricordo degli eventi che avevano avuto luogo qualche anno prima che lo colpisse l'amnesia. Questo suggerisce che l'informazione riguardante le esperienze più antiche si fosse consolidata al punto da resistere alle alterazioni della memoria dovute alla lesione cerebrale.

La moderna concezione della memoria

Quando si dice che la memoria è distribuita, si intende che diverse parti della corteccia sono coinvolte nell'elaborazione, nella rappresentazione e nell'immagazzinamento di diversi tipi di informazione. L'attività cerebrale di ricostruzione dei ricordi funziona mettendo diverse parti del cervello in comunicazione l'una con l'altra. Nel cervello non esiste, dunque, un unico sito nel quale si trovi immagazzinato il quadro intero di un evento, in attesa di essere attivato.

Ad esempio, i lobi occipitali possono immagazzinare alcuni aspetti visivi di un episodio; i lobi parietali possono registrare informazioni sugli aspetti spaziali; i lobi temporali possono immagazzinare gli aspetti verbali. Ma tutti questi frammenti di informazione sono archiviati in regioni diverse della corteccia e molti ritengono che la regione medio-temporale, attorno all'ippocampo, funzioni come una sorta di indice in grado di integrare tutte queste componenti distribuite della memoria.

I ricordi possono essere rimossi?

Molti studi cognitivi hanno dimostrato che se si dice a una persona di dimenticare qualcosa, essa può farlo. Si tratta di un fenomeno denominato "oblio orientato". Tutti noi sappiamo, dalla nostra esperienza quotidiana, che quando ci accadono delle cose spiacevoli, facciamo del nostro meglio per non pensarci. Se ripetere mentalmente o ripensare a un evento contribuiscono alla probabilità che noi ci ricorderemo di tale evento in futuro, non pensare, né parlare di un evento riduce la medesima probabilità. A conferma di questo fenomeno esistono vari risultati sperimentali.

Si può definire rimozione l'allontanamento cosciente dell'attenzione da eventi spiacevoli, in modo che sia più difficile ricordarli. Questo è esattamente il modo in cui in cui Freud aveva parlato della rimozione al principio della sua carriera. In seguito, tuttavia, egli usò il termine in un'accezione molto ampia, per indicare processi di difesa che agiscono automaticamente per escludere dalla coscienza tutto ciò che costituisce una minaccia.

Alcune moderne versioni del concetto di rimozione affermano addirittura che essa possa operare così efficacemente da escludere eventi traumatici dalla coscienza quasi nel momento stesso in cui essi si verificano, anche se si ripetono più volte. Ad esempio, qualcuno potrebbe dimenticare completamente tutta una serie di eventi orribili avvenuti ripetutamente nella sua vita e recuperare quell'informazione solo molti anni dopo. Tuttavia, quest'ultima forma di rimozione non ha mai ricevuto alcuna conferma nel campo delle neuroscienze cognitive.

La memoria del dolore

E' stato dimostrato che i fattori operanti al momento della ricostruzione della memoria possono contribuire a ciò che effettivamente ricordiamo. Ad esempio, nelle persone afflitte da dolori cronici, la memoria degli episodi di dolore del passato è determinata sia dal loro stato attuale di sofferenza, sia dal dolore sperimentato in precedenza. Perciò, i fattori presenti nel nostro ambiente abituale possono avere una profonda influenza sul nostro modo di ricostruire i ricordi del passato, anche se non ne siamo coscienti.

Un esempio incredibile!

Molti anni fa alcuni psicologi della Carnegie Mellon University si domandarono se fosse possibile memorizzare, con la pratica, sequenze di più di 7 numeri o cifre. Essi chiesero a due studenti universitari di leggere ripetutamente delle sequenze di cifre e di cercare di memorizzarle. Dopo le prime due settimane di esercizio, non si era rilevato alcun progresso e uno dei due studenti abbandonò l'esperimento.

L'altro studente, tuttavia, di cui conosciamo solo le iniziali S.F., dopo due settimane cominciò a migliorare sensibilmente. Egli divenne dapprima capace di ricordare 15 cifre consecutive per volta, poi 20 e infine 30.Qualche mese più tardi era in grado di memorizzarne 40 e poi 50. E dopo 6-8 mesi di esercizio riusciva a ricordare nell'ordine corretto fino a 80 cifre per volta!

Che cosa era accaduto? S.F. faceva parte della squadra di atletica di Carnegie Mellon e possedeva una buona conoscenza dei tempi delle gare di corsa e del loro significato. Perciò S.F. cominciò a mettere in relazione le cifre da ricordare con i tempi delle gare d'atletica a lui familiari. Così, quando si trovava di fronte una serie di cifre come 4.0.9.3., diceva a se stesso: "Bene, questo è un 4 minuti e 9,3 secondi sulla distanza di un miglio: sarebbe un ottimo tempo in una giornata di vento".

In altre parole, S.F. convertiva i numeri da ricordare in blocchi di informazioni significative, usando l'assimilazione per elaborazione che gli consentiva di aumentare sensibilmente la propria capacità di memorizzazione. Tuttavia, non aveva migliorato la "muscolatura" generale della propria memoria, poiché , sebbene fosse in grado di ricordare 80 cifre per volta, rimaneva incapace di memorizzare più di 7 lettere consecutive. In realtà, egli aveva solo messo a punto una strategia complessa di assimilazione per elaborazione, specifica per i numeri.

(John Anderson)

Quali informazioni sono davvero importanti?

Verosimilmente, nel corso di una vita gli esseri umani incontrano e memorizzano milioni di dati. Con questa grande quantità d’informazioni, essi si trovano ad affrontare un problema comune a molti sistemi: come archiviare grandi quantità di dati. In questo gli esseri umani operano come i computer, che cercano di archiviare grandi banche-dati, o come le biblioteche, che conservano enormi quantità di volumi. Ciò comporta un modo di operare selettivo, in grado di decidere quali informazioni debbano essere più facilmente disponibili, e quali informazioni debbano essere meno facilmente disponibili.

Le biblioteche, ad esempio, dispongono sugli scaffali più in vista i libri più richiesti, confinano nei depositi i libri meno richiesti, e si disfano di volumi che ritengono non verranno più utilizzati. Analogamente nei computer l'informazione viene archiviata in memorie-cache, in memorie magnetiche, in dischi o nastri, secondo il giudizio dell'operatore sull'utilità di tale informazione.

Ciò che distingue la memoria umana dagli altri sistemi informativi è il livello di sofisticazione nel prendere questo tipo di decisioni.

Apprendere e dimenticare nella mente

La memoria umana obbedisce a due leggi fondamentali, chiamate principi di potenza, che regolano una l'apprendimento e l'altra l'oblio.

Secondo il principio di potenza dell'apprendimento, più si utilizza un'informazione conservata nella memoria e più è facile ricordare tale informazione. Se, ad esempio, si misura la rapidità d’accesso ad un ricordo specifico, il principio di potenza postula che la variabile misurata cresca come la potenza della frequenza d’utilizzo di tale informazione.

Proprio per questo principio è più facile ricordare il nome del presidente degli Stati Uniti rispetto a quello del secondo uomo che ha messo piede sulla Luna.

Secondo la legge che regola l'oblio, più lungo è il tempo in cui non ci si è serviti di un'informazione e più è difficile ricordarsi di essa.

Ad esempio, più tempo è passato da quando si è persa di vista una persona e più è difficile ricordarne il nome quando la si rincontra.

Bisogna, a questo punto, chiedersi perché sia l'apprendimento che l'oblio obbediscano entrambi a questi principi di potenza.

Numerosi esperimenti dimostrano che la memoria conserva meglio le informazioni se la loro assimilazione è ripartita piuttosto che concentrata nel tempo. Ad esempio, se manteniamo costanti le ore di studio totali, che però in un caso sono tutte concentrate in un breve periodo, mentre nell'altro caso sono più distribuite, osserviamo che la materia studiata in modo concentrato viene dimenticata molto più rapidamente di quella assimilata con un'applicazione più distribuita. Nel secondo caso la prestazione iniziale è generalmente peggiore, ma la velocità con cui si dimentica la materia è molto più bassa. Pertanto, l'esercizio distribuito nel tempo conduce spesso ad una situazione in cui la prestazione mnemonica immediata è meno brillante, ma quella a lungo termine è migliore.

Questo è proprio uno degli aspetti negativi del sistema d’apprendimento scolastico: gli studenti pianificano il loro studio spesso in vista di un esame, perché, effettivamente, la cosa migliore per dare la prestazione ottimale è concentrare tutto l'esercizio appena prima della prova. Questo è, però, il metodo migliore per dimenticare tutto subito dopo l'esame. Purtroppo non siamo ancora riusciti a trovare un sistema che incoraggi gli studenti a distribuire il lavoro in un lungo arco di tempo.

Che cosa dimentichiamo?

E' molto facile memorizzare nuove informazioni, come ricordare quello che si è fatto 5 minuti fa. Le informazioni nella memoria dichiarativa si dimenticano, però, molto rapidamente, perché se non vengono utilizzate vengono perdute molto rapidamente.

La probabilità di ritenere un'informazione nella memoria dichiarativa dipende sia dal tempo passato da quando l'abbiamo incontrata per la prima volta, sia dalla frequenza con cui la usiamo. Fondamentalmente la probabilità e la velocità di accesso ad un ricordo sono funzione sia della frequenza che dell'attualità dell'utilizzo di tale ricordo.

Diversamente da ciò che accade con la memoria dichiarativa, per ritenere informazioni nella memoria procedurale occorre moltissimo esercizio. D'altra parte, una volta che le informazioni sono state registrate nella memoria procedurale, una qualsiasi perdita permanente di dati è un fenomeno molto raro. Ad esempio, la gente recupera spesso capacità rimaste inutilizzate per anni. Generalmente all'inizio si osserva un "ritardo da riscaldamento", per questo per i primi 5 o 10 minuti ci può essere un deficit nella performance. Ma dopo 10 o 15 minuti di tentativi, le persone si ritrovano generalmente a circa lo stesso livello, se non proprio il medesimo, di qualche anno prima. La memoria procedurale non sembra, dunque, soggetta alle stesse perdite di quella dichiarativa.

Tre modi di dimenticare

E' interessante verificare se noi dimentichiamo veramente le cose, o se esse diventano semplicemente sempre meno attive, al punto da essere completamente inaccessibili. Vi sono almeno tre meccanismi che causano l'oblio.

Il primo è il passare del tempo, che provoca la diminuzione della forza dei ricordi e delle loro associazioni.

Nel secondo meccanismo, nuove associazioni vengono col tempo a interferire con associazioni esistenti, rendendo così meno attivi i ricordi basati su di esse.

Il terzo meccanismo consiste nella perdita di accesso a elementi "chiave" che utilizziamo per attivare i nostri ricordi. Può, ad esempio, succedere di imparare un fatto particolare in un certo contesto, per cui quando non si è più in quel determinato contesto non si è più in grado di ricordare quel fatto. Succede quasi a tutti di ritornare in un ambiente o in un quartiere dopo 10 o 15 anni di assenza e di venire sommersi da un flusso di ricordi. Un'interpretazione di questo fenomeno è che questi ricordi siano associati ad elementi appartenenti a quel particolare contesto, e così, solo quando si fa ritorno a quel contesto, si risvegliano elementi e ricordi associati.

Vi sono, dunque, almeno tre processi attraverso i quali dimentichiamo: il decadimento della forza di associazione dei ricordi, l'acquisizione di nuovi ricordi interferenti, e la perdita di elementi contestuali quando si cambia contesto.

Numerosi esperimenti dimostrano che la memoria conserva meglio le informazioni se la loro assimilazione è ripartita piuttosto che concentrata nel tempo. Ad esempio, se manteniamo costanti le ore di studio totali, che però in un caso sono tutte concentrate in un breve periodo di tempo, mentre nell'altro caso sono più distribuite, osserviamo che la materia studiata in modo concentrato viene dimenticata molto più rapidamente di quella assimilata con un'applicazione più distribuita. Nel secondo caso la prestazione iniziale è generalmente peggiore, ma la velocità con cui si dimentica la materia è molto più bassa. Pertanto, l'esercizio distribuito nel tempo conduce spesso a una situazione in cui la prestazione mnemonica immediata è meno brillante, ma quella a lungo termine è migliore.

Questo è proprio uno degli aspetti negativi del sistema di apprendimento scolastico: gli studenti pianificano il loro studio quasi sempre in vista di un esame, perché, effettivamente, la cosa migliore per dare la prestazione ottimale è concentrare tutto l'esercizio appena prima della prova. Questo è, però, il metodo migliore per dimenticare tutto subito dopo l'esame. Purtroppo non siamo ancora riusciti a trovare un sistema che incoraggi gli studenti a distribuire il lavoro in un lungo arco di tempo.

Per non dimenticare

Per non dimenticare non c'è niente di più efficace che studiare. La ritenzione a lungo termine di conoscenze dipende moltissimo dal tempo dedicato alla loro assimilazione. Questo fenomeno è stato dimostrato da un gran numero di esperimenti, nei quali si misura la ritenzione in memoria di un certo tipo di conoscenza dichiarativa e in genere si costata che, col tempo, la capacità di ritenzione diminuisce.

In tutti gli esperimenti di cui sto parlando la variabile principale è, essenzialmente, la quantità di esercizio. E ciò che emerge è che in principio ciò non comporta alcuna differenza, poiché inizialmente la prestazione è perfetta in tutti i casi. Il beneficio apportato dell'esercizio supplementare si rivela, infatti, solo in tempi successivi, quando si osserva che le conoscenze assimilate con maggiore esercizio sono quelle che vengono dimenticate meno rapidamente.

Com'è organizzata l'intelligenza?

Negli ultimi vent'anni ho sviluppato una teoria dell'intelligenza, che ho chiamato ACT e che ha l'obiettivo di spiegare come il pensiero umano possa dare luogo a comportamenti intelligenti e finalizzati.

Il mio approccio all'intelligenza umana può essere definito riduzionista, anche se io non cerco di ridurre la struttura della mente a quella del cervello. Le mie ricerche mirano, piuttosto, a ridurre processi cognitivi complessi nelle loro operazioni elementari e a identificare le conoscenze di base richieste da ciascuna di queste operazioni.

L'architettura del pensiero

Il problema principale nella realizzazione di un'azione intelligente è quello di integrare le conoscenze disponibili e di trovare quelle appropriate alla situazione specifica.

Fondamentalmente, ogni essere umano ha a disposizione due fonti di informazione. La prima è costituita dall'ambiente esterno, che, tuttavia, contiene una quantità enorme di informazioni, per cui è necessario un processo di attenzione selettiva in grado di discriminare le informazioni davvero pertinenti ai nostri obiettivi.

Naturalmente, però, l'ambiente esterno non è la nostra unica fonte di informazione. Noi abbiamo anche una mente, anch'essa contenente moltissimi dati, che formano quella che chiamiamo conoscenza "dichiarativa". Poiché anche la mente contiene, dunque, moltissime informazioni, a seconda dei nostri obiettivi contingenti attiveremo selettivamente i dati pertinenti.

Queste sono le due fonti di informazione di cui disponiamo per decidere che cosa fare per risolvere un problema. Tuttavia, ci occorre anche una terza forma di conoscenza, quella che chiamiamo conoscenza procedurale. Essa consiste di un insieme di regole che ci dicono che cosa fare in relazione ai nostri obiettivi, allo stato della realtà esterna e alle informazioni attivate nella nostra memoria dichiarativa.

Il filo del pensiero umano consiste essenzialmente nell'esecuzione di una sequenza di queste regole, al ritmo di un'esecuzione ogni 250 millisecondi circa. In questo intervallo di tempo il sistema esamina l'informazione di cui dispone e decide l'azione successiva; quest'ultima potrebbe consistere nello spostare la propria attenzione su un altro oggetto, nell'attivare una diversa conoscenza nella memoria dichiarativa, nel modificare i propri obiettivi, nell'aggiungere conoscenze alla memoria dichiarativa, oppure nell'eseguire un'azione qualsiasi, come digitare una lettera particolare quando si sta componendo un testo. E ogni 250 millisecondi sarà attivata un'altra regola, che elaborerà la rappresentazione aggiornata dello stato del sistema.

La conoscenza dichiarativa

La memoria dichiarativa contiene tutte le nostre conoscenze attuali, come sapere che in aritmetica 3+4=7 o che Bill Clinton è l'attuale presidente degli Stati Uniti. Questa conoscenza è organizzata in strutture relativamente piccole che potremmo chiamare "blocchi". Un blocco è, essenzialmente, una relazione fra un insieme di elementi; ad esempio, il blocco codificante "3+4=7" mette in relazione le unità "4", "3" e "7" in una particolare struttura. Analogamente, il blocco "Bill Clinton è il presidente degli Stati Uniti" connette "Clinton" e "Stati Uniti", attraverso la relazione "è il presidente degli". Tutta la nostra conoscenza tende a essere incapsulata in queste piccole unità che codificano la relazione fra un certo numero di elementi di base.

La conoscenza dichiarativa può essere rappresentata in termini di reti semantiche. Prendiamo, ad esempio, il blocco "Clinton è il presidente degli Stati Uniti": lo si può rappresentare con un ovale, che collega con delle linee i vari elementi del blocco. Abbiamo così "Clinton" come soggetto, "è il presidente degli" come relazione e "Stati Uniti" come oggetto.

Possiamo, dunque, considerare la conoscenza dichiarativa come un insieme di elementi collegati, rappresentabili graficamente, e la memoria dichiarativa come un'immensa rete di elementi interconnessi. All'elemento "Clinton" si possono, ad esempio, collegare altri dati, come "è sposato con Hillary". In ogni momento, solo un piccolo sottoinsieme di queste informazioni è rilevante: ad esempio, se state ascoltando un notiziario e sentite parlare di Clinton, molto probabilmente attiverete le conoscenze politiche, ma non quelle sulla sua vita privata.

La conoscenza è collegata agli obiettivi

In ogni particolare situazione noi abbiamo, essenzialmente, un obiettivo. Ed è quell'obiettivo a determinare l'oggetto della nostra attenzione. L'attivazione comincia poi a diffondersi dagli elementi sui quali siamo concentrati, ad altri elementi, collegati ai primi nella memoria dichiarativa; complessivamente essi rappresentano la conoscenza alla quale abbiamo accesso in quel particolare momento per decidere come agire.

Quando, invece, cambiamo obiettivo introduciamo nuove fonti di attivazione nella nostra memoria dichiarativa.

E così, all'interno di questa immensa rete di dati che è la nostra memoria dichiarativa, si attivano le conoscenze collegate al nostro obiettivo del momento.

Condizione ... Azione!

La conoscenza procedurale è costituita da un insieme di regole, nel quale ciascuna di esse rappresenta uno specifico comportamento possibile. Queste regole rispondono a tre elementi: al nostro obiettivo contingente, all'informazione attualmente attivata nella memoria dichiarativa a lungo termine, e agli elementi dell'ambiente ai quali stiamo prestando attenzione.

Le regole possono farci compiere diverse azioni, come modificare i nostri obiettivi. Può darsi che il nostro obiettivo originale fosse quello di attraversare un incrocio, ma avendolo trovato bloccato, abbiamo cambiato idea e abbiamo preso un'altra direzione.

Le regole possono anche controllare l'esecuzione di particolari azioni motorie. Ad esempio, quando decidiamo di attraversare un incrocio (sempre che non sia bloccato), nella nostra macchinano eseguiamo una sequenza di azioni per cui innestiamo la prima e procediamo in avanti.

Una terza cosa che le regole possono compiere è il riconoscimento del raggiungimento dell'obiettivo e, in caso positivo, la sua eliminazione. Così, quando finalmente arriviamo all'aeroporto, una regola riconoscer che quel particolare obiettivo è stato soddisfatto e, per usare il linguaggio delle scienze cognitive, lo "far saltare". In questo modo ci possiamo concentrare sull'obiettivo successivo, che può essere, ad esempio, parcheggiare la macchina.

La conoscenza procedurale è, dunque, costituita da un gran numero di queste regole, collegate fra loro dall'istituzione di obiettivi e sotto-obiettivi. Il processo complessivo mediante il quale si esprime l'intelligenza umana è essenzialmente una sequenza di queste regole, ciascuna delle quali risponde alla situazione contingente, alle conoscenze disponibili e al nostro obiettivo corrente.

Ogni regola è un quanto di coscienza

Le regole rappresentano le esperienze acquisite nella risoluzione di problemi e nell'esecuzione di compiti particolari. Nel nostro laboratorio abbiamo dimostrato che se qualcuno ripete un'operazione mentale un centinaio di volte, si forma una nuova regola che gli permette di non dovere più effettuare tale operazione in modo cosciente. Le regole sono acquisite essenzialmente durante l'esecuzione di un compito e costituiscono la sintesi dei vari passaggi del compito. Esse sono, quindi, delle rappresentazioni concise ed efficaci delle procedure da seguire nella soluzione di un problema.

Prendiamo l'esempio della dattilografia: un esempio del processo di proceduralizzazione ha luogo quando ci si pone l'obiettivo di digitare una lettera particolare, come la "A". Le prime volte bisogna recuperare dalla memoria dichiarativa una rappresentazione della tastiera e della posizione occupata su di essa dalla "A", e quindi stabilire come premere il tasto che si trova in quella particolare posizione. Ma quando la capacità di dattilografare viene proceduralizzata, l'individuo sviluppa una regola che dice:

"SE il mio obiettivo è quello di digitare una 'A', ALLORA muoverò il dito su quel particolare tasto."

E' stata così aggirata la necessità di recuperare l'informazione relativa alla posizione dei tasti sulla tastiera, che probabilmente era registrata nella memoria dichiarativa.

Il balletto dei nostri obiettivi

Ogni quarto di secondo viene applicata una nuova regola, che risponde al nostro stato attuale di conoscenza, ai nostri obiettivi correnti e alla situazione contingente.

Possiamo considerare tutta la nostra vita come governata da una gerarchia di obiettivi. Tanto per fare un esempio, l'obiettivo potrebbe essere "andare all'aeroporto", e per raggiungerlo possiamo seguire varie regole. Potremmo decidere di prendere un taxi o la metropolitana, oppure stabilire di andare in macchina. Qualunque sia il mezzo scelto, esso implica alcuni sotto-obiettivi. Se, ad esempio, decidiamo di raggiungere la nostra meta in auto, dovremo in primo luogo andare a prendere l'auto, quindi guidare fino all'aeroporto e infine parcheggiare. Ciascuno di questi compiti può implicare una serie ulteriore di sotto-obiettivi. Sicuramente la guida fino all'aeroporto comporta una notevole attività di programmazione del percorso, durante la quale selezioneremo strade specifiche. Inoltre, ogni obiettivo può essere, a seconda delle circostanze, scomposto in nuovi obiettivi intermedi. Ad esempio, possiamo avere previsto di prendere una certa strada, ma può darsi che arrivando a un incrocio la troviamo bloccata. In tal caso dovremo avere delle regole che ci dicano che cosa fare in questa particolare situazione per pianificare una deviazione. Questi obiettivi possono, a loro volta, scomporsi in sotto-obiettivi, fino a controllare la scelta della particolare marcia da innestare in un particolare momento della guida.

Sono stati compiuti diversi studi, che hanno analizzato compiti relativamente complessi e verificato la struttura di regole e obiettivi che consentono una soluzione integrata e finalizzata del problema in questione.

Regole e competenze

Si può, dunque, studiare il pensiero umano conducendo un'analisi "scompositiva", grazie alla quale una competenza complessa è scomposta in una serie di conoscenze e unità elementari. Questo solleva un interrogativo: "In che modo queste conoscenze e unità elementari si organizzano per dare luogo a comportamenti coerenti e finalizzati?"

Questa è di fatto la funzione fondamentale della gerarchia degli obiettivi: essa organizza e struttura il sistema, e decide quali conoscenze debbano essere usate in ogni dato momento.

Questa funzione diviene evidente quando si osserva l'esecuzione di compiti complessi. La competenza che abbiamo analizzato più approfonditamente è la programmazione dei computer. Nei nostri esperimenti osserviamo, ad esempio, degli studenti mentre scrivono programmi informatici, un'attività che consiste essenzialmente nel digitare righe e righe di codici. Tra le altre cose, siamo andati a misurare la loro capacità di scrivere con successo righe di codici di un programma specifico. Nel periodo di apprendimento, se si analizza la percentuale di righe scritte in modo corretto o, meglio ancora, il numero di errori fatti, si trovano delle curve come queste, dalle quali non emerge alcuna tendenza evidente. In una riga se la cavano bene, ma in quella successiva fanno un errore: sembrerebbe un andamento completamente caotico! Se, tuttavia, si effettua un'analisi cognitiva di questi risultati, andando a vedere tutte le righe di codice in cui la stessa regola di programmazione viene applicata, si vede dove la regola è stata utilizzata la prima volta, dove la seconda, e così via. In altre parole, si osserva che per ciascuna regola di programmazione lo studente segue, di fatto, curve di apprendimento molto sistematiche. D'altra parte, per programmare bisogna imparare centinaia di regole, e quindi dall'analisi del processo globale di apprendimento si ottiene un quadro molto caotico.

Credo che forse l'elemento più forte, a sostegno del fatto che le regole siano le componenti fondamentali di una qualsiasi competenza, sia questa "sistematicità" che si osserva quando si segue il processo di apprendimento a livello di regole individuali alla base di una competenza complessa.

Quante regole per una competenza?

E' interessante chiedersi quante regole siano alla base di ciascuna competenza. In parte questo dipende dal livello di competenze dell'individuo. Per avere una qualche abilità rudimentale in un determinato campo, probabilmente basta dominare qualche centinaio di regole. Mentre è plausibile supporre che, in un corso semestrale di matematica, uno studente apprenda qualcosa come un migliaio di nuove regole per risolvere nuovi problemi. E' quindi verosimile che l'apprendimento di una qualunque competenza che richieda un periodo di tempo analogo (un corso semestrale corrisponde a circa un centinaio di ore di studio) possa portare ad acquisire al massimo un migliaio di regole. Ma chi investe solo qualche centinaio di ore nell'acquisizione di una competenza in realtà non impara gran che!

Per diventare davvero competenti in un particolare campo sono necessarie non centinaia, ma migliaia di ore di esercizio. Il numero di regole assimilate durante queste migliaia di ore è proporzionalmente maggiore a seconda del numero di casi particolari che l'individuo non aveva acquisito da principiante. E', dunque, ragionevole ritenere che un principiante utilizzi un numero di regole nell'ordine delle centinaia, mentre un esperto ne abbia a disposizione migliaia.

Se si vanno ad analizzare abilità in cui le persone sono davvero competenti, ad esempio il linguaggio, al cui apprendimento i bambini dedicano dieci ore al giorno per dieci anni di vita, si può stimare che alla base della loro padronanza ci siano non meno di alcune decine di migliaia di regole.

A che cosa serve la conoscenza dichiarativa?

La conoscenza dichiarativa contiene informazioni che possono essere riportate in modo esplicito. Una domanda interessante consiste nel chiedersi perché dovremmo essere in grado di riferire le nostre conoscenze. Qual è il valore funzionale della conoscenza dichiarativa?

Io credo che una funzione fondamentale della comunicazione della conoscenza sia quella dell'istruzione: se abbiamo questa capacità di riferire la nostra conoscenza è per essere in grado di comunicare informazioni ad altri membri della nostra specie, compiendo, così, una parte essenziale del processo educativo. Uno degli aspetti unici e peculiari della specie umana è l'elevata misura in cui possiamo essere istruiti: non esiste, infatti, alcuna altra specie che abbia nulla di simile ai sistemi di istruzione formale e informale per cui i bambini apprendono dagli adulti.

Le informazioni che si desidera comunicare in un contesto educativo sono facilmente verificabili. L'informazione dichiarativa risponde, infatti, ai requisiti di una descrizione dell'ambiente: quando uno dice che Clinton è il presidente degli Stati Uniti, o che 3+4=7, è possibile verificare se ciò è vero oppure No.

Io credo che il solo tipo di informazione appropriato per l'istruzione sia quello che siamo in grado di comunicare; la sola informazione appropriata per l'istruzione è, infatti, quella che chi impara può verificare esternamente, in modo da evitare, prima di tutto, di essere ingannato da chi sta trasmettendo il sapere. Perciò, nella comunicazione, la conoscenza di cui possiamo fidarci è relativamente poca, ed è comunque solo parte di quella dichiarativa.

Come si attiva la conoscenza dichiarativa?

Un'ampia serie di esperimenti dimostra che abbiamo accesso più rapido alle informazioni connesse e semanticamente associate a quelle che stiamo elaborando in quel momento. Per fare un esempio preciso, se uno ha appena letto la parola "dottore", riconoscer più rapidamente la parola "infermiera" e altre collegate.

Di fatto, sembra che il sistema della memoria umana sia costantemente impegnato in primo luogo a valutare le informazioni pertinenti ai nostri obiettivi, e in secondo luogo a metterli in primo piano, rendendoli così più disponibili. Vi sono esperimenti che dimostrano che, se noi sentiamo una parola potenzialmente ambigua, ad esempio "cimice", che può indicare un insetto o una microspia, inizialmente verranno rese disponibili informazioni appropriate a entrambe le accezioni.

Tuttavia, non appena il senso del discorso determinerà che il significato appropriato è quello di "insetto", tutta l'informazione legata al significato di "microspia" della parola "cimice" verrà disattivata e diventerà addirittura meno attiva di qualsiasi altra informazione. Tutto ciò avviene in un arco di tempo di circa mezzo secondo.

La conoscenza procedurale è inconscia

Noi non siamo consapevoli di nessuna delle regole che usiamo; la conoscenza custodita nella memoria procedurale è interamente implicita. Le persone sono consapevoli della conoscenza dichiarativa, ma non hanno alcun accesso alla conoscenza grazie alla quale agiscono. Un buon esempio è quello della dattilografia: quando una persona impara a digitare, memorizza la rappresentazione schematica della tastiera, affidandosi alla memoria dichiarativa, e così un dattilografo principiante è in genere in grado di disegnare la tastiera indicando la posizione dei diversi tasti.

I dattilografi esperti, invece, non sanno disegnare la tastiera: il solo modo in cui possono dire dove si trova un tasto è quello di immaginarsi impegnati a digitare una parola contenente quella lettera particolare, e vedere dove vanno le dita. Per loro, l'unica via di accesso a quella conoscenza è attraverso l'esecuzione pratica.

Che cosa rende unica la specie umana?

Ciò che probabilmente distingue gli esseri umani dagli altri primati è il linguaggio e l'istruzione. In effetti, è stato affermato che l'uomo si differenzia dagli altri primati per la durata del periodo infantile. Rispetto agli altri primati, infatti, lo stadio infantile della specie umana rappresenta una porzione di vita più lunga. La ragione di ciò sembrerebbe risiedere nel fatto che gli esseri umani devono essere istruiti, e quindi restano nello stadio giovanile per un periodo molto lungo, al fine di poter ricevere l'educazione necessaria.

Certamente, nella società moderna molte persone investono nella propria formazione anche trent'anni di vita. Anche nelle società primitive, tuttavia, vi è un periodo di circa quindici anni nel corso del quale l'individuo riceve un'educazione che, sebbene non sia formale, è una sorta di apprendistato intensivo, mirato a trasmettere le conoscenze di quella particolare comunità.

In questi tipi di trasmissione della conoscenza il linguaggio gioca un ruolo chiave. Credo che sia proprio la particolare combinazione di linguaggio e istruzione a mettere gli esseri umani in condizione di superare gli altri primati dal punto di vista cognitivo. Ritengo esistano prove abbastanza convincenti del fatto che un bambino piccolo non sia molto diverso, a livello cognitivo, da un primate: è l'accumulo di conoscenze che egli acquisisce dai genitori a consentirgli di distaccarsi dai piccoli delle altre specie e di diventare quello che noi consideriamo un essere umano intelligente.

Perché l'apprendimento richiede tempo?

Le nuove regole sembrano venire acquisite solo dopo averne sperimentato l'utilità e l'efficacia in numerose condizioni diverse. In altre parole la mente, quando deve decidere se aggiungere nuove regole di comportamento, sembra assumere un atteggiamento conservatore. Questo dipende dal fatto che la mente è conscia di perdere, una volta inserite queste regole nel sistema, una parte del proprio controllo sull'intelligenza, e quindi vuole essere certa che si tratti effettivamente di regole utili.

Nessuna eccezione!

Per quanto ne so, non esistono vere eccezioni al principio di potenza che descrive l'apprendimento. Il carattere qualitativo di questa funzione sembra valere in tutti i campi: con la pratica si ha un miglioramento continuo, che, tuttavia, è molto rapido all'inizio, ma poi rallenta.

Di fatto, si assiste a un processo molto rapido di riduzione del profitto. Pertanto, continuare a progredire spesso richiede molto più sforzo dell'iniziare a imparare qualcosa. Ben presto, infatti, si raggiunge un punto in cui il costo del progresso non giustifica più la quantità di esercizio richiesta.

Perfino Mozart doveva esercitarsi.

La storia di Mozart è veramente molto interessante: poiché si ritiene che abbia dimostrato il proprio genio musicale in giovanissima età, Mozart viene spesso presentato come un esempio per confutare la regola, secondo la quale nessuno può raggiungere una competenza da fuoriclasse in un qualsiasi ambito senza un minimo di dieci anni di esercizio.

In realtà, l'analisi della biografia di Mozart non confuta, ma conferma quella regola. Egli cominciò la sua carriera di musicista in tenera età, in un'epoca in cui si credeva che la competenza musicale fosse in larga misura frutto di ispirazione, e non qualcosa da esercitare. Nella sua generazione Mozart fu un caso pressoché unico, dal momento che suo padre lavorò moltissimo per guidare il suo sviluppo musicale, discostandosi, così, dall'uso comune all'epoca di non dare ai bambini un'accurata educazione musicale.

Le prime composizioni di Mozart, per quanto possano essere di interesse storico e molto apprezzabili se si considera la giovanissima età dell'autore, non sono davvero dei capolavori. Sono soprattutto le opere successive, composte dopo che egli aveva passato più di dieci anni a fare musica, a essere ascoltate ancora oggi e ad averlo reso veramente famoso.

Velocità di apprendimento

Nuove informazioni possono essere aggiunte alla memoria dichiarativa molto rapidamente. Ad esempio, se ascoltando il telegiornale sentiamo dire che in Canada è stato eletto un nuovo Primo Ministro, un istante dopo abbiamo acquisito quella particolare conoscenza. Questo è in netto contrasto con la velocità alla quale le nuove conoscenze possono essere aggiunte alla memoria procedurale. In tal caso, infatti, è stato dimostrato che occorrono circa 100 tentativi prima che una nuova regola possa essere introdotta nell'insieme procedurale.

Come i blocchi collegano la conoscenza?

La formazione dei "blocchi" in genere si riferisce alla creazione di unità di conoscenza più ampie, a loro volta contenenti conoscenza, e che svolgono la funzione precedentemente assolta da molteplici unità. La formazione dei blocchi ha luogo sia nella memoria dichiarativa (la memoria per i fatti e le cose), che in quella procedurale (la memoria per le azioni e le competenze).

Nella memoria dichiarativa la creazione di blocchi ha luogo legando piccole unità di conoscenza in modo da formare unità più ampie. Compiti come il gioco degli scacchi richiedono essenzialmente l'accesso a insiemi organizzati di conoscenze adeguate. La formazione dei blocchi consente di richiamare un maggior numero di frammenti di conoscenza importanti per ciascun compito particolare.

Nella memoria procedurale, la formazione dei blocchi ha luogo prendendo una serie di regole che si applicano successivamente e costruendo, a partire da quelle, una regola più ampia che copra tutta l'estensione di quelle individuali. Questo contribuisce allo sviluppo della competenza, in quanto ora l'individuo è essenzialmente in grado di risolvere un problema ricorrendo a meno regole. Questo è vero soprattutto in campi nei quali non c'è un grande coinvolgimento cognitivo.

Il futuro delle scienze cognitive

Io credo che le scienze cognitive si ritroveranno sempre più concentrate su singoli passaggi operati dall'intelligenza umana, ciascuno della durata di circa un quarto di secondo. Vedremo le neuroscienze cognitive impegnarsi nel tentativo di comprendere che cosa ci sia dietro a quei 250 millisecondi, mentre in altre aree delle scienze cognitive assisteremo al moltiplicarsi degli sforzi per comprendere come quei 250 millisecondi di pensiero riescano a organizzarsi in un'attività di risoluzione di problemi più complessa e coerente.

Le emozioni stabiliscono i nostri obiettivi

Le emozioni esercitano moltissimi effetti sul nostro apparato cognitivo, e uno dei loro ruoli è quello di stabilire gli obiettivi che vogliamo raggiungere.

I tre stadi dell'acquisizione di un'abilità

Generalmente quando si acquisisce un'abilità, si distinguono tre fasi di natura qualitativa: quella cognitiva, quella associativa e quella autonoma.

La fase cognitiva è essenzialmente quella nella quale la competenza si acquisisce in modo esplicito: all'inizio abbiamo a disposizione una descrizione esplicita di ciò che dobbiamo fare, ad esempio un insieme di istruzioni o di esempi che illustrano come risolvere un problema, e con questo materiale tentiamo coscientemente, molto laboriosamente, di tradurre le istruzioni esplicite in azioni e di portare a termine il compito. In questa fase spesso si osserva che le persone ripassano spontaneamente le istruzioni nello stesso tempo in cui svolgono il compito.

Ad esempio, ricordo che quando provai per la prima volta a guidare un'auto con le marce, dovevo ripetere fra me tutti i passaggi per cambiare, e lo facevo coscientemente, dicendo a me stesso: "Visto che voglio cambiare marcia, ora disinserisco la frizione, cambio la marcia, reinserisco la frizione e quindi metto il piede sull'acceleratore", cioè seguivo la procedura recitando a me stesso le istruzioni. Dunque, la fase cognitiva è spesso come seguire passo, passo le istruzioni di una "ricetta", ripetendo a voce alta la procedura che dobbiamo eseguire.

Con la ripetizione e l'esercizio passiamo poi alla fase associativa, che secondo me è quella in cui nel nostro cervello vengono create le rappresentazioni che consentono di eseguire il compito senza dover ripetere verbalmente e coscientemente la procedura da eseguire. Quindi, la nostra prestazione diventa molto più fluida. In questa fase si assiste all'abbandono di tutte le ripetizioni verbali simultanee all'azione e in molti casi si scopre, anzi, che la gente dimentica le istruzioni esplicite in base alle quali sta eseguendo il compito.

Spesso si osserva che gli studenti, ad esempio nei corsi di matematica, eseguono senza difficoltà delle trasformazioni algebriche, senza sapere minimamente come giustificarle: semplicemente sanno ciò che si deve fare in certe situazioni.

Aumentando ulteriormente l'esercizio, l'abilità procede verso la fase autonoma: essa utilizza sempre meno risorse e in molti casi permette di poter fare altre cose contemporaneamente. Ad esempio, quando si è capaci di guidare molto bene, non è molto difficile sostenere una conversazione in parallelo alla guida: tutto il processo relativo all'abilità di "guida" è stato automatizzato al punto da utilizzare un numero così basso di risorse per cui è possibile fare altre cose in parallelo.

Il principio di potenza dell'apprendimento

Il principio di potenza dell'apprendimento lega il tempo di esecuzione di un compito alla quantità di esercizio dedicato a esso. Il suo enunciato dice che la prestazione è funzione della potenza del tempo dedicato all'apprendimento. Ecco una curva di apprendimento, tipica del principio di potenza. Come si può notare, in corrispondenza dei tentativi iniziali si ottengono miglioramenti molto rapidi, poi la curva continua a scendere, ma in modo più dolce e per un lungo periodo di tempo. Nel nostro laboratorio, il tempo di apprendimento più lungo che abbiamo potuto studiare è stato di cinquanta ore. Nonostante il lungo periodo di tempo, i soggetti continuavano, comunque, a migliorare, anche se in misura sempre minore.

Lo studio più noto del principio di potenza dell'apprendimento ha misurato, lungo un arco di tempo di più di dieci anni, la prestazione di un'operaia che arrotolava i sigari in una fabbrica. Per periodi di tempo così lunghi conviene disegnare il grafico con una scala logaritmica, mettendo in ordinata il logaritmo del tempo utilizzato per arrotolare un sigaro e in ascissa il logaritmo del numero di sigari arrotolati. La nostra curva prende, così, un andamento lineare decrescente, che permette di verificare lungo tutta la durata dello studio se hanno ancora luogo dei miglioramenti. Così si è , ad esempio, potuto osservare il completo appiattimento della retta dopo un certo numero di anni. La ragione stava nel fatto che l'operaia, proprio dopo quel certo numero di anni, aveva raggiunto la velocità massima consentita dai macchinari con i quali lavorava, per cui comunque non avrebbe potuto compiere alcun miglioramento ulteriore. Io credo che questo esempio illustri bene il principio di potenza dell'apprendimento, in base al quale noi, con una sufficiente quantità di esercizio, possiamo eliminare la componente cognitiva di un comportamento, ridurla a zero, per conservare solo il cosiddetto tempo-macchina.

Il tempo-macchina corrisponde al tempo necessario perché un segnale raggiunga il cervello, e perché un'istruzione motoria raggiunga la mano, se, ad esempio, state utilizzando la mano per svolgere il compito in questione. Il sistema fisico impone, dunque, alcuni limiti all'esecuzione di un compito. Da tale sistema è , tuttavia, possibile eliminare, con molto esercizio, tutta la componente cognitiva, computazionale, in modo da ottenere un sistema in grado semplicemente di percepire e di agire. I tempi di esecuzione riflettono, così, solo i tempi necessari alla trasmissione dei segnali di percezione e di azione.

Differenze individuali

Una possibile implicazione del principio di potenza dell'apprendimento è che, essenzialmente, chiunque possa raggiungere qualsiasi livello di competenza in un qualsiasi dominio: sembrerebbe essere solo una questione di esercizio. Io credo, tuttavia, che le differenze individuali abbiano un ruolo importante nell'acquisizione delle competenze. E', ad esempio, un fatto che gli individui presentino differenze nella velocità di apprendimento, al di là che esse siano poi dovute ad abilità innate piuttosto che a esperienze precedenti. In classe mi capita spesso di osservare due studenti, dei quali uno impara molto più rapidamente dell'altro, nonostante il fatto che i progressi di entrambi obbediscano, comunque, alla legge esponenziale dell'apprendimento. Le loro differenze di velocità di apprendimento si traducono in delle differenze di pendenza delle loro curve. Come si può constatare, il tempo che lo studente più lento deve investire per arrivare a un buon livello di competenza può essere molto maggiore di quello investito dall'altro. Estremizzando, si può arrivare a dire che uno studente davvero molto lento non ha alcuna possibilità di raggiungere un buon livello di prestazione entro il tempo medio di durata di un corso.

Il bambino è un principiante universale

E’ molto interessante riflettere sul modo in cui questi principi dell'apprendimento siano collegati allo sviluppo cognitivo del bambino. Sulla teoria dello sviluppo cognitivo ci sono sempre state due scuole di pensiero.

La prima ritiene che certi processi di maturazione modifichino i meccanismi mentali, i meccanismi neurali, per cui con l'età impariamo a pensare più velocemente, a trattenere più informazioni nella memoria eccetera. L'altra scuola sostiene, invece, che l'invecchiamento vada di pari passo con l'apprendimento e l'esercizio, e che quindi non sarebbero tanto le proprietà dei meccanismi neurali a cambiare, bensì la somma totale delle nostre esperienze ad aumentare.

Senza dubbio c'è del vero in entrambe le posizioni. Tuttavia, alcuni risultati suggeriscono che scarti, a volte attribuiti a differenze d'età o di maturità , riflettano in verità diversi livelli di esperienza.

Alcuni studi hanno, ad esempio, dimostrato che i bambini possono eseguire compiti, come la rotazione mentale, alla stessa rapidità di un adulto, purché facciano abbastanza pratica. Sembra, infatti, che i bambini seguano le stesse curve di apprendimento degli adulti, con la sola differenza che partirebbero da un livello più basso. Questo ci fa pensare che, se i bambini sono meno bravi degli adulti, è perché si sono esercitati di meno, ad esempio nella rotazione mentale.

Altri studi hanno indagato ambiti particolari, nei quali certi bambini hanno una competenza maggiore degli adulti. Michi Chi ha studiato bambini che giocano molto a scacchi, e ha scoperto che essi memorizzano le posizioni meglio degli adulti che giocano meno di frequente. Ancora una volta, ci viene suggerito che scarti apparentemente dovuti a differenze di sviluppo possano essere, invece, un riflesso di diversi livelli di esperienza. A un determinato livello, tuttavia, si pensa che il bambino sia un principiante universale, mentre l'adulto sarebbe già diventato esperto almeno in qualche ambito.

James McClelland

Lo strano caso del signor H.M.

In questi ultimi anni mi sono interessato in modo particolare all'organizzazione della memoria umana. Quest’argomento è diventato un tema di ricerca molto di moda anche a causa dei deficit di memoria molto evidenti che a volte si riscontrano nei pazienti con lesioni cerebrali. C'è un paziente molto famoso, le cui iniziali sono H.M., al quale fu rimossa parte del cervello, su entrambi i lati, per cercare di controllare gli spaventosi attacchi epilettici cui andava soggetto. Il risultato dell'operazione fu effettivamente quello di controllare le convulsioni, ma, fatto più importante ai fini delle scienze cognitive, diede luogo anche ad un profonda alterazione della sua capacità di apprendere nuove informazioni.

Due tipi d’apprendimento

Nel caso di H.M. e d’altri pazienti con amnesia, la parte del cervello rimossa o lesionata è l'ippocampo. Esistono anche altre regioni intorno all'ippocampo, ma l'area più importante è, però, proprio l'ippocampo stesso.

La parte del cervello rimasta intatta, invece, è il sistema neocorticale. Esso comprende le numerose aree cerebrali implicate nelle attività d’elaborazione dell'informazione.

La neocorteccia non sembra, dunque, essere un sistema dedicato unicamente all'elaborazione e alla rappresentazione dell'informazione, ma è probabilmente anche un sistema in grado di apprendere, di incorporare la nostra conoscenza implicita che gestisce la maggior parte delle nostre attività cerebrali.

Un modo per interpretare quello che è successo nel caso di H.M. è di pensare al nostro cervello come ad una struttura con due sistemi di apprendimento: il primo è parte integrante delle aree neocorticali, responsabili dell'elaborazione dell'informazione; il secondo è parte dell'ippocampo e delle aree a esso associate.

Memoria veloce

Vorrei fare un esempio di apprendimento con una coppia di parole che potrebbe essere usata in un esperimento di psicologia, durante il quale si chiede a un soggetto di ricordare le due parole in coppia. In questo caso, non c'è alcun tipo di associazione preesistente. Le due parole, potrebbero essere, ad esempio, "locomotiva" e "strofinaccio", due parole senza alcun nesso reciproco, prive di legami associativi preesistenti. L'idea è che sentendo queste parole, esse producano un'attività nella corteccia, e che quell'attività si propaghi all'ippocampo e determini un'attivazione neuronale. A questo punto la forza delle connessioni tra neuroni può modificarsi, in modo che l'associazione sia acquisita a livello del sistema ippocampale.

In seguito, quando si ripresenta al soggetto la prima delle due parole, diciamo: "Bene, ti ricordi la parola "locomotiva" che ti ho detto poco fa? A quale parola era associata?" L'idea è che questa domanda produca una replica parziale dell'attività corticale iniziale, che si propaga all'ippocampo, producendo una parziale riattivazione dei neuroni già attivati in precedenza. Le connessioni fra questi neuroni propagano, quindi, l'attività ad altri neuroni, ed essa può essere, a sua volta, ripropagata al sistema corticale, completando così l'intera associazione. Il risultato è che al soggetto viene in mente la parola "strofinaccio".

Possiamo, allora, interpretare il deficit di H.M. in questo modo:

l'operazione chirurgica aveva rimosso completamente una parte del sistema, lasciando intatti i sistemi fondamentali di elaborazione dell'informazione, all'interno dei quali erano state gradualmente apprese le abilità cognitive, ma eliminando lo speciale sistema di apprendimento ippocampale che avrebbe consentito al paziente di apprendere nuove informazioni esplicite dopo l'intervento.

Memoria profonda

In quest’interpretazione dell'organizzazione della memoria umana, vi sono, dunque, processi di apprendimento in entrambe le componenti del sistema. Il sistema corticale apprende molto gradualmente, cosicché ogni volta che avviene un'esperienza sono apportate piccole modificazioni alle connessioni fra le unità implicate. L'ippocampo apprende, invece, molto più velocemente e ci offre un modo per acquisire i contenuti di una particolare esperienza proprio nel momento in cui essa ha luogo, mentre la stiamo sperimentando.

Sebbene la conoscenza sia immagazzinata nell'ippocampo, a volte si presenta l'occasione di riattivarla e di ripresentarla al sistema corticale. Perciò il consolidamento avviene in questo modo: ogni volta che un modello è riattivato nell'ippocampo, le connessioni che collegano l'ippocampo alla corteccia trasportano le informazioni rilevanti, in modo che possano essere reintegrate nel sistema corticale. Successivamente, le piccole modificazioni apportate nella corteccia ai diversi pesi delle connessioni consentono un piccolo apprendimento ulteriore di tale modello a livello corticale. In questo modo, dopo ripetute reintegrazioni, la conoscenza sarà infine trasferita completamente dal sistema nel quale era stata appresa molto velocemente, a quest'altro sistema, che apprende solo qualche elemento a ogni successiva esposizione. A quel punto possiamo anche escludere l'ippocampo, e la conoscenza resterà comunque registrata nelle connessioni neuronali all'interno del sistema corticale.

Da una memoria all'altra

Una delle domande che sorgono in questo contesto è: perché mai dovremmo avere due memorie differenti?

L'ippocampo registra fatti precisi, sperimentati di recente, utilizzati, ad esempio, per ricordarsi del posto in cui abbiamo parcheggiato la macchina stamattina. Altra funzione altrettanto importante dell'ippocampo è la registrazione iniziale di nuova informazione. Ma nel momento in cui quell'informazione inizia a essere utile a lungo termine, essa si andrà a integrare gradualmente tra le conoscenze strutturate della corteccia.

Le cose che alla fine sono integrate nella corteccia sono, dunque, gli eventi significativi e ricorrenti della nostra esperienza, in altre parole, tutto ciò che dobbiamo sapere e che diventa parte integrante di quello che siamo e del modo in cui pensiamo.

I neuroni sono organizzati in reti

Da quando è stato inventato il microscopio è divenuto evidente che il sistema nervoso non è solo una gran massa gelatinosa, ma che esso è effettivamente composto di miliardi di minuscole cellule chiamate neuroni. Ciascun neurone può avere anche più di 100 000 connessioni con altri neuroni del cervello. I neuroni non si possono vedere senza un microscopio, né si possono notare le connessioni, a meno di avere a disposizione un microscopio molto potente.

Grazie a questi sviluppi tecnologici oggi siamo in grado di costatare che il cervello è fatto di molte cellule. Il compito di ciascun neurone è di ricevere segnali da molti altri neuroni, migliaia o centinaia di migliaia in certi casi, e di combinarli in un modo sufficientemente semplice da decidere se inviare o meno un segnale ai neuroni con i quali esso è a sua volta collegato. Da questo emerge l'idea che tutta la nostra vita mentale, tutta la nostra attività cognitiva, è in realtà il prodotto delle interazioni fra tutte queste unità di elaborazione molto semplici.

Una rete che legge

Probabilmente a questo punto può tornare utile un esempio concreto, tratto da uno dei nostri primi lavori. Uno dei problemi ai quali ci siamo interessati fin dal principio è stato quello di capire come mai, quando percepiamo qualcosa, siamo in grado di servirci del contesto per influenzare ciò che vediamo. Qui, ad esempio, vediamo qualcosa che assomiglia a una parola e che è in parte nascosta da una macchia d'inchiostro. Ora, il problema è: "Che lettera è quella che è in parte cancellata?" Dagli esperimenti di psicologia sappiamo che le persone avranno una maggior probabilità di intravedere una parola piuttosto che un insieme indefinito di lettere. Così abbiamo dedotto che la conoscenza di cui le persone si servono in questi casi comprende la conoscenza delle sequenze di lettere che costituiscono le parole di ciascuna lingua.

Nel costruire un modello di questo caso specifico abbiamo proposto delle unità simili a neuroni, che stanno per le parole; ne abbiamo più di un migliaio solo per le parole brevi e comuni della lingua. Inoltre abbiamo proposto delle unità corrispondenti a lettere; quattro insiemi di tali unità per tutte le lettere. E al di sotto di queste abbiamo proposto delle unità per le componenti visive o le caratteristiche delle lettere.

Ora, per far funzionare la computazione dobbiamo assumere che esistano delle connessioni fra le parole e le lettere che esse contengono, e fra le lettere e le loro caratteristiche. Ad esempio, le lettere C, A, S, e O sono tutte legate alla parola CASO con connessioni a doppio senso.

Perciò, nella nostra simulazione possiamo limitarci ad attivare gli aspetti visivi presenti nel display e a consentire all'attività di propagarsi nel sistema, per vedere come esso si stabilizzi su un'interpretazione del segnale. In questi casi gli aspetti visivi sono coerenti con le lettere C, A, S, mentre qui sono compatibili con una O o una C. E queste lettere sono compatibili con alcune delle parole che conosciamo, in particolare lo sono in larga misura con la parola CASO.

Ecco che cosa accade adesso: quando accendiamo il display, inizialmente sono attivate C, A, S, e poi, nell'ultima posizione, sia la O che la C. Esse a loro volta attivano CASO, e CASO, di rimando, innesca un feedback che rinforza l'attivazione delle altre unità.

In questo modo, il sistema percettivo finisce per inserire una "O" in questa posizione, rinforzando la sua attivazione. In realtà, noi crediamo che le connessioni di ritorno continuino fino al livello degli aspetti visivi delle lettere, in modo che possiamo comunque inserirli nella nostra esperienza percettiva, anche se non sono necessariamente tutti presenti nel segnale.

C'è una famosa immagine, formata da un gran numero di macchie. Se la si osserva, all'inizio non si vede niente, ma dopo che la si fissa per un po' tutte le macchie e i punti rivelano un cane dalmata che annusa il terreno. Se la guardate bene, penso vi rendiate conto che per vederci un cane il soggetto della percezione debba aggiungerci moltissimo, e noi crediamo che gli stessi identici processi in gioco nella nostra simulazione abbiano luogo anche in questo tipo di percezioni.

Quindi, qui vediamo in modo molto semplice ciò che stiamo facendo nel nostro lavoro di simulazione: costruiamo un insieme di unità (in questo caso abbiamo unità esplicite per le parole, le lettere e le caratteristiche visive delle lettere) e inoltre costruiamo delle connessioni fra di esse. Infine, abbiamo un computer con degli algoritmi molto semplici che consentono all'attività di propagarsi da un'unità all'altra. In questo modo possiamo simulare l'attività computazionale che riteniamo abbia luogo in questi casi nel cervello.

La conoscenza risiede nelle connessioni

Uno degli elementi che più differenziano i modelli connessionisti e i modelli tradizionali di rappresentazione e di elaborazione delle conoscenze nel corso dell'attività cognitiva è costituito dal modo in cui la conoscenza è immagazzinata nella rete. Tradizionalmente i logici, i filosofi e gli scienziati cognitivi hanno immaginato che la nostra conoscenza sia, in un certo senso, scritta in una sorta di libro, caratterizzato da una terminologia esplicita e un formato consultabile da parte della nostra attività cognitiva.

Nei modelli connessionisti, invece, la conoscenza è direttamente contenuta nelle connessioni interneurali. Questo è un modo interessante e innovativo di rappresentare la conoscenza, poiché implica che essa non sia direttamente accessibile da parte dei processi mentali. La conoscenza è ciò che guida il pensiero, ma non qualcosa che noi consultiamo mentre pensiamo. Le connessioni fra i neuroni non possono essere ispezionate; non possono essere lette o interpretate per qualcun altro. Possono solo influenzare il modo in cui un neurone attiva altri neuroni. E nello stesso modo la conoscenza delle connessioni, nelle nostre simulazioni, ci consente di capire che stiamo guardando una particolare parola, e di utilizzare l'informazione proveniente dalle lettere vicine per dedurre l'identità di una lettera specifica. Ma questa conoscenza non è esplicitamente disponibile come tale. Ecco qual è la vera differenza tra i modelli connessionisti di rappresentazione delle conoscenze e l'approccio tradizionale alla rappresentazione della conoscenza.

Come si passa da un'idea a un'altra

Supponiamo che io stia pensando a una tazza da caffè sulla quale è dipinta una giraffa. In termini connessionisti si pensa che a questo punto accada questo: il fatto di pensare alla tazza con la giraffa attiva gruppi di neuroni in diverse parti del mio cervello. Uno di questi gruppi si trova in regioni strettamente visuali o, in altre parole, parti del cervello che rappresentano esattamente l'aspetto della tazza, la forma del manico e il modo in cui esso si congiunge alla tazza stessa. Un altro gruppo di neuroni magari rappresenta il mio pensiero del momento: "Mi piacerebbe che questa tazza fosse piena di caffè perché ho proprio bisogno di caffeina". Un'altra parte del mio cervello può contenere un gruppo di neuroni attivi, che rappresenta il mio pensiero sulla giraffa: "che immagine strana per una tazza da caffè !". Si arriva, dunque, a un concetto molto semplice: il contenuto del pensiero è rappresentato da una "distribuzione di attività ", la quale specifica per ciascun neurone se esso è o non è attivo. E quando io penso, immagino che queste distribuzioni di attività evolvano e si modifichino a ogni passaggio dei miei processi cognitivi.

Ma se il contenuto del pensiero è una distribuzione di attività, allora ci si può chiedere come si passa da un pensiero a un altro. Questo è precisamente il compito delle connessioni interneurali, che mi permettono di passare da una distribuzione di attività alla successiva. Dunque, l'idea fondamentale è che ciò che fa evolvere le distribuzioni di attività sono proprio le connessioni tra i neuroni.

Un buon esempio è il modello di cui abbiamo parlato: quando le attivazioni cominciano a formarsi a livello delle lettere, esse producono a loro volta attivazioni a livello delle parole. La successione dei pensieri è, pertanto, rappresentata dalla successione delle distribuzioni di attività del modello.

L'apprendimento modifica le connessioni

Uno degli aspetti più interessanti e importanti dei modelli connessionisti è il modo in cui l'esperienza modifica le connessioni fra neuroni. Vorrei spiegarvi questo concetto prendendo l'esempio dello sviluppo del bambino, poiché ritengo che questo sia uno degli ambiti in cui è davvero importante comprendere come l'esperienza si integri nel cervello. In quest'area le mie idee si rifanno a quelle di Jean Piaget, secondo il quale in ogni momento il bambino piccolo cerca di prevedere e di comprendere ciò che gli accade attorno.

I modelli connessionisti cercano di spigare ciò che accade immaginando che il cervello usi l'informazione proveniente dalle esperienze recenti come base per cercare di prevedere ciò che accadrà, e che quindi il cervello osservi ciò che accade realmente. Immaginiamo che un bambino abbia di fronte uno schermo opaco, e che una palla sia fatta rotolare sul pavimento così da farla scomparire dietro lo schermo. La domanda è: che cosa dovrebbe aspettarsi il bambino? Se non ha conoscenze precedenti, può darsi che non si aspetti che la palla riappaia dall'altra parte dello schermo. Se questo è il caso, proverà davvero sorpresa a vedere riapparire la palla. Noi pensiamo che sia proprio questo tipo di sorpresa a spingere il bambino ad apprendere che gli oggetti continuano a esistere anche quando noi non li vediamo più. L'idea fondamentale è la seguente: nel corso di una qualunque esperienza la mente continua a cercare di prevedere gli eventi futuri, mentre ciò che accade realmente indica alla mente ciò che essa avrebbe dovuto prevedere. Il cervello segue, quindi, una regola di apprendimento molto semplice: esso corregge i parametri delle nostre aspettative mentali, in modo che la volta successiva le nostre previsioni siano più precise. Quando questi parametri sono ben regolati, noi abbiamo a nostra disposizione un modello interno del mondo che ci circonda. Questo è il concetto fondamentale.

Una rete capace di apprendere

Vorrei descrivervi un esempio nel quale si vede come queste idee possano tradursi in azione nella realtà. L'esempio riguarda l'apprendimento di un compito in apparenza relativamente semplice: imparare a dire se due segnali sono uguali o diversi l'uno dall'altro. Per semplicità userà le cifre 0 e 1. Quando i nostri due segnali sono questi, o questi, diremo che sono "differenti", mentre se sono questi, o questi, diremo che sono "uguali".

Andiamo ora a costruire una rete in grado di imparare a calcolare la seguente funzione: se i due segnali di entrata sono identici, allora il segnale di uscita sarà uguale a 1; se i due segnali di entrata sono diversi, allora il segnale di uscita sarà uguale a 0. Vediamo, ora, come avviene l'apprendimento nella rete: la forza delle connessioni prima tra i segnali di entrata e i neuroni intermedi, e poi tra i neuroni intermedi e i segnali di uscita, sono del tutto casuali. Questo dipende dal fatto che, quando presentiamo uno dei quattro segnali di entrata possibili, la risposta della rete è anch'essa casuale. Ad esempio, se presentiamo 1 e 0, con una piccola connessione positiva qui e una piccola connessione negativa qui, né i neuroni intermedi, né i neuroni di uscita saranno molto attivi, e questa non è la risposta attesa.

Detto questo, noi possiamo, però, insegnare alla rete qual è la risposta corretta da dare a ciascun segnale: 0 quando i segnali sono diversi, e 1 quando sono uguali. La rete avrà così la possibilità di confrontare i propri risultati con la risposta corretta. Quest'idea corrisponde esattamente a quella di confrontare le previsioni con le informazioni che ci sono presentate dall'ambiente.

La rete utilizza, quindi, un algoritmo denominato "retropropagazione" che, partendo dallo scarto tra le sue previsioni e il risultato desiderato, modifica gradualmente le forze delle connessioni tra i neuroni.

Ricapitoliamo come avviene l'apprendimento della rete. Alla rete sono presentate delle informazioni, a partire dalle quali essa fa delle previsioni. Di volta in volta la rete paragona le sue previsioni con i risultati attesi e, per retropropagazione, modifica le forze delle connessioni tra i suoi neuroni. Progressivamente questo processo consentirà alla rete di trovare quelli che sono i valori corretti in grado di indurre le connessioni a modificarsi, producendo le risposte attese.

Come apprende la rete

Disegniamo una curva della prestazione della rete in funzione del tempo che essa impiega a imparare a risolvere questo particolare problema. Misureremo i tempi in termini di "cicli di insegnamento". A ciascun ciclo, alla rete sono presentate contemporaneamente tutte le possibili combinazioni di segnali d'entrata, accompagnate dalla risposta corretta, in modo che essa possa imparare.

Ecco i risultati: l'errore complessivo è inizialmente abbastanza alto, poi diminuisce un poco e quindi rimane stabile per un lungo periodo. Alla fine raggiunge un punto in cui crolla bruscamente: qui possiamo dire che la rete ha risolto il problema. Potete vedere, però, che vi è un lungo periodo durante il quale, dal punto di vista della prestazione della rete, non sembra succedere assolutamente niente: è questo il periodo in cui la rete si prepara a raggiungere questo punto di rapida transizione.

Il fenomeno degli stadi di sviluppo

Mi piace pensare che la forma di questa curva sia correlata a un fenomeno studiato approfonditamente da Jean Piaget lungo tutto l'arco della sua carriera. Si tratta del fenomeno della "transizione fra stadi", ossia di transizioni da uno stadio di sviluppo caratterizzato da un certo tipo di pensiero, a un altro stadio nel quale è adottato un modo di pensare radicalmente diverso. Piaget aveva caratterizzato tali stadi in molti domini diversi. Uno degli aspetti che più colpiscono nell'idea degli stadi è la presenza di lunghi stati stazionari, durante i quali sembra che non cambi nulla, interrotti da transizioni molto brusche che portano allo stadio successivo. Questa fu un'osservazione davvero sconcertante per molti psicologi dello sviluppo, perché, da un lato, essi volevano credere che l'esperienza influenzi lo sviluppo. Dall'altro lato sembrava loro, anzi, in verità sembra proprio a tutti, che l'impatto dell'influenza sullo sviluppo si debba osservare in ogni momento. Quello che il comportamento non lineare dei nostri modelli ci permette di comprendere è che gli effetti dell'esperienza possono davvero accumularsi "dietro le quinte" durante un particolare stadio di sviluppo, consentendo poi all'individuo di raggiungere il punto in cui è pronto a cambiare in modo molto rapido e improvviso.

Come si apprende una regola

Una delle cose che si possono notare quando la rete ha finito il suo periodo di apprendimento è che essa ha, in un certo senso, imparato una regola di logica. L'enunciato di questa regola, che un logico chiamerebbe "regola d'identità " o "regola di uguaglianza", stabilisce che bisogna dire "sì" quando due cose sono identiche e "no" nel caso contrario. Nella nostra rete questa regola non è rappresentata esplicitamente, ma è incorporata in un insieme di connessioni che si sono formate progressivamente nel tempo.

Qualcuno potrebbe dire: "una volta che l'apprendimento è terminato, non vi è più alcuna differenza tra la rete e la regola esplicita che essa ha incorporato." Questo è vero, ma non durante l'apprendimento! Ciò che appare molto progressivamente durante l'apprendimento non può essere definito con regole esplicite. Vi sono degli stadi intermedi della conoscenza che precedono le rappresentazioni simboliche, e io penso che questi stadi intermedi rappresentino ciò che ci fa passare da un modo di pensare a un altro.

Le intuizioni del linguaggio

Molti linguisti hanno sottolineato che il linguaggio è un dominio nel quale noi abbiamo delle intuizioni, ma non necessariamente delle regole esplicite con cui giustificare tali intuizioni. Ad esempio, spesso sentiamo che una frase suona in modo strano, senza sapere esattamente perché. Per capire non possiamo semplicemente fare ricorso a ciò che sappiamo in modo esplicito. Dobbiamo, piuttosto, separare le frasi grammaticalmente corrette da quelle che non lo sono, per poi dedurre la regola di grammatica.

Una certa confusione è dovuta al fatto che di molte regole grammaticali abbiamo una conoscenza esplicita. Ad esempio, quando un italiano impara l'inglese gli si insegna che il passato si forma aggiungendo "-ed" alla fine di ciascun verbo. Questo tipo di conoscenza esplicita è, tuttavia, quasi irrilevante quando si parla molto bene una lingua. Quando io, che sono di madrelingua inglese, devo formare il passato di un verbo, non mi chiedo come devo fare, né mi rispondo: "aggiungi '-ed'". Il mio cervello computa automaticamente la risposta.

Come vale nel caso della lingua, io credo che in realtà tutte le attività cognitive che richiedono una certa competenza e una certa pratica siano basate sulla messa in opera di conoscenze implicite piuttosto che esplicite. Il ruolo delle conoscenze esplicite è quello di guidare la formazione delle conoscenze implicite. 

La base neurale dell'apprendimento associativo

Alla fine degli anni '40 il neuropsicologo Donald Hebb propose che l'apprendimento abbia luogo modificando il peso delle connessioni tra neuroni. Egli sosteneva che probabilmente il cervello apprende aumentando la forza delle connessioni fra neuroni simultaneamente attivi. Così, quando un segnale passa da un neurone A a un altro neurone B anch'esso attivo, la forza della loro connessione aumenta. Ciò significa che la prossima volta che A scaricherà , la scarica di B sarà più probabile. Questa, secondo Donald Hebb, è la base dell'apprendimento associativo.

Nell'ippocampo, il fenomeno del potenziamento a lungo termine (LTP) è fondamentalmente molto simile all'idea di Hebb, ed è chiamato potenziamento a "lungo termine" poiché  è un fenomeno effettivamente molto duraturo. Sembra trattarsi di una forma di registrazione relativamente permanente: il tipo di registrazione che ci è necessario per avere un'esperienza, apprendere informazioni da essa e trattenere tali informazioni per giorni o settimane, fintanto che ci sono utili.

La memoria umana non è una biblioteca

Molte persone paragonano la memoria a una biblioteca: quando hai un'esperienza, crei un file di memoria e lo archivi in una sorta di biblioteca; così, quando ricordi quell'esperienza, in realtà non fai altro che tornare nella biblioteca con un'indicazione, uno spunto per il recupero, che ti consenta di rientrare in possesso di quel file di memoria. L'operazione può riuscire, e allora ti ritrovi con il file giusto, oppure può fallire se, ad esempio, recuperi un file diverso o non recuperi niente.

I modelli connessionisti sono completamente differenti: la memoria è registrata nelle connessioni tra neuroni e le stesse connessioni partecipano all'immagazzinamento di molte informazioni diverse. Non è facile isolare un'informazione specifica da tutte le altre. Il recupero di un'esperienza specifica è un processo ricostruttivo che non interessa solo il contenuto dell'esperienza iniziale, ma anche altre informazioni memorizzate in molte altre occasioni, in alcune delle connessioni che partecipano al recupero.

Come funzionano i neuroni artificiali

Vediamo in che modo, nella nostra simulazione, ogni neurone elabori i segnali che riceve e li propaghi agli altri. La simulazione è scomposta in momenti successivi. In ciascun passaggio facciamo due cose:

In primo luogo, ogni neurone controlla le proprie connessioni per verificare che genere di attività ci sia all'altro capo, e la moltiplica per la forza del peso della connessione stessa. Noi poi sommiamo l'attività moltiplicata per la forza delle connessioni, così da ottenere una quantità  che chiamiamo segnale netto di entrata. Una connessione la cui forza sia positiva tende a eccitare il neurone ricevente. Una connessione la cui forza sia negativa tende, invece, a inibirlo. Il segnale netto di entrata rappresenta l'effetto combinato di queste due fonti di influenza.

Una volta computato il segnale netto di entrata, possiamo calcolare il valore dell'attivazione del neurone per il passaggio successivo, servendoci di una funzione che ha la forma di una S. Se il segnale netto di entrata è molto negativo, l'attivazione sarà vicina allo zero; mentre se sarà molto positivo, l'attivazione sarà vicina a uno.

In realtà, l'attivazione rappresenta il grado di affidabilità  che possiamo riporre nel fatto che, qualsiasi cosa essa rappresenti, il neurone sia presente nel segnale di entrata. Ad esempio, nel nostro modello che legge le parole, la crescente attivazione del neurone corrispondente a "CASO" rappresenta la forza crescente dell'idea che il display contenga la parola "CASO".

Da subito in memoria!

C'è una certa categoria di fatti di cui noi acquisiamo definitivamente il ricordo, e lo consolidiamo, fin dalla prima apparizione. Ad esempio, sembra che eventi importanti come l'assassinio del Presidente Kennedy o l'allunaggio di Armstrong siano memorizzati per sempre dal momento in cui sono visti o sentiti per la prima volta.

Una delle teorie che cercano di spiegare questo fenomeno postula che il cervello abbia il modo di adeguare l'ampiezza dei cambiamenti di forza delle connessioni nella neocorteccia in funzione dell'importanza dell'evento. Probabilmente c'è del vero in questa teoria, secondo la quale un evento importante provoca dei notevoli cambiamenti nelle connessioni. Il ricordo, di conseguenza, diventa più robusto e più facile da ricostruire, e forse può addirittura ricostruirsi in modo spontaneo.

Un'altra teoria sostiene che questi eventi sono culturalmente importanti e che, quindi, noi ce li ricordiamo l'un l'altro, creando così molteplici opportunità  di consolidamento. Il caso di H.M. ne fornisce una prova. H.M. si ricordava dell'assassinio del Presidente Kennedy, sebbene il fatto fosse avvenuto quando era già  amnesico. Il solo modo per spiegare ciò è di immaginare che si trattasse di un argomento di conversazione talmente frequente, che il sistema corticale di H.M. l'aveva appreso senza l'intervento dell'ippocampo, per esposizioni ripetute.

Originalità di pensiero

Che cosa permette a una persona di pensare una cosa e a un'altra di pensarne un'altra? Io credo che esistano delle differenze nelle connessioni tra neuroni. Ad esempio, se nel nostro modello di percezione visiva delle parole le connessioni codificassero i vocaboli del francese invece di quelli dell'italiano, lanciando la simulazione otterremmo risultati molto differenti. Come sono computati i pesi di queste connessioni? Io ritengo che quando si elaborano gli elementi di un particolare dominio della conoscenza, le connessioni fra i neuroni si adeguino alla struttura presente in tale dominio.

Eric Kandel

Cambiare imparando

Io ho una formazione medica. Mi iscrissi a medicina per diventare psichiatra e specializzarmi in questa disciplina. Quando ero all'università, tuttavia, frequentai alcuni corsi di neurobiologia e con mia gran sorpresa scoprii che la materia mi piaceva moltissimo. In particolare, trovavo molto avvincente la ricerca sul cervello.

A quell'epoca mi colpì che uno dei problemi chiave della psichiatria fosse la questione dell'apprendimento e della memoria: nel momento in cui la psicoterapia funziona, presumibilmente è perché crea un ambiente nel quale le persone possono cambiare; si tratta, insomma, di un'esperienza d’apprendimento. E nella misura in cui le patologie nevrotiche sono reversibili, è perché verosimilmente sono apprese e, dunque, possono essere eliminate.

Pertanto, l'idea di studiare il cervello mi tentava molto. Ben presto cominciai a sviluppare un approccio riduzionista all'apprendimento e alla memoria, in modo da comprendere tali processi in termini di modificazioni neuronali. I miei colleghi e io abbiamo così scoperto come l'apprendimento cambi le connessioni tra neuroni e provochi così dei cambiamenti anatomici.

Come sono connessi i neuroni

Lasciate dunque che vi spieghi come funzionano le cellule nervose. Un tipico neurone ha diverse componenti: ha dei dendriti, un corpo cellulare, un assone e un numero variabile di terminazioni nervose.

I dendriti sono gli elementi del neurone che ricevono i segnali in entrata, provenienti da altri neuroni. Il neurone riceve informazioni dai suoi dendriti e le invia all'assone. L'assone è un lungo cavo che trasporta in modo preciso e accurato informazioni fino alle terminazioni nervose, a livello delle quali il neurone comunica con il neurone successivo del circuito.

Nella terminazione accade una cosa interessante: un segnale elettrico porta al rilascio di un segnale chimico, chiamato neurotrasmettitore, da parte della terminazione presinaptica. Il neurotrasmettitore diffonde attraverso un piccolo spazio fino a raggiungere la terminazione post-sinaptica della cellula adiacente. Qui il segnale chimico d’origine ad un nuovo segnale elettrico, denominato "potenziale sinaptico". Questo potenziale sinaptico può essere di due tipi: eccitatorio o inibitorio. I potenziali inibitori tendono a sopprimere l'eccitabilità del neurone, impedendogli di condurre l'impulso nervoso. Quelli eccitatori, invece, se sufficientemente ampi daranno origine ad un "potenziale d'azione" come questo, garantendo la propagazione dell'informazione fino all'assone.

Apprendimento e modificazioni sinaptiche

Quest'area, dove il neurone pre-sinaptico dialoga con quello post-sinaptico, è una regione molto specializzata denominata sinapsi. Quel che è interessante è che l'apprendimento nella memoria a breve termine causa una modificazione funzionale nella forza delle connessioni sinaptiche.

Ad esempio, in seguito ad un certo tipo di processo d’apprendimento, è improvvisamente rilasciato un numero di vescicole sinaptiche maggiore rispetto a qualche minuto prima. Pertanto, il potenziale sinaptico prodotto qui, che potrebbe essere di una certa dimensione, ora diventa molto più ampio, come conseguenza dell'apprendimento, e può innescare un potenziale d'azione. Se la sinapsi è abbastanza robusta, continuerà a stimolare la cellula post-sinaptica per un periodo nell'ordine dei minuti o delle ore (in altre parole, per la durata della memoria a breve termine).

Ma se si genera una memoria a lungo termine, accade una cosa alquanto sorprendente: si sviluppano nuovi contatti sinaptici. La memoria a lungo termine viene, dunque, stabilizzata attraverso la formazione di nuove connessioni sinaptiche nel cervello. Ora, questa idea, e cioè che la memoria a lungo termine comporti lo sviluppo di nuove connessioni sinaptiche, ha profonde conseguenze. Provate a pensarci!

L'apprendimento induce modificazioni anatomiche

Questa scoperta è veramente importante, perché si ripercuote sulla nostra vita quotidiana. Se ricordate, qualche tempo fa vi ho raccontato che attorno al 1860 si scoprì l'esistenza di una rappresentazione corporea per tutti i muscoli; c'era anche una rappresentazione della superficie corporea relativa alla sensazione tattile, per tutti i recettori che innervano le mani, le braccia e la superficie del nostro corpo. Fino a poco tempo fa si pensava che queste mappe presenti nel nostro cervello, mappe della superficie corporea, della cute, della retina, dei muscoli, fossero fisse; in altre parole, che uno nascesse con esse e se le portasse dietro per tutta la vita. Oggi ci rendiamo conto che le cose non stanno così: le mappe sono dinamiche. Ciò significa che quando uno suona il pianoforte e si esercita, la rappresentazione delle mani andrà espandendosi nel suo cervello a spese di quella d’altre regioni.

Questo è stato dimostrato da Mike Musnik, ed è veramente una scoperta straordinaria. Egli ha esaminato l'area della mano nelle scimmie, e ha scoperto che scimmie diverse avevano rappresentazioni della mano di tipo e dimensioni diverse. Musnik non sapeva se ciò fosse dovuto al fatto che le scimmie fossero geneticamente eterogenee, o al fatto che avessero avuto esperienze tattili differenti. Allora fece in modo che, per ricevere il cibo, le scimmie dovessero azionare, per molti giorni di seguito, una barra; scoprì così che le aree associate alle tre dita usate per azionare la barra si espandevano moltissimo a spese di altre aree del cervello.

Origini dell'individualità

Le nostre differenze di patrimonio genetico determinano solo parzialmente la struttura ultima del nostro cervello, le nostre capacità e i nostri talenti, poiché le nostre esperienze hanno una forte influenza sulle basi biologiche. Ciò può spiegare come mai voi e io, che siamo stati allevati in ambienti in qualche modo diversi, siamo stati esposti a stimoli differenti, abbiamo avuto genitori diversi a latitudini differenti, abbiamo ciascuno un cervello plasmato in modo specifico e individuale. Pertanto, oltre al fatto che i nostri geni ci conferiscono una costituzione genetica individuale, il nostro ambiente e le nostre interazioni personali con esso ci offrono un'ulteriore possibilità di sviluppare una struttura cerebrale specifica per ciascun individuo.

Il futuro della psicoterapia

Mentre noi discutiamo, il mio cervello è in comunicazione con il vostro e, se mai voi vi ricorderete di quello che vi ho detto, e io non vi obbligo, ma se voi vi ricorderete sarà perché il mio cervello ha provocato dei cambiamenti anatomici nel vostro e viceversa.

Io spero che un giorno le tecniche di imaging cerebrale ci permetteranno di vedere questi cambiamenti, poiché ciò avrà delle profonde conseguenze in medicina. Facciamo un esempio: molti di noi hanno delle buone ragioni per credere che la psicoterapia funzioni e che sia capace di modificare i comportamenti. E, pur tuttavia, questo fatto è costantemente rimesso in discussione dai medici.

Io penso che si potrebbe realmente dimostrare, in modo convincente, che i diversi tipi di nevrosi di cui noi soffriamo sono tutti associati a modificazioni anatomiche caratteristiche nel cervello, visibili con le tecniche di imaging cerebrale (N.M.R. o P.E.T.). E, quindi, si potrebbe anche dimostrare che, se la psicoterapia produce dei cambiamenti stabili nel cervello, ciò dipende dal fatto che essa provoca delle modificazioni anatomiche. Si potrebbe così avere, grazie alle tecniche di imaging cerebrale, la prova concreta del fatto che questi cambiamenti sono il risultato della psicoterapia.

Psicoterapia e farmacologia

Un altro punto che ritengo interessante è il confronto fra psicoterapia e psicofarmacologia. Molte persone ritengono che i due approcci siano contrapposti l'uno all'altro e molto diversi, che la psicoterapia impieghi molto più tempo e che i farmaci siano ben più efficaci. Io però credo che questo sia un modo semplicistico di vedere le cose. In futuro capiremo quanto questi due approcci siano sinergici. Una volta compreso che ogni registrazione di dati nella memoria comporta alterazioni della struttura anatomica del cervello, e che quando le persone apprendono e ricordano qualche cosa, le cellule nervose del loro cervello vanno realmente incontro a una modificazione, allora è più facile intuire che la psicoterapia agisca esattamente sulla stessa struttura cerebrale su cui agiscono gli psicofarmaci. Ciò è destinato a rivoluzionare profondamente molti aspetti del pensiero umano, e in particolare la pratica medica della psichiatria. Io sono assolutamente convinto che la psichiatria si appoggerà sempre più sulla biologia, su delle basi totalmente biologiche, non in modo inumano e meccanicistico, ma con molta passione, collegando gli insegnamenti e la sollecitudine della psicoterapia con la realtà biologica delle modificazioni cerebrali provocate dalla psicoterapia stessa.

Il fatto che i farmaci abbiano effetti collaterali, indica una certa mancanza di specificità (e questo vale perfino per i più specifici, come il Prozac® e gli inibitori della ricaptazione della serotonina usati contro la depressione). Può darsi che per certi tipi di problemi la psicoterapia si riveli, rispetto agli psicofarmaci, un rimedio più specifico ed efficace per produrre modificazioni a livello di particolari strutture cerebrali.

E' possibile creare nuove connessioni dal nulla?

Sappiamo che fra neuroni già connessi possono crearsi nuovi contatti sinaptici aggiuntivi. Ma non sappiamo se due cellule che in precedenza non erano collegate possano stabilire delle sinapsi grazie all'apprendimento. Ciò aprirebbe vie neurali completamente nuove nel cervello. A questa domanda non sappiamo ancora rispondere.

Lo strano caso del signor H.M.

In questi ultimi anni mi sono interessato (JAMES MCCLELLAND) in modo particolare all'organizzazione della memoria umana. Questo argomento è diventato un tema di ricerca molto di moda anche a causa dei deficit di memoria molto evidenti che a volte si riscontrano nei pazienti con lesioni cerebrali. C'è un paziente molto famoso, le cui iniziali sono H.M., al quale fu rimossa parte del cervello, su entrambi i lati, per cercare di controllare gli spaventosi attacchi epilettici a cui andava soggetto. Il risultato dell'operazione fu effettivamente quello di controllare le convulsioni, ma, fatto molto importante ai fini delle scienze cognitive, diede luogo anche a un profonda alterazione della sua capacità di apprendere nuove informazioni.

H.M. non era più in grado di registrare alcuna nuova informazione nella memoria a lungo termine. Stranamente, tuttavia, H.M. aveva conservato qualche capacità mnemonica. Ad esempio, ricordava perfettamente cose che erano accadute prima dell'operazione, come la sua infanzia, la lingua inglese, l'appartamento nel quale viveva, il suo lavoro, le cose accadute nel passato. Aveva anche un'ottima memoria a breve termine, e quindi quando incontrava qualcuno per la prima volta era in grado di salutarlo e di ricordare il suo nome fintanto che gli parlava, senza alcuna difficoltà. Ma se si rivolgeva a qualcun altro e veniva a sapere il nome di questa seconda persona, tornando a parlare con la prima non riusciva a ricordare come si chiamasse. Brenda Milner, la psicologa che ha studiato il suo caso, l'ha visto regolarmente dopo l'operazione, certe volte anche ogni mese. Ciononostante, ogni volta che lei andava da lui era sempre come fosse la prima volta: H.M. non era più in grado di registrare alcuna nuova informazione nella memoria a lungo termine.

Una scoperta fantastica

Brenda Milner descrive il caso H.M. in modo splendido. Lo ha studiato dal 1956 al 1968 e ne conosce tutti i dettagli. Per molti anni essa aveva pensato che il deficit di H.M. riguardasse tutti gli aspetti della memorizzazione. Poi, però, fece una scoperta straordinaria: si accorse che il deficit mnemonico si applicava solo a certi aspetti della conoscenza, mentre altri erano assolutamente integri.

Essa lo scoprì facendo fare a H.M. un certo numero di esercizi motori. Uno dei più semplici era il test di scrittura allo specchio: si tratta di tracciare il profilo di una stella disegnata su un foglio di carta. H.M. doveva disegnare il profilo della stella con una matita, senza poter guardare la matita, la propria mano o la stella, se non attraverso uno specchio.

Quando voi e io facciamo questo, per un certo numero di giorni compiamo degli errori, ma poi la nostra prestazione migliora. Se mettiamo su un grafico il numero di errori misurati in percentuale... Immaginiamo una scala da 0 a 100 errori. Cominceremmo col fare molti errori, poi miglioreremmo finché non ne faremmo praticamente più. Questo è il risultato che voi e io otterremmo in un esercizio come questo.

Per H.M. fu lo stesso! Dapprima commise numerosi errori, ma poi, giorno dopo giorno, migliorò. Ma quando, il terzo e il quarto giorno, gli fu chiesto: "Come mai oggi, che è giovedì, lei è tanto più bravo di com'era lunedì?", lui rispondeva: "Di che sta parlando? Non ho mai fatto questo prima d'ora."

Egli rivelava, così, un deficit totale di memoria per certe conoscenze, mentre per altre era ancora perfettamente in grado di apprendere.

Due tipi di memoria

Ben presto emerse con chiarezza che questi due tipi di conoscenza differivano anche in altri modi. Le nuove informazioni che H.M. non riusciva a registrare riguardavano persone, luoghi e oggetti. E' quello che oggi noi chiamiamo memoria esplicita o dichiarativa. Essa richiede una partecipazione consapevole, un recupero cosciente dell'immagine di un volto, del nome di una persona, di un oggetto o di un luogo particolare. Conoscenze come le abilità percettive e motorie, invece, sono completamente inconsce. Quando impariamo ad andare in bicicletta, o a colpire una palla da tennis, o a suonare il pianoforte, ovviamente stiamo molto attenti: occorre una partecipazione consapevole. Ma dopo un po' il corpo prende il sopravvento e ce lo sentiamo nei muscoli. Se andando in bicicletta dicessimo a noi stessi "Ora con la gamba sinistra, e adesso, vai con la destra", cadremmo in terra. Quando guidiamo la macchina, non diciamo a noi stessi "Ora devo muovere questo muscolo, ora quest'altro". Diventa una cosa automatica. Gran parte delle nostre attività fa appello a queste conoscenze implicite. Inoltre, è stato dimostrato, grazie al lavoro di numerosi ricercatori, tra cui soprattutto Brenda Milner, Larry Squire e molti altri, che questi due tipi di memorizzazione implicano non solo due sistemi logici differenti, ma anche due sistemi cerebrali differenti. La memoria esplicita, che riguarda persone, luoghi e cose, che è cosciente e manca a H.M., utilizza ciò che noi chiamiamo sistema medio-temporale, al centro del quale si trova l'ippocampo. Il sistema implicito, che è coinvolto nell'apprendimento percettivo e motorio, utilizza il cervelletto più i diversi sistemi moto-sensoriali che sono reclutati di volta in volta per compiti specifici, ma non sfrutta né l'ippocampo, né il lobo medio-temporale

Herbert Simon

Che cos'è l'apprendimento?

Uno degli aspetti importanti del comportamento umano intelligente è che siamo in grado di apprendere. Non dobbiamo fare ogni volta la stessa cosa nello stesso modo: possiamo trovare il sistema per farla meglio. Gran parte di ciò che impariamo ci è insegnato. Ciò significa che queste cose sono già note ad altre persone attorno a noi, queste persone ci insegnano e noi gradualmente le impariamo. Questo è, tuttavia, un processo difficile, come ben ci rammentano i nostri ricordi scolastici. Forse per qualcuno non è stato difficile, ma per la maggior parte di noi sì. Non possiamo semplicemente aprire la scatola e versarci dentro la conoscenza. Essa deve penetrarvi, dev'essere codificata nei formati usati dal cervello e deve essere trasformata in modo tale da poter essere utilizzata. Questo è ciò che si intende per apprendimento.

L'apprendimento è un adattamento

Sicuramente l'apprendimento che accade quando si acquisisce una competenza porta a ottenere prestazioni sempre migliori; in altre parole, si tratta di una forma di adattamento. Considereremo l'apprendimento e l'adattamento quasi come sinonimi. Se hai un insieme di problemi da risolvere, quello è il tuo ambiente, e man, mano che apprendi ti comporti più efficacemente in quell'ambiente: questo è proprio ciò che si intende abitualmente per adattamento.

Certamente uno dei vantaggi degli esseri umani sulla maggior parte delle altre creature nella lotta per la sopravvivenza è che noi abbiamo capacità di apprendimento molto potenti, tali da consentire alla nostra specie di adattarsi a un'ampia gamma di circostanze e di modificare il proprio comportamento molto rapidamente. L'apprendimento, o piuttosto la capacità di apprendere, è una delle cose che ci rendono più efficaci nella competizione evolutiva.

Dieci anni per diventare esperti

Un esperto è qualcuno che, evidentemente, è in grado di risolvere certi problemi più velocemente di noi. Anzi, noi alcuni problemi non siamo proprio in grado di risolverli. Si diventa un esperto consacrando moltissimo sforzo e attenzione allo studio di una specialità. Questo fenomeno è stato analizzato in un certo numero di ambiti come le scienze, l'atletica a livello olimpionico, l'esecuzione e la composizione musicale, la pittura e molto altro. Ogni volta si giunge sempre alla stessa conclusione: si diventa esperti in seguito a un meticoloso addestramento che dura molti anni.

Ovviamente, si può benissimo suonare il pianoforte per anni senza diventare esperti. Questo è proprio il mio caso! Ma un pianista di professione conosce la differenza fra suonare per divertirsi e studiare pianoforte. E' un tipo di impegno completamente diverso. Perciò, quando parlo di anni di sforzi, in tutti i campi analizzati, 10 sembra essere il numero magico per ottenere l'eccellenza. Stiamo parlando di uno studio serio, e non di un dilettantismo disinvolto. In questo modo, tuttavia, non stiamo assolutamente affermando che tutti possano diventare esperti in qualcosa investendo 10 anni di studio. In effetti, è molto improbabile che sia così. Nessuno, però, può diventare un esperto di alto livello senza questi 10 anni di pratica.

Di solito c'è una progressione: ad esempio, il bambino suona il pianoforte, i genitori lo ammirano, e un giorno il bambino fa un saggio molto brillante. I genitori allora consultano l'insegnante, che risponde: "Beh, io gli ho dato tutto quello che potevo. Adesso ha bisogno di un maestro di livello più alto". E così il bambino passa a un insegnante più qualificato. Se questo processo continua, ben presto l'allievo sarà mandato da un maestro di fama internazionale. Nessuno raggiunge il massimo senza un processo di questo tipo. Esso implica, naturalmente, non solo l'intelletto, ma anche la motivazione necessaria per intraprendere uno studio così duro. Tale motivazione può essere rinforzata dal successo, e anche da qualche pressione da parte dei genitori. Il padre di Mozart fu un esempio di questo. Dietro a ogni prestazione eccellente si ritrova sistematicamente questo tipo di percorso.

Un problema da risolvere

Nelle ricerche sulla risoluzione di problemi, come del resto in molte altre discipline, si selezionano determinati soggetti, ci si concentra su di essi e su di essi si comincia a imparare un mucchio di cose, tanto che questi soggetti finiscono per diventare una sorta di standard di riferimento. In genetica e in biologia si usano i moscerini di drosofila e i colibatteri. Qui, invece, usiamo la Torre di Hanoi e gli scacchi. Così per noi gli scacchi equivalgono alla drosofila, mentre la Torre di Hanoi è il nostro colibatterio. Che cos'è la Torre di Hanoi? Abbiamo a disposizione tre paletti e non meno di tre dischi. Bisogna riuscire a spostare i dischi da un paletto all'altro seguendo determinate regole: si può muovere solo un disco alla volta e non si può mai mettere un disco più grande su uno più piccolo. Ad esempio, questa mossa non è consentita. Allora, come si fa a metterli tutti qui? Potrei provare così ... e poi spostare questo disco qui ... e quest'altro qui ... e ora sono bloccato!

Come gli umani risolvono i problemi

Come fanno le persone a risolvere questo problema? Prima di tutto, crediamo che essi inventino uno "spazio del problema", cioè un modo di pensare a esso. Lo spazio di questo problema, potrei chiudere gli occhi e immaginarlo: ci sono tre paletti e dei dischi di dimensioni diverse. Sto riflettendo su questo problema senza occuparmi dei colori, perché non mi è stato detto nulla in proposito. Mi preoccupo, invece, delle dimensioni: ecco il mio spazio del problema in questo caso.

Poi applico il metodo "dei fini e dei mezzi". Mi dico: "Io sono qui, ma vorrei essere là; che cosa posso fare?" Beh, posso spostare i dischi uno per uno. Posso fare questa mossa o quest'altra ... Provo subito questa perché so che voglio mettere il disco grande su questo paletto e quindi non voglio coprirlo. Ma questo mi porta dritto nel vicolo cieco di un momento fa. L'unica altra mossa possibile è questa, e ora mi dico: "Voglio sempre poter tirare fuori questo disco grande, perciò farò bene a togliere quest'altro." Ora potrei mettere il grande qui in basso, se non ci fosse già quello piccolo. Ecco una situazione in cui penso a un'azione che mi farà avvicinare all'obiettivo, e penso a una condizione che deve essere soddisfatta perché si possa compiere l'azione; allora il mio nuovo fine sarà di togliere di mezzo il disco piccolo per fare spazio al grande. Ora posso finalmente fare questa mossa. Quindi, mi piacerebbe spostare il disco medio, ma di nuovo il piccolo mi blocca, e quindi il mio obiettivo intermedio diventa toglierlo di mezzo. Infine posso fare questo, questo e quest'altro.

Ciò che avete potuto osservare, nella risoluzione di questo problema, è stato prima di tutto l'elaborazione dello spazio del problema: la sua rappresentazione in termini di paletti, di dischi e delle loro caratteristiche rilevanti, ad esempio le dimensioni dei dischi. La seconda cosa che avete potuto notare è l'idea dei fini o, in altre parole, dei vostri obiettivi, delle situazioni a cui volete arrivare, e poi l'idea delle azioni, ossia i vostri mezzi per giungere al fine, sapendo che non potete spostare più di un disco per volta. Voi avete osservato l'applicazione del metodo "dei fini e dei mezzi": se voglio spostare questo disco, allora posso mettere quest'altro qui, e così via. Sembra tutto molto semplice, ma ... è molto semplice quando si sa di cosa si tratta! Quello che si osserva in generale è solo una combinazione di questo processo.

Gli esperti sono più selettivi

Nella ricerca sulla risoluzione dei problemi, e nell'estensione di questa ricerca volta a scoprire che cosa differenzia l'esperto dal principiante, in questa ricerca, dunque, io penso che abbiamo scoperto due o tre principi molto potenti.

Il primo è che, per essere esperti in qualche cosa, di fatto per essere capaci di fare qualcosa, occorre disporre di conoscenze sufficienti per condurre una ricerca selettiva. Ciò evita di andare a caso e permette di fare una ricerca molto mirata. Il primo tentativo non va sempre nella direzione giusta, ma, con qualche prova in più, la ricerca porterà a buon fine. Occorre, dunque, avere le conoscenze necessarie per operare in modo selettivo. La ricerca, poi, deve essere guidata dal confronto continuo fra l'obiettivo e la situazione attuale, cercando di agire al fine di ridurre lo scarto. Noi chiamiamo questa procedura il metodo "dei fini e dei mezzi". Essa è una componente fondamentale di tutte le abilità, ivi compresa quella di un esperto.

La vera eccellenza, tuttavia, richiede anche l'acquisizione di un vasto corpo di conoscenze. In generale si può affermare che nessuno acquisisce un livello di eccellenza in qualunque campo, da campione olimpionico, da grande maestro di scacchi, da vero esperto in un campo qualsiasi, senza dedicarvi almeno 10 anni di attenzione minuziosa e di duro lavoro di addestramento.

Che cosa vede un esperto

Uno dei limiti reali del pensiero umano sono le piccole dimensioni della memoria a breve termine, cioè le poche cose a cui possiamo prestare attenzione nello stesso tempo. Ma come si fa a misurare questo limite? Beh, se io ho, ad esempio, alcune lettere prese a caso: X, Y, G, V, ciascuna di esse è un "blocco" e io posso ritenerne circa 7 per volta nella memoria a breve termine. Ma se ho 7 parole: cane, gatto, topo, ratto ecc., posso ancora trattenerne 7 nella mia memoria. Io posso, quindi, ritenere 7 "blocchi", purché siano 7 "blocchi" di cose familiari. Numerosi esperimenti hanno confermato quest'idea, e cioè che l'unità fondamentale della memoria non è un bit, una lettera, o qualche altra unità arbitraria, ma un qualcosa di familiare.

Così, quando si dice che un esperto deve immagazzinare moltissime informazioni, spesso si parla di più di 50 000 blocchi, ad esempio le posizioni degli scacchi sulla scacchiera. Oppure, nel caso della diagnostica, se il nostro esperto è un medico egli dovrà avere immagazzinato 50 000 combinazioni di segni, sintomi e risultati di esami che gli sono familiari e che gli permettono di accedere alle sue conoscenze mediche.

Via, via che le dimensioni dei blocchi aumentano, qualunque sia il vostro campo, voi vedete e notate più cose. Mettete, ad esempio, un grande maestro di scacchi per 5 secondi di fronte a una scacchiera, una scacchiera che riproduce una partita reale: gliela mostrate per 5 secondi, poi gliela togliete e gli chiedete di riprodurla. Il maestro farà pochissimi errori: ricostruirà il 95% di 25 posizioni. Se chiedete la stessa cosa a un principiante o a un giocatore occasionale, egli rimetterà al loro posto non più di 5-6 scacchi, forse 7. Per questa persona ogni scacco è un blocco. Per il maestro, invece, una configurazione di più scacchi forma un unico blocco. Quindi per lui sulla scacchiera non ci sono 25 scacchi, ma 5-6 blocchi.

Se, però, ora disponete gli scacchi a caso sulla scacchiera, il maestro non se la caverà molto meglio del dilettante: ricorderà 7-8 posizioni. Il che dimostra che gli occhi proprio non c'entrano: il maestro non ha una vista migliore. Tutto si spiega con i blocchi che si sono accumulati nella sua memoria in anni e anni passati a guardare partite di scacchi.

Potete fare questo esperimento su voi stessi, in un campo che conoscete bene. Se siete un giocatore di bridge o di poker, saprete ricordare delle "mani" di cui altri non si ricorderanno. Se siete un medico, saprete ricordare delle liste di sintomi.

Che cos'è l'intuizione?

Immaginate di entrare nello studio di un dottore: egli vi visita, voi gli raccontate qualcosa ed egli esclama: "Chiaro!". E se ne esce con il nome scientifico della malattia che vi affligge. Se siete fortunati, vi dirà anche cosa fare per stare meglio. Questa è la sua competenza. Ma notate che, descritta in questo modo, sembra trattarsi piuttosto di "intuizione".

Che cos'è l'intuizione? Supponiamo che poniate un problema a qualcuno, e che questo lo risolva molto rapidamente. Voi allora gli chiedete: "Come hai fatto a trovare la risposta?" e lui spiega: "Ho avuto un'intuizione! Mi è venuta subito in mente."

L'intuizione, stando a quanto abbiamo appreso or ora, è semplicemente una forma di riconoscimento, ossia la capacità di riconoscere, nell'ambiente, indizi familiari che non sono, però, percepibili da chi non si è costruito quel grande sapere enciclopedico, indicizzato attraverso lo studio e l'esperienza. Dunque, noi oggi pensiamo che la competenza, non solo quella relativa a materie molto strutturate che richiedono analisi, ma anche la competenza che procede per salti intuitivi, possa essere spiegata in questi termini, e per questo siamo in grado di scrivere programmi informatici capaci di intuizione.

Come mai l'esperto non può spiegare come arriva alla risposta? Nel caso di un processo di riconoscimento, voi siete in grado di dire che cosa avete riconosciuto, ma non potete rendere conto dettagliatamente degli indizi che avete utilizzato. Un vostro amico avanza verso di voi e voi lo salutate: "Ciao Fred!". Se qualcuno, però, vi chiede: "Come facevi a sapere che era Fred?", non c'è modo di rispondere onestamente, poiché semplicemente non ne siete coscienti. Accadono moltissime cose al di fuori dal controllo della coscienza. Vi sono certi indizi che voi vedete, questi indizi sono classificati dall'indice di cui parlavamo prima, e alla fine arrivate a "Fred", il nome della persona che si trova davanti a voi. Ciò non significa che voi sapreste descrivere Fred abbastanza bene da consentire a qualcun altro di riconoscerlo. Quindi l'intuizione arriva, di fatto, quando il risultato ci sembra già certo, sebbene non abbiamo alcuna consapevolezza di tutti i passaggi attraverso i quali la nostra mente è passata per arrivare a tale risultato.

Che cos'è il genio?

Quando si rimane davvero colpiti da ciò che può fare un esperto, se è particolarmente creativo, e soprattutto se l'esperto può ripetere ciò che fa o può fare due cose diverse, allora si comincia a parlare di genio. Genio è , dunque, solo una parola usata per indicare qualcosa in cima a una scala, e io non ho alcuna ragione per credere che esista qualcosa di speciale, chiamato "genio", che non si ritrovi in misura maggiore o minore in tutti i membri della nostra specie. E' solo che noi abbiamo preso l'abitudine di utilizzare questa parola quando qualcuno fa qualcosa che sembra veramente fuori dall'ordinario.

Il fatto poi di dire se il genio in particolare, e l'intelligenza in generale, siano fattori di natura ereditaria o acquisita, è naturalmente una questione molto controversa. Gran parte di quelli che hanno studiato il problema ritengono che vi sia un'interazione: come le differenze genetiche influiscono sull'attitudine ad apprendere e ad agire in modo intelligente, così il contatto con la conoscenza influenza le capacità intellettuali. Non ha, dunque, alcun senso cercare di stabilire il contribuito relativo di ciascuna componente, poiché esso può dipendere da variazioni ambientali. Due ambienti molto diversi producono differenze di prestazione dovute all'ambiente, e due patrimoni genetici molto diversi producono differenze di prestazione dovute al patrimonio genetico. Penso che questo dibattito rimarrà mal definito fino a quando non si sarà riconosciuto che né gli effetti della genetica, né quelli dell'esperienza sono prefissati.

Che cos'è il talento?

Che cos'è il talento? Ecco che ancora una volta si pone la questione se siamo nati tutti uguali, oppure se alcuni di noi nascano con delle attitudini particolari. Non è affatto chiaro.

E' probabile che ...

Facciamo un esempio estremo: per avere talento nel basket, è utile essere alti almeno 1,85 m, altrimenti non avrete delle grandi possibilità (c'è qualche rara eccezione).

Evidentemente vi è , dunque, una componente innata del talento. Ma gran parte di ciò che viene chiamato "talento" consiste, in realtà, nella motivazione che spinge all'esercizio. L'idea che uno sia nato per fare il musicista, un altro per fare lo scienziato e un terzo per fare qualcos'altro si fonda su basi molto deboli.

Intelligenza artificiale

Il principale argomento delle mie ricerche di questi ultimi anni, diciamo pure degli ultimi 40 anni, è stato cercare di comprendere come pensano gli esseri umani; per quali passaggi devono passare per trovare la risposta a un problema difficile, o per prendere delle decisioni o, ancora, per utilizzare il linguaggio.

Mi sembrava, e mi sembra sempre di più grazie alle sperimentazioni, che uno strumento potente per comprendere il pensiero umano fosse quello di programmare dei computer che pensino nello stesso modo degli uomini, cioè usando gli stessi processi di pensiero della natura umana. Questo è ciò che noi definiamo abitualmente come "intelligenza artificiale". Di fatto, l'intelligenza artificiale può andare in due direzioni: utilizzare il computer per cercare di simulare e imitare il pensiero umano e i suoi processi, oppure utilizzare il computer semplicemente per fare delle cose "intelligenti", cose, cioè , che negli esseri umani richiederebbero intelligenza.

L'intelligenza degli scacchi

Oggi ci sono dei programmi di computer che giocano molto bene a scacchi. La maggior parte di questi programmi non gioca a scacchi come gli esseri umani, ma sfrutta la velocità tipica dei computer per esaminare in anticipo dei milioni, quasi un miliardo di mosse e di decisioni possibili. Ora, noi sappiamo che un essere umano, anche un grande maestro come Kasparov, probabilmente esamina al massimo un centinaio di mosse, non un miliardo e neppure dei milioni, ma solo un centinaio. Dunque è chiaro che Kasparov, anche se un programma come Deep Blue gioca molto bene contro di lui, è chiaro che Kasparov calcola le sue mosse in modo totalmente differente da Deep Blue.

Tuttavia, è possibile creare dei programmi che giochino a scacchi in modo più "umano". Questi programmi, invece di selezionare la mossa migliore dopo avere esaminato milioni di possibilità , studiano solo qualche possibilità ben scelta, al massimo un centinaio, proprio come i grandi maestri. Inoltre, servendosi di vari indizi e delle conoscenze che contano sulla scacchiera, questi programmi sono in grado di selezionare mosse molto buone. Programmi come questo già esistono: nessuno di essi è brillante come Deep Blue, né è ancora in grado di sfidare Kasparov. Essi, tuttavia, ci mostrano il modo in cui gli esseri umani selezionano le proprie mosse, pur senza avere la possibilità di esaminare miliardi di possibilità come fanno i computer.

Conoscenza contro velocità di calcolo

Una delle cose che sappiamo sull'intelligenza, e i programmi per il gioco degli scacchi l'hanno dimostrato, è che la sola velocità di calcolo non è sufficiente per progredire, e tanto meno per comportarsi in modo intelligente. Quindi, anche se Deep Blue può calcolare molto più velocemente di un essere umano, se gioca bene a scacchi è soprattutto perché conosce molto bene il gioco.

Fernand Gobet e io abbiamo analizzato alcune partite in cui Kasparov giocava contro un certo numero di altri giocatori, ciascuno su una diversa scacchiera, 6 o 8 giocatori anch'essi maestri o grandi maestri. Le partite avevano luogo simultaneamente. Rispetto ai suoi avversari Kasparov aveva, dunque, 6 o 8 volte meno tempo per compiere la propria mossa. Esiste un sistema di valutazione della bravura di un giocatore di scacchi: il livello ELO. Quando Kasparov giocava simultaneamente contro 6 o 8 avversari, non era brillante come nei campionati in cui otteneva 2750 punti: giocava né più né meno come un grande maestro, totalizzando circa 2650 punti, 100 punti in meno! Rimaneva, però, sempre più forte di gran parte dei giocatori esistenti al mondo! Quindi la prestazione non è assolutamente dovuta solo alla velocità di calcolo. Kasparov aveva, comunque, la sua conoscenza degli scacchi, che gli permetteva di riconoscere le situazioni e le mossa giuste, anche quando non aveva il tempo di analizzarne molte.

Quindi, quando i programmi di scacchi avranno il vantaggio della conoscenza, potremo farli andare più piano, perché questi programmi giocheranno molto bene senza dover fare tanti calcoli.

Il segreto dell'intelligenza umana

Tutta la nostra esperienza maturata con i programmi di scacchi dimostra che la velocità non può sostituire la conoscenza, anche se delle limitate possibilità di sostituzione esistono. Ciò che è interessante e meraviglioso a proposito degli esseri umani, sia che li si consideri esseri semplici o complessi, ciò che è meraviglioso è osservare quanto sappiamo andare lontano grazie alla conoscenza e alla capacità di discernimento. Siccome noi non abbiamo una grande velocità di calcolo, raramente ci impegniamo in moltiplicazioni molto complesse, anzi, la maggior parte di noi non ne fa proprio. La conoscenza, tuttavia, ci permette di selezionare per andare immediatamente nella direzione giusta, con pochissima ricerca, e senza provare tutte le strade possibili. E' questo che caratterizza la nostra intelligenza: questo è il suo segreto.

Regole semplici e comportamenti complessi

Immaginate di essere distesi su una spiaggia e di vedere una formica che si muove sulla sabbia, seguendo un percorso molto contorto: gira prima a destra, poi a sinistra, si arrampica su una piccola duna di sabbia, scivola giù dall'altra parte, riparte. E voi pensate: "Che percorso complicato!" Tuttavia, alla base di questo comportamento ci sono delle leggi molto semplici: la formica cerca di tornare al proprio formicaio.

Una volta che sappiamo qual è l'obiettivo della formica, una volta che conosciamo le sue capacità , la sua razionalità limitata, possiamo dire: "In effetti, sto osservando una cosa molto semplice". Lo stesso accade nel caso degli esseri umani: quando comprendiamo i loro obiettivi e le loro capacità di risoluzione dei problemi, la via tanto complessa che porta dal punto di partenza alla risoluzione del problema diventa comprensibile e, da quella prospettiva, perfino semplice. E' questo il momento in cui pensiamo: ora è ovvio!

La nascita dell'intelligenza artificiale

Di solito io faccio risalire la nascita dell'intelligenza artificiale al 15 dicembre 1955, poiché quel giorno Allen Newell, Cliff Shaw e io abbiamo scritto per la prima volta un programma in grado di risolvere un problema in modo simile all'uomo. Al posto di utilizzare dei metodi brutali di ricerca sistematica, questo programma cercava molto selettivamente le soluzioni possibili: selezionava un valore plausibile, lo studiava attentamente, poi decideva la più possibilità successiva più probabile e quindi arrivava alla soluzione finale.

Il nostro primo programma di intelligenza artificiale, chiamato "Logic Theorist", dimostrava dei teoremi di logica simbolica. Scegliemmo questo campo perché è generalmente considerato difficile, e inoltre perché io avevo a casa il classico libro di White e Russell, "Principia Mathematica", che leggevo per capire come le persone dimostrano questo genere di teoremi.

Bisogna mettere bene in chiaro che il nostro programma non cercava di dimostrare la validità logica di una dimostrazione esistente, ma cercava piuttosto di costruire una dimostrazione. Poiché questi teoremi erano già stati dimostrati, si potrebbe pensare che il nostro programma non fosse molto creativo. Ciò nondimeno, per uno dei teoremi il programma trovò una dimostrazione più diretta ed elegante che quella proposta da White e Russel. E io direi che da parte sua fu un atto molto creativo.

Esempi di procedure algebriche

Consideriamo le regole alla base della capacità di risolvere un'equazione lineare come:

3X+4 = X-17

Se voglio risolvere questa equazione, so che la soluzione sarà : una 'X', un segno 'uguale' e qualche numero. Perciò dico:

"Bene,

3X+4 = X-17

e io voglio che

X = un numero.

Come posso arrivarci?

Intanto liberiamoci della 'X' nel membro destro dell'equazione.

3X+4 = X-17

Sottraiamola da entrambi i membri. Ora sembra un po' più come la voglio io ...

2X+4 = -17

Non mi piace quel 4 laggiù, eliminiamolo ...

2X = -21

Non ho ancora la soluzione, perciò dividiamo per 2

X = -21/2

Ecco le procedure che ho seguito:

"SE ho un'espressione con una X nel membro destro, ALLORA devo eliminare quella X sottraendola da entrambi i membri."

"SE ho un'espressione con un numero nel membro sinistro, ALLORA devo eliminare quel numero sottraendolo da entrambi i membri."

"SE ho la X, ma essa ha un coefficiente, ALLORA devo liberarmi di esso dividendo entrambi i membri per il coefficiente".

Imparare l'algebra, o questa parte dell'algebra, significa acquisire procedure di questo tipo, in modo che quando ci troviamo in una determinata situazione con un determinato obiettivo, siamo in grado di fare queste cose. Abbiamo sviluppato programmi di computer chiamati "sistemi di produzione adattativa", i quali, esposti a esempi dati come questo, trovano da soli le procedure, le mettono in memoria e da quel momento in poi sono capaci di risolvere problemi di algebra di questo tipo.

Senza fatica nessun risultato!

Quando parlo di studio serio e rigoroso penso ad almeno 4 ore al giorno. Di solito questo studio avviene in momenti specifici della giornata, nei quali si fanno sistematicamente gli esercizi che sono necessari. Anders Ericsson e i suoi colleghi hanno compiuto alcuni studi sui musicisti e hanno scoperto che fra solisti, orchestrali e insegnanti di musica, sebbene siano tutti professionisti, si possono trovare grandi differenze nel numero di ore al giorno che essi hanno investito per raggiungere il proprio livello di eccellenza.

Noi risolviamo i problemi grazie all'euristica.

Anche per un problema semplice come la torre di Hanoi ci sono centinaia di alternative possibili, e se lo date da risolvere a un ragazzo di 12 anni, egli ne esaminerà  un certo numero a caso e poi lascerà  perdere.

Per gli esseri umani che non vogliono esaminare a caso centinaia di possibilità , noi cerchiamo di scoprire dei metodi rapidi per risolvere questi problemi. Anche noi siamo pronti a provare un certo numero di alternative, ma certamente non centinaia e non per tempi troppo lunghi. Ecco perché cerchiamo di seguire delle regole di condotta semplici, anche chiamate euristiche, che a noi sembrano appropriate per la risoluzione del problema in questione.

Negli scacchi, ad esempio, si dice che la torre sia molto potente quando si trova davanti una fila libera. Di conseguenza, quando vediamo una fila libera, siamo spesso tentati di metterci la nostra torre. Questa è un esempio di euristica, molto specifico per gli scacchi.

Esistono, tuttavia, delle regole euristiche più generali, che valgono in tutti i giochi come, ad esempio, la regola della mobilità . Essa dice che ogni mossa che permette di aumentare il numero di mosse possibili nel turno successivo è probabilmente una buona mossa, perché favorisce la mobilità. Il giocatore che ha più libertà di movimento ha, in effetti, più chance di battere chi ne ha di meno.

David Servan-Schreiber

Alla ricerca delle emozioni

Il principale obiettivo delle mie ricerche è di comprendere quali siano le diverse regioni del cervello responsabili delle esperienze emozionali negli esseri umani e, in particolare, delle esperienze emozionali anormali nei pazienti psichiatrici.

Per raggiungere quest’obiettivo, in una serie d’esperimenti condotti di recente, abbiamo usato un farmaco ad azione brevissima (la procaina), che induce stati emozionali in persone normali per 2-3 minuti, mentre esse si trovano dentro uno scanner per imaging cerebrale (RMF o PET). Questo ci permette di misurare le modificazioni d’attività che si producono nel loro cervello proprio mentre esse stanno sperimentando delle emozioni particolari. In questo modo possiamo mettere in relazione ciò che esse sentono e dicono di sentire con le aree del loro cervello che sono attive nello stesso istante.

L'emozione allo stato puro

Quello che vedete qui, e che è interessante in quest'immagine cerebrale, è che ci sono delle regioni profonde e centrali del cervello, che sono attivate dalla procaina proprio mentre i soggetti riferiscono di provare un'emozione intensa, senza, però, avere alcuna attività cognitiva. Essi dicono di non stare pensando a niente. Non sanno neppure dire perché sentono quest'emozione: la vivono e basta. Raccontano di provare una sensazione viscerale, come se dentro di loro qualcosa li prendesse o li coinvolgesse, senza tuttavia poter giustificare o immaginare perché stia loro accadendo tutto ciò, poiché quest'emozione non è altro che l'effetto del farmaco.

Le emozioni nell'evoluzione

Molti studiosi concordano sul fatto che le parti del cervello che i neuroscienziati associano alle emozioni esistano anche in specie più primitive, diversamente da altre parti del cervello, come la neocorteccia ("neo" significa "nuovo"), che è presente solo in specie più evolute. Pertanto è possibile che l'uomo abbia un certo numero d’esperienze emozionali e viscerali in comune con specie più primitive: certamente con gli altri mammiferi, ma forse anche con i rettili.

Tutti noi sappiamo che i nostri riflessi, le nostre reazioni viscerali sono molto simili a quelle dei ratti o dei rettili. Se, ad esempio, uno sconosciuto vi piomba addosso senza che voi ve lo aspettiate, la vostra reazione immediata sarà di scappare, di schivarlo o di proteggervi. Analogamente, in primavera molte specie animali sentono il bisogno di accoppiarsi con individui della stessa specie di sesso opposto, e lo stesso accade anche nella specie umana. Non è, dunque, sorprendente il fatto che queste emozioni siano associate a parti simili del cervello in tutte queste specie diverse.

Gli allarmi emozionali

La vostra coscienza è come una finestra aperta sul mondo, ma ha una visuale molto stretta. Altre parti del cervello, tuttavia, controllano costantemente le informazioni sensoriali in entrata che magari non passano per la visuale della coscienza.

Così, se accade qualcosa d'importante che è rilevato dai vari sistemi di percezione, ma non dalla coscienza, scatta un allarme nel corso del quale il sistema emozionale ordina al resto del cervello: "Fermati! Smetti di prestare attenzione a qualsiasi altra cosa, e prendi, piuttosto, coscienza di questo nuovo evento importante!". In parallelo il sistema emozionale invia segnali al sistema motorio, oltre che ai sistemi viscerali dell'organismo, in modo da preparare l'individuo all'azione che può rendersi necessaria per rispondere opportunamente al segnale d'allarme.

Il sistema emozionale ha, dunque, una funzione d’allarme e di riflesso, che serve a mettere in guardia l'organismo in situazioni in cui è in gioco la sopravvivenza. Questo è uno dei ruoli primari delle emozioni.

Dare un valore alle cose

L'altro ruolo delle emozioni sembra essere quello di dare un valore, sia esso positivo o negativo, alle cose che ci riguardano.

Anche la funzione cognitiva sembra importante per comprendere le relazioni di causa ed effetto che esistono nel mondo reale o, in altre parole, le relazioni fra eventi diversi, in modo che essi possano essere previsti. Ma questo di per sé non è sufficiente ad attribuire un valore a queste cose. E', dunque, indispensabile che esista un sistema nel cervello che dica all'organismo: "Questo evento è qualcosa che tu desideri che accada ancora; questo evento, invece, non ti è del tutto chiaro e non vuoi che accada più." Se un tale sistema mancasse, fuori di noi ci sarebbe un grande mondo logico, nel quale però noi non sapremmo che cosa desiderare e che cosa, invece, evitare. Dev'esserci, dunque, una parte del cervello che assegna un significato agli eventi in termini di sopravvivenza. Sono in molti a credere che questo ruolo sia proprio del sistema limbico o, come si dice, del cervello emozionale.

L'uomo che non provava emozioni

Una lesione del cervello emozionale può avere delle conseguenze drammatiche. Sappiamo che una lesione di questo tipo può avere un impatto disastroso sul comportamento, senza peraltro compromettere il quoziente d'intelligenza, le facoltà mentali, la capacità di risolvere problemi o l'intelligenza pura e semplice. Sono stati effettuati numerosi studi su pazienti con lesioni nelle regioni frontali profonde e inferiori, nei quali è compromesso il giudizio morale, ma non quello cognitivo. Costoro sono in grado di ragionare normalmente sui problemi, ma sono incapaci di agire di conseguenza.

Prendiamo l'esempio di un contabile, descritto dal professor Damasio dell'università dell'Iowa. Questo contabile molto stimato era il maggiore della sua famiglia, un esempio per fratelli e sorelle, era sposato, aveva dei bambini e possedeva uno studio di contabilità bene avviato. Ad un certo punto gli fu diagnosticato, fra i due emisferi cerebrali, un tumore frontale e inferiore, che gli fu asportato insieme con una buona parte della corteccia fronto-orbitale su entrambi i lati. Dopo l'operazione, perfettamente riuscita, egli si trasformò in una persona completamente diversa. Nell'arco di qualche anno divorzi˜ varie volte, perse il lavoro e rimase coinvolto in numerosi affari loschi con personaggi poco raccomandabili. Giocava d'azzardo, beveva e faceva un mucchio di cose che non aveva mai fatto prima. La sua personalità era completamente cambiata.

Il fatto davvero interessante è che il suo alto Q.I. di prima dell'operazione, attorno a 140, era rimasto intatto, nonostante il suo comportamento fosse diventato francamente nefasto e contrario alla sua capacità di funzionare come un essere umano adulto e consapevole. Egli era rimasto una persona intelligente ai sensi del suo Q.I., ma era diventato un totale imbecille nella sua maniera di comportarsi e in particolare nei suoi giudizi emotivi sulle situazioni e sulle persone.

Il quoziente emozionale

Spesso consideriamo le persone intelligenti, quelle con un Q.I. elevato, come degli individui superiori a noi e di maggiore successo. Ci dobbiamo, però, chiedere se il Q.I. è davvero un fattore determinante. L'esempio che vi ho appena raccontato sembra dimostrare il contrario, e cioè che il Q.I. non sia poi così importante. Ciò che sembra determinare la riuscita sociale di una persona non è tanto la potenza del suo intelletto, quanto la sua capacità di comunicare con gli altri, di valutare le situazioni sociali ed emozionali, di controllare le proprie emozioni, di non lasciarsi trascinare dalla collera, di inibire la propria aggressività, di emettere i giusti segnali emozionali, di restare sintonizzati con gli altri per navigare in modo armonioso con la flotta di relazioni umane di cui si è circondati. Ci sono pochissime attività che sono contemporaneamente apprezzate a livello sociale ed eseguite in isolamento, in assenza di rapporti armoniosi con gli altri.

Ciò che di fatto limita il successo delle persone non è tanto il loro livello di conoscenze matematiche o la loro abilità nel manipolare rapidamente concetti astratti, ma piuttosto delle cose più semplici, come pestare i piedi degli altri, rendere infelici i propri collaboratori o inasprire talmente i rapporti che il gruppo di cui si è parte non può funzionare come una squadra. Naturalmente, è proprio questo che cerchiamo di insegnare ai nostri bambini quando vanno a scuola: lo "spirito di gruppo" e tutto il resto ... Chi comprende questa lezione e riesce a farne tesoro, ne trae un vantaggio sia personale che per il proprio gruppo sociale o di lavoro. L'insieme di queste capacità è chiamato "quoziente emozionale", in contrapposizione al quoziente intellettivo: il Q.E. al posto del Q.I. E' emerso che il Q.E. determina il successo sociale di una persona molto del Q.I., che può solo prevedere la prestazione scolastica di una persona, ma non va oltre.

Anatomia dell'inconscio

Una cosa importante da comprendere è che probabilmente esiste un sistema emozionale, cioè un insieme di strutture cerebrali altamente interconnesse e dedicate alla gestione dell'esperienza emozionale. E poi c'è il resto del cervello, che è responsabile della cognizione, della comprensione delle relazioni causali della realtà, del modo in cui le cose si armonizzano fra loro e così via. Questi due sistemi possono operare in modo semi-indipendente. Naturalmente sono collegati l'uno all'altro e comunicano costantemente, ma possono anche svolgere funzioni durante le quali non comunicano.

E' proprio qui che, essendo io un neuroscienziato, ritengo che gran parte di ciò che gli psicoanalisti chiamano da più di cento anni "inconscio" sia da mettere in relazione con questa regione emozionale, più profonda, del cervello, non necessariamente accessibile dalla parte cosciente e cognitiva. Così, ci può ad esempio succedere di sentire o provare qualcosa senza sapere perché. Questo è un fenomeno che gli analisti descrivono da più di un secolo, ma noi cominciamo solo ora a comprendere come si possa metterlo in relazione con l'organizzazione anatomica del cervello e quali siano le strutture implicate in tale fenomeno.

Il fenomeno del transfert

Prendiamo ad esempio uno degli strumenti più importanti della psicanalisi, ossia l'idea del transfert: è una cosa che tutti noi adulti facciamo, e consiste nel proiettare cose su altri adulti, soprattutto sulle figure di autorità , come il nostro capo o il nostro medico. Noi abbiamo la tendenza di proiettare su queste persone lo stesso tipo di aspettarci da esse lo stesso tipo di comportamenti e di atteggiamenti che da bambini abbiamo sperimentato con i nostri genitori. Ci può succedere di provare in loro presenza le stesse emozioni che provavamo con nostro padre o nostra madre quando eravamo bambini.

Quindi, questo stato emozionale, che si è innescato di recente dalla relazione con questa figura adulta, può essere assolutamente inappropriato ai fini di quello che stiamo cercando di realizzare con quella particolare persona e, anzi, può addirittura interferire con la nostra capacità di portare a termine i progetti che dobbiamo realizzare con essa. Rendersi conto di tutto questo, collegarlo con la passata esperienza emozionale e rendersi conto che è da lì che proviene significa poter controllare il transfert con la parte cognitiva del cervello. Io ritengo che questa sia la spiegazione neuroanatomica del fenomeno del transfert di cui la psicanalisi parla da molto tempo.

I traumi non si dimenticano

Grazie alle ricerche effettuate sulla memoria emozionale noi sappiamo che molto probabilmente i ricordi di eventi traumatici o negativi sono conservati nel cervello emozionale per lunghissimo tempo, mentre possono estinguersi o scomparire dalle altre aree del cervello. Fatto più importante, la presenza della neocorteccia sembra essere indispensabile per consentire a un organismo di smettere di reagire con paura a qualcosa che in passato era stato associato a tale reazione.

Mi viene in mente un esperimento che dimostra che, se un animale subisce uno shock mentre gli viene fatto sentire un certo suono, egli continuerà ad avere timore di quel suono e reagirà per sempre come se stesse per subire un nuovo shock se la sua neocorteccia frontale presenta una lesione. La neocorteccia frontale è , dunque, necessaria per inibire la tendenza dell'animale alla fuga quando sente il suono, anche quando esso non è più associato allo shock.

Quindi è proprio come se i nostri ricordi emozionali fossero effettivamente indelebili, rimanessero per sempre al loro posto, e non potessero essere cancellati, ma solo tenuti sotto controllo.

Il controllo delle emozioni

Di fatto, una delle premesse della psicanalisi è che compiere quel collegamento, comprendere perché improvvisamente sentiamo delle emozioni che provengono dal nostro passato e che non sono più appropriate, sia un passaggio indispensabile, o per lo meno uno dei modi con cui possiamo imparare a controllare i nostri sentimenti e a non provare queste emozioni inappropriate. Per la maggior parte delle persone questa tecnica sembra effettivamente funzionare molto bene.

In questo caso, l'assunto è che se riusciamo a capire precisamente da dove vengano queste emozioni, possiamo trovare delle buone ragioni per controllarle e possiamo dire a noi stessi: "D'accordo, questa persona ha la stessa barba di mio padre, porta degli occhiali come i suoi, forse ha la stessa statura, e mi sembra una figura autorevole perché è il direttore della società , ma in realtà devo ammettere che non ha mai avuto nessuno dei comportamenti che mio padre aveva verso di me e che tanto mi turbavano". Quindi, identificando le proprie reazioni, comprendendone l'origine e convincendosi che tali reazioni non sono più appropriate, si diventa capaci di controllarle.

A che cosa serve la neocorteccia?

Nel cervello emozionale sono codificate delle reazioni automatiche che sono, ovviamente, utili alla sopravvivenza; esse non sono, tuttavia, sufficienti, poiché un organismo vincolato ad una serie di reazioni elementari "riflesse" di questo tipo sarebbe alquanto limitato. Potrebbe, ad esempio, attaccare la propria prole scambiandola per una preda, o non essere in grado di programmare il proprio comportamento futuro.

Via, via che le specie si sono evolute, al cervello emozionale si sono aggiunti nuovi strati di cellule, denominati collettivamente neocorteccia. Funzioni di questa struttura sono la capacità di elaborare informazioni più complesse, di adattare il comportamento con maggiore flessibilità, di modulare molte risposte emozionali elementari e di pianificare anticipatamente il comportamento per evitare future sofferenze o massimizzare futuri benefici. Ciò comporta di doversi opporre agli impulsi del cervello emozionale, che non ammette una sofferenza immediata in vista di una gratificazione futura.

Diversità delle emozioni

Le nostre emozioni di base sono più ricche del semplice senso di bene e male. La maggior parte dei ricercatori pensa che esistano delle emozioni primarie che si trovano in tutte le culture e che noi condividiamo con altri primati come i gorilla. Esse sono identificate analizzando l'espressione facciale delle emozioni. In tutte le culture la paura, la gioia, l'assenso, la sorpresa, la tristezza, il disgusto, e la rabbia sono riconoscibili nell'espressione facciale. A questa lista alcuni aggiungono l'accettazione e l'attesa, sebbene siano più difficili da definire.

Si ritiene che ciascuna emozione primaria sia associata a uno specifico piano d'azione che è attivato simultaneamente alla sensazione avvertita dall’oggetto.

Ad esempio, la rabbia determina una fase preparatoria in alcuni muscoli, tra cui il cuore, e un incremento della pressione arteriosa in vista dell'incontro con l'aggressore e di un eventuale combattimento. La tristezza, al contrario, prepara l'organismo al rilassamento e alla conservazione dell’energia.

E' possibile localizzare l'amore?

I diversi centri cerebrali attivati dalla procaina durante l'esperimento costituiscono il sistema limbico. Su entrambi i lati potete vedere la corteccia insulare, una regione profonda della corteccia dei mammiferi. Al centro del cervello c'è poi l'amigdala, presente in tutti i mammiferi e anche in specie più primitive come i rettili. Sopra di essa, nel mezzo, si può vedere la corteccia anteriore cingolare, che è specifica dei mammiferi e che nelle altre specie ha una forma diversa.

Una caratteristica che differenzia i mammiferi dalle altre specie è l'allattamento dei piccoli. Perché l'allattamento possa avvenire, fra la prole e la madre si deve instaurare un attaccamento che è specifico dei mammiferi. Si ritiene che la corteccia anteriore cingolare sia la struttura cerebrale deputata a promuovere quest’attaccamento alla prole. Sappiamo, ad esempio, che essa è attivata dalle vocalizzazioni della prole quando essa viene separata dalla madre.

E' dunque la corteccia anteriore cingolare l'area responsabile dell'amore? Sebbene sembri che essa si sia inizialmente evoluta parallelamente allo sviluppo del comportamento materno, probabilmente è poi diventata responsabile, soprattutto negli esseri umani, anche delle forme d’attaccamento fra adulti. Tutto il concetto dell'attaccamento, inizialmente evolutosi per promuovere la sopravvivenza della prole, ha dunque trovato un'area d’applicazione più ampia nel promuovere le relazioni interpersonali, e probabilmente è anche alla base del comportamento sociale.

Il sé emozionale e il sé razionale

Se alcune lesioni possono influenzare gli aspetti emozionali del comportamento senza intaccare il ragionamento logico, ci si può chiedere se esistano due sé, uno emozionale e uno cognitivo, separati.

Non credo si possa dare una risposta univoca a questa domanda. Tuttavia, sembra che quello che noi chiamiamo sé sia il risultato della funzione integrata di molte parti separate del cervello che generalmente agiscono di concerto. Quando alcune di queste funzioni sono disattivate o compromesse, come quando sogniamo o siamo sotto l'influenza di certe droghe, il sé rivela aspetti diversi. Questa è una delle ragioni che rendono i sogni tanto interessanti.

Le persone che hanno subito lesioni permanenti d’aree cerebrali importanti ai fini di particolari funzioni emozionali o cognitive vanno incontro a cambiamenti del sé più permanenti. Ciò è visibile in coloro che hanno subito gravi traumi cerebrali (ad esempio in seguito ad un incidente automobilistico che li ha fatti andare in coma), oppure dopo certi ictus, o nelle persone affette dal morbo d’Alzheimer.

Ciò nondimeno, non credo che possiamo parlare di un sé "emozionale" e di un sé "cognitivo" o "razionale". Questo perché le aree cerebrali implicate in ciascuno di questi due aspetti del comportamento sono distribuite in modo tale che è in sostanza impossibile distruggere selettivamente tutte le funzioni "emozionali" o tutte quelle "razionali".

Un nuovo fondamento per la psicanalisi?

Quanto manca alle neuroscienze cognitive per sviluppare una nuova teoria che abbracci gli stessi fenomeni tradizionalmente studiati dalla psicanalisi? Io credo che esistano due aspetti della psicanalisi. Il primo è un insieme di meccanismi riguardanti gli aspetti emozionali e comportamentali del cervello, che Freud cercò di identificare con alcune interpretazioni meccanicistiche del cervello, effettuate osservando casi clinici anomali. Ritengo che questo sia l'aspetto della psicanalisi al quale le neuroscienze stanno mirando attualmente.

Quasi un secolo fa, Freud stava elaborando le proprie teorie da concetti molto semplici. Credo che fin dall'inizio si sia concentrato sulla metafora del cervello-computer, anche se ovviamente non conosceva questo strumento d’elaborazione. Né poteva immaginare l'esistenza di gruppi di neuroni che lavorano insieme. Da allora, gli strumenti di cui Freud disponeva per elaborare le proprie teorie sono completamente cambiati, e quindi credo che i fondamenti della psicanalisi dovranno presto subire un processo di rinnovamento.

D'altro canto, la psicanalisi è molto più che un semplice insieme di meccanismi stabiliti un centinaio d’anni fa, e questo è il secondo aspetto cui accennavo. La psicanalisi è stata un campo di studio e attività intensi, e ha sviluppato molti raffinati concetti sulla natura della personalità, dello sviluppo, della crescita, della maturità e delle relazioni; tutti concetti che oggi sono molto lontani dai primitivi meccanismi originariamente suggeriti da Freud.

Io non credo che i principi delle neuroscienze cognitive possano aiutare a comprendere aspetti più globali del comportamento come lo sviluppo della personalità, la maturità e la saggezza. Penso che ci vorrà molto tempo prima che le scoperte di base di cui stiamo parlando possano dare un contributo alla comprensione dell'essere umano fra il momento della nascita e quello della sua morte.

Le origini del bene e del male

Naturalmente viene da chiedersi da dove vengano i valori del "bene" e del "male" che associamo a particolari eventi. Questo è un problema antico quanto la filosofia e la religione. La nostra attuale interpretazione è che il cervello si sviluppi con un'innata tendenza ad associare valori positivi o negativi a molti specifici oggetti e situazioni, ma che, nello stesso tempo, nel sistema rimanga una grandissima flessibilità che consente di apprendere nuovi valori o di modificare un valore dato, da positivo a negativo o viceversa, a seconda dell'esperienza.

Ad esempio, sappiamo che le scimmie, e anche le persone, non sviluppano reazioni estremamente negative, come le fobie, verso qualunque cosa. Una scimmia allevata in cattività, senza aver mai visto un serpente, non ha paura dei rettili. Tuttavia, è straordinariamente semplice indurre in quest’animale non solo la paura dei serpenti, ma anche di qualsiasi cosa somigli a un serpente. E', invece, difficilissimo indurre una fobia dei fiori o di altri oggetti "neutrali".

Con le persone accade lo stesso. Le fobie osservate nei pazienti psichiatrici sono associate ai serpenti, ai ragni, al buio, alle altezze, ai ponti, ai piccoli spazi nei quali si può restare bloccati ecc. Praticamente mai, però, ai fiori, alla luce del giorno, alla terra ferma, ai campi aperti con dolci colline sullo sfondo ecc. Ciò dimostra la presenza di inclinazioni innate, specie-specifiche per ciò che deve essere evitato e ciò che può essere avvicinato.

D'altro canto, il sistema emozionale è anche molto adattabile alle nuove acquisizioni. Esperienze di gratificazione e di punizione sono elaborate quasi istantaneamente, dopo una singola esperienza, e l'associazione appresa persiste a lungo dopo l'evento iniziale. Pensate ad esempio all'intenso ricordo di particolari incidenti infantili (la caduta dalla bicicletta o dalle scale, la scottatura con l'acqua bollente o con un petardo) o il ricordo dei primi amori: molti altri eventi dello stesso periodo si sono magari attenuati, ma questi rimangono quasi a tempo indefinito.

Naturalmente, la cultura, l'ambiente sociale in cui si viene allevati, influenzano fortemente ciò che per un individuo sarà "bene" o "male". Noi apprendiamo costantemente dagli altri intorno a noi, dapprima dai nostri genitori quando siamo piccoli, poi dagli amici quando siamo adolescenti, e infine dalla società in senso lato quando siamo diventati adulti. Queste influenze sono fattori che determinano fortemente i nostri valori.

In sintesi sembrano esistere tre fonti da cui si sviluppa il nostro senso del bene e del male: una biologica, una personale e una culturale. Esse interagiscono continuamente l'una con l'altra, dando luogo a un complesso sistema di valori e preferenze che rende ciascuno di noi unico nel suo modo di associare un significato emotivo agli eventi.

Che cos'è la procaina?

Nei più recenti esperimenti da noi condotti, abbiamo usato un farmaco denominato procaina. Nota anche come nocovocaina, la procaina è comunemente usata come anestetico in odontoiatria, sebbene non sempre venga iniettata per via endovenosa come, invece, la usiamo noi.

 

Stephen Kosslyn

Tre tecniche di imaging cerebrale

Attualmente esistono tre tipi di tecniche, molto diffuse, con le quali ottenere immagini del cervello. Le più antiche si basano sul rilevamento dell'attività elettrica, che è registrata posizionando degli elettrodi sul cranio. Si tratta dell'elettroencefalografia, che consente un'ottima risoluzione temporale, potendo registrare eventi della durata di qualche millisecondo. Tuttavia, questa tecnica ha una scarsissima risoluzione spaziale: in altre parole, non sappiamo quale parte del cervello stia producendo la corrente che registriamo. Esiste una nuova versione di encefalografia, che registra l'attività magnetica ed è denominata magnetoencefalografia. Questa tecnica è utilizzabile solo per rilevare fenomeni che accadono sulla superficie del cervello; essa ha però un elevatissimo potere di risoluzione, tanto nella dimensione spaziale quanto in quella temporale. Entrambe le tecniche, l'elettroencefalografia e la magnetoencefalografia, sono non invasive: si limitano a operare una registrazione dall'esterno, senza che si debba intervenire in alcun modo sul soggetto esaminato.

L'altra tecnica, che ha moltissimi vantaggi, è la tomografia a emissione di positroni (PET). Essa si basa sull'introduzione nell'organismo di sostanze radioattive che entrano in circolo e arrivano al cervello. Quanto più una parte è attiva, tanto più sangue essa richiama a sé e quindi tanto maggiore è la quantità di sostanza radioattiva che vi fluisce. Registrando dall'esterno da dove viene la radiazione, possiamo individuare quali parti del cervello siano più attive. La PET ha una risoluzione spaziale molto superiore a quella dell'elettroencefalografia, dell'ordine di 2 mm.

La tecnica più recente è denominata risonanza magnetica funzionale; per certi versi simile alla PET, non richiede tuttavia l'iniezione di sostanze estranee. Il principio di funzionamento della tecnica è il seguente: le parti attive del cervello consumano più ossigeno; l'ossigeno è trasportato nel sangue legato alle molecole di emoglobina, le cui proprietà magnetiche sono alterate da tale legame; registrando la distribuzione, nel cervello, di queste proprietà magnetiche, la risonanza magnetica funzionale permette di discriminare le regioni attive.

 

La mente è ben adattata all'ambiente esterno?

(Tavola Rotonda)

John Anderson

Io penso che la mente umana sia straordinariamente ben adattata al suo ambiente e che in ogni momento trovi il modo per avere a disposizione le informazioni più appropriate. Quando si deve prendere una decisione, generalmente la scelta operata dalla mente è la più saggia possibile. I limiti che talvolta si osservano nel pensiero umano sono, di fatto, il risultato della concentrazione della mente sulle informazioni più rilevanti ai fini della decisione da prendere.

Rodney Brooks:

L'intelligenza umana è il prodotto di un'evoluzione in un ambiente complesso, popolato di numerose altre specie e moltissimi esseri umani. Non credo assolutamente che sia ottimale. Essa è semplicemente il risultato di adattamenti locali a condizioni specifiche, incontrate nel corso dell'evoluzione.

Sono certo che esistono cose a cui l'uomo è completamente incapace di pensare, su cui non sa ragionare e che non arriva a comprendere; cose che forse altre specie, da qualche parte dell'universo, sono in grado di fare e capire. Viceversa, queste creature potrebbero magari vivere in società tecnologiche, ma essere del tutto incapaci di pensare a certe cose su cui noi invece riflettiamo normalmente. Come potrebbe anche darsi che certe specie siano migliori di noi sotto tutti i punti di vista.

Eric Kandel:

Se penso che il cervello sia ben adattato all'ambiente? Beh, è quanto di meglio si sia potuto fare! Quando si pensa al modo in cui gli esseri umani sono sopravvissuti nei secoli. Se considerate la mia stessa vita, e quella di mia moglie, che siamo emigrati dall'Europa e siamo sopravvissuti all'Olocausto: bisogna davvero essere grati alla natura per la nostra capacità di superare tutto questo.

Davvero, io credo che se si considera il sistema della memoria, beh, penso sia adattato in modo meraviglioso. Personalmente, ho dimenticato molti di quegli eventi spiacevoli, li ho rimossi, li ho spinti fuori dalla mia mente, e cerco invece di ricordare le cose piacevoli. Perciò credo che la memoria sia adattata benissimo. Probabilmente potrebbe essere meglio, e forse col tempo troveremo dei metodi per migliorare le sue capacità.

In ogni caso, credo che il cervello sia una macchina meravigliosa.

James McClelland:

Anche se i nostri processi mentali sono altamente imperfetti, noi possediamo delle capacità straordinarie, che non possono che suscitare stupore e ammirazione. Sono convinto che queste capacità continueranno a stupirci per i prossimi cinquanta o cento anni.

Il cervello riesce a costruirsi una rappresentazione degli oggetti e della loro posizione nello spazio visivo esterno a partire da segnali variabili e poco definiti, e lo fa in un modo al quale nessun sistema robotico attuale può nemmeno avvicinarsi. Inoltre, riesce a calcolare traiettorie nello spazio, che ci permettono di evitare di investire oggetti e di provocare catastrofi quando ci muoviamo nell'ambiente.

Noi risolviamo in continuazione problemi di equilibrio dinamico e di interpretazione di segnali ambigui: problemi che ogni informatico ben conosce come quasi del tutto irrisolvibili con le tecnologie attuali.

Perciò dobbiamo tenere bene a mente queste nostre capacità, che, nonostante le molte imperfezioni, sarebbe utile considerare come delle procedure potenzialmente ottimali.

David Servan-Schreiber:

Questa è una domanda sulla quale rifletto moltissimo: fino a che punto quello che noi oggi chiediamo alla nostra mente corrisponde a ciò per cui essa si è evoluta? Mi colpisce molto il fatto che, dal punto di vista mentale, cognitivo ed emozionale, i nostri antenati avessero una vita radicalmente diversa dalla nostra, ma che, ciò nondimeno, noi ci ritroviamo a dover fare i conti con lo stesso bagaglio anatomico e biologico di cui disponevano loro.

E' assolutamente improbabile che il nostro cervello si sia evoluto per ricordare i numeri telefonici; esso non è mai stato sottoposto a pressioni evolutive per ottenere prestazioni di questo tipo. Questa necessità ha avuto inizio circa settant'anni fa, ed è davvero improbabile che abbia esercitato un impatto di alcun tipo sui nostri geni. E' chiaro che il nostro cervello, proprio come i ritmi e le modalità del nostro sonno, si è evoluto per far fronte a circostanze molto diverse da quelle a cui noi lo esponiamo oggi.

Ma allora, il cervello è o non è un organo altamente adattato? Naturalmente lo è, ma non per il tipo di società in cui stiamo vivendo. Possiamo constatare questi difetti e le conseguenze di questa discrepanza nella nostra vita di tutti i giorni, dal jetlag all'insonnia cronica, all'iperstimolazione esercitata su di noi dalla televisione e dalla pubblicità, ai comportamenti sociali anormali derivanti dalla promiscuità delle interazioni umane e dalla rottura delle leggi tradizionali di organizzazione gerarchica e sociale.

Herbert Simon:

Se l'intelligenza umana è ottimale? Io credo che nulla sia davvero ottimale se si definiscono le alternative in modo sufficientemente ampio. Il nostro è un mondo molto complicato, di cui la nostra coscienza vede solo una minima parte. Perfino in questa stanza, per la maggior parte del tempo noi ignoriamo gran parte degli oggetti presenti.

Noi non ottimizziamo niente, semplicemente decidiamo cosa occorre fare e troviamo il modo per farlo. A volte troviamo delle buone soluzioni, a volte delle soluzioni meno buone, e cerchiamo di adottare le migliori. Ma la parola "optimum" in questa nostra vita non ha molto senso.

Quel che possiamo dire, a proposito della mente, è che essa è ben adattata nella misura in cui, finora, l'evoluzione è riuscita a renderla tale. E questo ha consentito, nel bene e nel male, a sei o sette miliardi di persone di vivere simultaneamente sulla faccia della Terra, almeno fino ad ora. Perciò, in questo senso, la storia della mente è la storia di un successo. D'altra parte, se si misura questo successo considerando la velocità alla quale gli esseri umani si uccidono fra loro, beh, allora si potrebbero trovare dei margini di miglioramento. In verità, non saprei proprio con quale criterio valutare questo successo.

 

Esistono tipi diversi di intelligenza?

(Tavola Rotonda)

Jean Pierre Changeux :

Il concetto di "intelligenza" non ha alcun significato per un neurobiologo. Esso si riferisce a vari processi cerebrali come la creatività , l'analisi, il ragionamento, la percezione, la sensibilità e l'emozione. E' ovvio che tutte queste abilità variano da persona a persona, soprattutto in funzione dell'educazione.

Daniel Schacter:

Se esistono diversi tipi di intelligenza? La mia posizione, nel dibattito che oppone intelligenza unica a intelligenze multiple, è fortemente influenzata dalle mie ricerche, e da quelle dei miei colleghi, sulla memoria. Da queste ricerche abbiamo imparato che la memoria non è un fenomeno unidimensionale.

Io tendo ad avere una concezione modulare della mente, e pertanto sarei molto sorpreso se si scoprisse che esiste un solo criterio che rende conto di tutti gli aspetti dell'intelligenza e che permette di ordinare le persone su un'unica scala. Sicuramente esiste qualcosa come il fattore "G", che gli psicologi hanno studiato e che rende conto della varianza del Q.I. Le ricerche più recenti, tuttavia, forniscono delle buone ragioni per credere che ci sia più di un tipo di intelligenza, un risultato compatibile con la mia concezione modulare della cognizione, della percezione e della memoria. Quindi, a mio avviso esistono molto probabilmente diversi tipi di intelligenza, che sono il riflesso della natura modulare della cognizione.

David Servan-Schreiber:

Spesso consideriamo le persone intelligenti, quelle con un Q.I. elevato, come degli individui superiori a noi e di maggiore successo. Ci dobbiamo, però, chiedere se il Q.I. è davvero un fattore determinante. Ci sono esempi che sembrano dimostrare il contrario, e cioè che il Q.I. non sia poi così importante. Ciò che sembra determinare la riuscita sociale di una persona non è tanto la potenza del suo intelletto, quanto la sua capacità di comunicare con gli altri, di valutare le situazioni sociali ed emozionali, di controllare le proprie emozioni, di non lasciarsi trascinare dalla collera, di inibire la propria aggressività , di emettere i giusti segnali emozionali, di restare sintonizzati con gli altri per navigare in modo armonioso con la flotta di relazioni umane di cui si è circondati. Ci sono pochissime attività che sono contemporaneamente apprezzate a livello sociale ed eseguite in isolamento, in assenza di rapporti armoniosi con gli altri.

Ciò che di fatto limita il successo delle persone non è tanto il loro livello di conoscenze matematiche o la loro abilità nel manipolare rapidamente concetti astratti, ma piuttosto delle cose più semplici, come pestare i piedi degli altri, rendere infelici i propri collaboratori o inasprire talmente i rapporti che il gruppo di cui si è parte non può funzionare come una squadra. Naturalmente, è proprio questo che cerchiamo di insegnare ai nostri bambini quando vanno a scuola: lo "spirito di gruppo" e tutto il resto ... Chi comprende questa lezione e riesce a farne tesoro, ne trae un vantaggio sia personale che per il proprio gruppo sociale o di lavoro. L'insieme di queste capacità  è chiamato "quoziente emozionale", in contrapposizione al quoziente intellettivo: il Q.E. al posto del Q.I. E' emerso che il Q.E. determina il successo sociale di una persona più del Q.I., che può solo prevedere la prestazione scolastica di una persona, ma non va oltre.

La mente è come un computer?

(Tavola Rotonda)

John Anderson :

Il cervello è sicuramente una macchina che funziona obbedendo a leggi fisiche, ma nello stesso tempo è completamente diverso dalla maggior parte dei computer. Sinceramente credo che stabilire se il cervello sia davvero come un computer sia più che altro un esercizio semantico. Tutto dipende da come si definiscono "computer" e "cervello".

Rodney Brooks :

Ci siamo lasciati fuorviare un po' troppo dalla metafora del computer, che distingue tra software e hardware. I sistemi biologici non fanno questa distinzione: la funzione dipende fortemente dall'ambiente in cui essa ha luogo.

Questa metafora del cervello-macchina è davvero pericolosa. C'è stata un'epoca in cui il cervello era considerato un sistema idrodinamico, poi è diventato una macchina a vapore. Quando ero bambino lo si paragonava a una centrale telefonica! Poi è diventato un computer, poi un computer che opera in parallelo. Tra un po' diventerà internet!

La tecnologia più complessa è sempre presa in prestito per l'ultima metafora del cervello, e non c'è mai fine! In futuro vedremo sorgere altre metafore in parallelo all'emergere di tecnologie sempre più complesse e affascinanti.

Jean Pierre Changeux :

Il nostro cervello non è come uno dei computer d’oggi, che ha un hardware molto rigido e richiede un software che lo faccia funzionare. Piuttosto, il nostro cervello è una macchina molto complessa e specifica, influenzata sia dai nostri geni, sia dalle nostre interazioni con il mondo esterno. Inoltre è una struttura creativa, in grado di generare spontaneamente un'ipotesi che può modificare il suo stesso modo di lavorare.

James McClelland :

Il cervello è una macchina che non assomiglia a nessun computer di mia conoscenza. Se è vero che un computer tradizionale può simulare i ragionamenti logici e algoritmici, io non credo che i processi di pensiero umani siano sempre logici e algoritmici. Penso, al contrario, che questi processi siano spesso paralleli, interattivi, sintetici e costruttivi. Tutto ciò fa  sì che, anche se il cervello è una macchina, esso sia molto diverso da un computer qualunque.

Rodolfo Llinas:

Perché il cervello non è un computer? E che differenza c’è tra un computer e un cervello? Queste sono veramente delle belle domande. Ci sono molte differenze, e alcune sono assolutamente ovvie.

Prima di tutto, nel cervello l'hardware e il software sono tutt'uno. Poi ci sono delle differenze d’architettura, che sono fondamentali.

I computer non possiedono un'immagine di se stessi, non sono concepiti per avere un'immagine di se stessi, sono fatti solo per elaborare i dati che noi diamo loro, per immagazzinarli e modificarli. Essi comprendono la sintassi, ma non la semantica, poiché non capiscono quello che fanno. E non comprendono quello che fanno, poiché la loro esistenza non dipende da ciò. Ecco la vera differenza fra noi e un computer. Il nostro cervello fa parte del nostro corpo. Di conseguenza il cervello è schiavo del corpo, proprio come il corpo è schiavo del cervello.

Herbert Simon :

Tutto mi porta a credere che la mente funzioni come un computer, che sia un tipo particolare di computer, fatto di materiali diversi dai computer che conosciamo.

La maggior parte dei computer attuali ha un'architettura centralizzata, chiamata architettura di Von Neumann, che funziona in modo prevalentemente seriale. E questo per alcune buone ragioni: malgrado l'entusiasmo di molti per computer altamente paralleli, la progettazione di queste macchine è stata molto lunga, e ci sono molti esempi di computer paralleli che non funzionano per niente. Il motivo di ciò è che la maggior parte delle attività umane non può essere facilmente suddivisa in un'esecuzione parallela, poiché generalmente alcune cose devono essere fatte prima di altre, perciò l'esecuzione in serie è spesso più appropriata.

Perciò io credo che il computer di Von Neumann non sia, (se non si tiene conto del parallelismo di funzionamento della retina e degli organi di senso), in prima battuta, una cattiva approssimazione dell'architettura complessiva del cervello umano.

 


 

 

BIOGRAFIE

Rodolfo Llinas è dal 1976 professore e presidente del dipartimento di fisiologia e biofisica presso la facoltà di medicina della New York University. E' nato a Bogotà, in Colombia, nel 1934 e si è laureato in medicina nella sua città natale nel 1959. Ma è a Canberra, in Australia, che nel 1965 ha conseguito il Ph.D. in neuroscienze, e negli Stati Uniti che ha proseguito la sua carriera di ricercatore, dapprima alla facoltà di medicina di Harvard, quindi all'università del Minnesota. Llinas ha consacrato gran parte della propria vita alla comprensione del funzionamento del cervello. Dapprima ha analizzato neuroni isolati, per poi passare progressivamente allo studio delle popolazioni neuronali. Attualmente s’interessa al funzionamento globale del cervello umano, studiando i meccanismi della coscienza e il modo in cui il cervello simula la realtà esterna. In particolare, ha approfondito il meccanismo del collegamento delle sensazioni, grazie al quale il cervello è in grado di produrre un unico evento a partire da sensazioni che gli arrivano separatamente. Questo meccanismo è spiegato nella presentazione "Il grande film della coscienza". Filosofo oltre che scienziato, Rodolfo Llinas ha scritto un libro in collaborazione con la filosofa Patricia Churchland.

Daniel Schacter è professore e presidente del dipartimento di psicologia di Harvard University. Si è laureato all'università di Chapel Hill, in North Carolina, e ha ricevuto il suo Ph.D. nel 1981 dall'università di Toronto. Nel 1987, dopo 6 anni di ricerca sull'amnesia, è passato al dipartimento di psicologia dell'università dell'Arizona. Il suo principale argomento di ricerca è la memoria e il fenomeno dell'amnesia in relazione a diverse lesioni cerebrali. Gran parte del suo lavoro cerca di stabilire un legame fra fenomeni clinici, da un lato, e approcci sperimentali e teorici alla memoria, dall'altro. Schacter è l'inventore della distinzione tra memoria esplicita e memoria implicita; la seconda espressione, in particolare, designa tutti i fenomeni inconsci di memorizzazione e di apprendimento. Ha anche studiato i meccanismi cerebrali alla base dei fenomeni della deformazione della memoria. La sua concezione dell'acquisizione per elaborazione, del recupero e della deformazione della memoria, è illustrata nella presentazione "Alla ricerca della memoria". Nei suoi due libri, "Stranger behind the Engram: Theories of Memory and the Psychology of Science" (1982) e "Searching for Memory: The Brain, the Mind and the Past" (1996), Schacter mostra il suo interesse per la storia della psicologia e si afferma come uno dei più importanti studiosi della memoria umana. 

Nato a Vancouver nel 1947, John Anderson si è laureato all'università della British Columbia, sognando prima di diventare uno scrittore e poi uno psicologo. Ma è a Stanford che, lavorando con Gordon Bower, John Anderson ha iniziato a sviluppare la sua teoria della cognizione umana. Dopo aver conseguito il dottorato di ricerca, a soli 25 anni è diventato professore a Yale University. Dal 1978 a oggi ha ricoperto la carica di professore di psicologia cognitiva e di informatica alla Carnegie-Mellon University di Pittsburgh. Nel 1983 ha pubblicato "The architecture of cognition", dove ha descritto un sistema, chiamato ACT, che è il primo modello completo dell'intelligenza. ACT, come del resto il suo attuale successore ACT-R, è un'importante teoria scientifica che permette di comprendere e prevedere come il pensiero possa essere scomposto in operazioni elementari, plausibili a livello neuronale. I lineamenti essenziali di questo modello si trovano nella presentazione "Il filo del pensiero". Nel 1990 ha pubblicato "The adaptive character of thought", dove ha dimostrato che molti fenomeni cognitivi possono essere considerati come un adattamento a problemi incontrati nell'ambiente. Questa idea è spiegata nella presentazione "L'ecologia della memoria". La nascita dei suoi due figli, avvenuta rispettivamente nel 1980 e nel 1985, è stata determinante per lo sviluppo di un forte interesse per l'acquisizione del linguaggio e l'apprendimento della matematica. Anderson ha così cominciato ad applicare la sua teoria dell'intelligenza per sviluppare uno dei primi "tutori cognitivi". I tutori cognitivi sono dei programmi informatici in grado di seguire le tappe del ragionamento e dell'apprendimento di uno studente in una data disciplina. Nel 1988 è stato Presidente della Società Americana di Scienze Cognitive. Inoltre, nel corso della sua carriera ha ricevuto svariati premi da parte di numerose istituzioni scientifiche prestigiose. 

James McClelland è riconosciuto come uno dei teorici più innovativi nel campo delle neuroscienze cognitive. Fondamentale, nel suo approccio alla cognizione, è l'idea che il pensiero sia il risultato  dell'interazione di un gran numero di neuroni nel cervello. In tutta la sua carriera ha cercato di sviluppare programmi informatici, chiamati reti neurali, che simulano l'attività dei neuroni nel cervello. Queste reti permettono di pensare in modo diverso al modo in cui il cervello elabora, rappresenta e acquisisce le informazioni. Egli ha inoltre prodotto un modello dei meccanismi neurali alla base di diverse abilità cognitive quali la percezione, la lettura, l'elaborazione dell'informazione, la memoria, l'acquisizione del linguaggio, lo sviluppo cognitivo e il ruolo di geni e ambiente. Nel 1986 ha pubblicato, con David Rumelhart, un'opera in due volumi intitolata "Parallel Distributed Processing", che ha realmente segnato l'ingresso delle reti neurali in psicologia cognitiva. Il libro è edito in Italia da Il Mulino, con il titolo "PDP - Microstruttura dei processi cognitivi" (Bologna, 1991). Un'introduzione alle reti neurali si trova nella presentazione "Reti neurali".

Le sua ricerche attuali sono incentrate sui disturbi della cognizione, e in particolare sul ruolo dell'ippocampo nell'apprendimento e nella memoria. McClelland è stato il primo a proporre, insieme a Bruce McNaughton e a Randy O'Reilly, una teoria completa della memoria umana, che non solo permette di descrivere il suo funzionamento, ma consente anche di comprendere il perché della sua organizzazione. L'organizzazione della memoria umana è esposta nella presentazione "I luoghi della memoria". James McClelland è stato presidente della Cognitive Science Society e direttore della rivista "Cognitive Science". 

Nato a Vienna nel 1929, Eric Kandel cominciò la sua carriera accademica laureandosi ad Harvard in storia e letteratura comparata. Qui Kandel sviluppò un profondo interesse per il funzionamento della mente umana e per gli effetti dei processi mentali inconsci sulla nostra vita quotidiana. Questo lo indusse a diventare psichiatra e psicanalista. Mentre studiava medicina a New York University, cominciò a fare ricerca nel campo della neurobiologia. Trovò il lavoro di laboratorio così interessante che decise di continuare su questa strada. Accanto all'esercizio della professione di psichiatra al Presbyterian Hospital di New York, che mantenne fino al 1986, Kandel fu professore alla facoltà di medicina di New York University dal 1965 al 1974. Quindi passò a Columbia University, dove fu nominato direttore del centro di neurobiologia e del comportamento e professore del dipartimento di psicologia e psichiatria. Eric Kandel iniziò la sua carriera di ricercatore studiando il sistema nervoso di aplisia, un gasteropode marino che si rivelò particolarmente adatto allo studio sperimentale dell'impatto esercitato sui neuroni dall'apprendimento e dalla memoria. Kandel scoprì che le connessioni interneuronali del sistema nervoso di aplisia vengono modificate in modo preciso e prevedibile nel corso di processi di apprendimento quali l'abituazione, il condizionamento e la sensibilizzazione. Questa è una scoperta fondamentale che ha aperto la strada alla comprensione della base biologica della memoria e dell'apprendimento, oltre che dei cambiamenti anatomici prodotti sul cervello dai processi di apprendimento. Questo è l'argomento della presentazione: "Il cervello che apprende". Eric Kandel ha ricevuto numerosi riconoscimenti scientifici, compreso, nel 1983, l'Albert Lasker Basic Medical Research Award.

Herbert Simon è nato nel 1916 a Milwaukee, in Wisconsin, da padre tedesco, emigrato negli Stati Uniti all'inizio del secolo. Ha iniziato la sua carriera accademica conseguendo un Ph.D. in economia all'università di Chicago nel 1943. Oltre a essere un economista, è uno studioso di scienze politiche, un esperto di scienze dell'informazione e uno psicologo. Ha passato gran parte della sua carriera accademica alla Carnegie Mellon University di Pittsburgh, dove ha iniziato come professore di Management ed è adesso professore di scienze dell'informazione e di psicologia. Nel 1978 ha ricevuto il premio Nobel per l'economia. Il filo di congiunzione tra tutte le ricerche della sua lunga e variegata carriera è stato l'interesse per i processi decisionali e di risoluzione di problemi nell'uomo. Herbert Simon ha cominciato studiando i processi decisionali nel contesto amministrativo, sociale e politico. Dalle sue osservazioni ha inventato e sviluppato la teoria della "razionalità limitata", che rimette in discussione la teoria economica tradizionale, secondo la quale i soggetti economici prendono decisioni in modo "ottimale". Per questo studio gli è stato conferito il premio Nobel. Autentico pensatore universale, è stato tra i primi a comprendere che i computer possono essere utilizzati per simulare i processi di pensiero umano. Il 15 dicembre del 1955, insieme ad Allen Newell e a Cliff Shaw, ha intuito come scrivere un programma informatico che permettesse a un computer di risolvere un problema in modo simile a come l'avrebbe fatto un essere umano. Era nata l'intelligenza artificiale. Le analogie e le differenze fra l'intelligenza dei computer e quella umana sono spiegate nella presentazione "L'uomo contro la macchina". Gli studi di Simon hanno rivoluzionato i fondamenti della psicologia cognitiva. Essi sono all'origine di un nuovo modo di simulare ciò che accade nella mente dell'uomo: si tratta della cosiddetta "rivoluzione cognitiva". Simon ha, peraltro, dedicato buona parte della sua vita allo studio e alla simulazione di molti fenomeni cognitivi diversi, tra cui la risoluzione di problemi, la memoria, l'apprendimento, il ragionamento dell'esperto e del principiante, e il ragionamento e la creatività scientifici. Un'introduzione alla psicologia della risoluzione di problemi e alla natura dell'expertise si trova nella presentazione "Il problema e l'esperto".

David Servan-Schreiber è condirettore del laboratorio clinico di Neuroscienze Cognitive presso l'Università di Pittsburgh, dove esercita anche come psichiatra.  Nato a Neuilly, vicino a Parigi, nel 1961, David è figlio del giornalista e scrittore Jean-Jacques Servan-Schreiber. Ha studiato medicina all'ospedale Necker di Parigi, dove nel 1980 ha aperto un laboratorio di microinformatica con i primi computer Apple II. Quindi, ha proseguito la sua formazione medica in Quebec, dapprima alla Laval University e poi alla McGill University, dove si è specializzato in psichiatria. Nel 1991 ha conseguito un Ph.D. in intelligenza artificiale presso la Carnegie Mellon University, dove ha utilizzato le reti neurali per studiare i meccanismi neuronali alla base di patologie psichiatriche come la depressione e la schizofrenia. Il suo principale argomento di ricerca è attualmente stabilire un legame fra le neuroscienze e la psicanalisi. Dal 1991 è, inoltre, membro del comitato direttivo statunitense dell'organizzazione "Medici Senza Frontiere", e una volta all'anno interrompe le sue ricerche per passare qualche settimana in uno paese del terzo mondo dove l'organizzazione ritiene che la situazione sanitaria sia particolarmente critica.

Stephen Kosslyn è professore di psicologia all'Università di Harvard e psicologo presso il dipartimento di Neurologia del Massachusetts General Hospital dal 1983. In seguito a un intenso periodo di militanza politica e sociale negli anni Sessanta, Stephen Kosslyn iniziò a interessarsi ai problemi del sistema educativo, decidendo così di studiare psicologia. Nel 1974 conseguì il dottorato in psicologia a Stanford University. In questo periodo Kosslyn è stato molto influenzato dalle idee, tra gli altri, di Gordon Bower e di Piaget sull'importanza delle immagini mentali nello sviluppo del bambino. All'epoca, inoltre, la psicologia stava iniziando a ricevere il contributo degli studi sull'intelligenza artificiale, e così Kosslyn decise di specializzarsi a Stanford in entrambe le discipline.

Le sue ricerche sono dedicate ai problemi della generazione e dell'elaborazione delle immagini mentali, e alla natura dei meccanismi neurali alla base della percezione. Nel 1994 ha pubblicato il libro "Image and Brain: The Resolution of the Imagery Debate", nel quale presenta una teoria generale dei meccanismi di immaginazione visuale, dei loro rapporti con la percezione e del modo in cui essi sono integrati nel cervello umano. Questi risultati gli permettono di stabilire come la percezione e l'immaginazione visuale siano inestricabilmente legate. Il suo approccio multidisciplinare ai fenomeni delle immagini mentali, nel quale unisce osservazioni neuroscientifiche (grazie all'uso di tecniche di imaging cerebrale), psicologia cognitiva e modelli informatici, fa' di Stephen Kosslyn uno dei pionieri delle neuroscienze cognitive. La percezione visiva e il tema delle immagini mentali sono introdotte nelle presentazioni "L'intelligenza dell'occhio" e " Le immagini mentali". Su questi argomenti Stephen Kosslyn ha scritto cinque libri e più di 150 pubblicazioni. Egli presta, inoltre, la propria opera per consulenze alla commissione del National Research Council sulle nuove tecnologie. Ha ricevuto numerosi premi scientifici, tra cui il premio Jean-Louis Signoret della fondazione Ipsen di Parigi e l'Initiatives Research Award della National Academy of Science.
 
< Prec.   Pros. >
I testi e i materiali pubblicati, o comunque messi a disposizione su questo sito, sono utilizzabili dietro citazione della fonte, secondo la Licenza Creative Commons "Attribuzione - Non Commerciale - Condividi allo stesso modo" e salvi i diritti esclusivi spettanti a terzi ai sensi di legge. Chiunque lamenti violazioni di diritti esclusivi o altri abusi può chiederne la rimozione dal sito scrivendo al WEBMaster dalla sezione CONTATTI, indicandone la motivazione. Oppure mailto:educaweb(at)altervista (dot)org
qdroid
Covo dei Briganti, non è il solito agriturismo! - Si trova nella Tuscia, un angolo di Lazio tra la Toscana e l'Umbria. Puoi mangiare alla Cantina del Mago e rimarrai stupito!
Sostieni il sito!

Enter Amount:

Frase del giorno
PHOTOS
© 2017 EDUCAWEB: spazio virtuale di incontro sociosanitario ed educativo