Nuova visione del linguaggio nel cervello

 

 

DIANE RICHMOND & GIOVANNI ROSSI

 

 

 

NOTE E NOTIZIE - Anno XII – 25 ottobre 2014.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento rientra negli oggetti di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: TRATTAZIONE INTRODUTTIVA/RECENSIONE]

 

Il tradizionale modello neurologico del linguaggio, originato dagli studi anatomo-clinici, con le aree corticali di Broca e di Wernicke dell’emisfero sinistro collegate da un fascio unidirezionale, ha a lungo condizionato il modo di concepire le basi della funzione comunicativa e, sebbene oggi si disponga di una vasta mole di dati a sostegno di una realtà molto più complessa, si stenta a definire nuovi modelli. Sulla base della fisiologia del controllo corticale e dei deficit derivanti dalla sua patologia, si è concepita la funzione comunicativa come una facoltà rigidamente compartimentata e localizzata. Si distingueva, come nell’organizzazione del midollo spinale, un versante motorio ed uno recettivo.

Quello motorio, coincidente con un territorio corticale anteriore, sito presso il piede della terza circonvoluzione frontale di sinistra[1], nell’area 44 della mappa di Brodmann e detto area di Broca, dal nome del neurologo ed antropologo francese che nel 1861 descrisse per primo l’afasia non fluente dovuta alla sua lesione[2]. Quello recettivo, coincidente con un territorio corticale posteriore, contiguo all’area uditiva temporale, prossimo al giro angolare e alla corteccia occipitale, detto area di Wernicke, dal nome del giovane neurologo che nel 1874 descrisse l’afasia fluente dovuta alla sua lesione[3].

Per circa un secolo, sebbene vi fossero teorie alternative come quella di Pierre-Marie, si è pensato alle basi cerebrali della facoltà di comunicazione verbale umana come a due moduli: uno di elaborazione recettiva per la comprensione della parola udita o letta, ed uno di programmazione esecutiva per la produzione vocale della lingua parlata. A questi due moduli principali, uniti da un fascio di connessione[4] e costituiti dalle due aree corticali dell’emisfero sinistro, venivano aggiunte ipotetiche aree secondarie per compiti specializzati, il cui ruolo era desunto dai deficit derivanti da loro lesioni e solo raramente da stimolazione elettrofunzionale. Naturalmente, un tale complesso specializzato per il linguaggio era concepito in connessione con le aree sensoriali dell’udito e della vista, con le aree motorie per l’articolazione della parola, con le aree associative e con un ipotetico centro del pensiero, sede dell’elaborazione cognitiva.

Questo modello era stato proposto da Carl Wernicke nel 1874[5] ed aggiornato con nuove connessioni e dettagli negli anni Sessanta del Novecento da Norman Geschwind, dando luogo allo schema detto di Wernicke–Geschwind.

Le comode certezze ispirate da questa concezione modulare, semplice e schematica, hanno cominciato a vacillare con gli studi funzionali condotti durante l’esecuzione di compiti linguistici mediante tomografia ad emissione di positroni (PET), risonanza magnetica funzionale (fMRI), elettroencefalografia (EEG) e magnetoencefalografia (MEG) che hanno rivelato schemi di attivazione estesi e complessi che, combinati con le nozioni emergenti dalla ricerca neuroscientifica, hanno suggerito l’esistenza di una complessa architettura funzionale che include l’emisfero destro.

La complessità rende ragione di una qualità speciale della facoltà di parola umana che non è resa dal semplice paragone con le abilità comunicative delle altre specie. Le api codificano e trasmettono la distanza e la direzione del miele mediante una danza, i maschi di molte specie di uccelli attraggono le femmine con il canto, gli scimpanzé ed altre scimmie hanno un repertorio di suoni vocali specifici per comunicare stati affettivi ed emozionali legati al desiderio sessuale, alla paura, all’aggressività. L’invenzione, l’apprendimento e l’uso delle lingue verbali umane, che include come traccia paradigmatica di base queste abilità animali, va molto oltre. Ogni lingua può essere definita come un insieme finito di suoni che può essere combinato con un numero illimitato di possibilità.

In realtà, il nostro cervello impiega in entrata e in uscita, anche nella codifica grafica (scrittura), delle unità di informazione elementari corrispondenti ai singoli suoni o fonemi, che combina in piccole unità semantiche chiamate morfemi. Rispettando le regole trasmesse e apprese di una lingua, può combinare i morfemi in parole, e queste, secondo la sintassi, in un numero potenzialmente infinito di frasi. Lo sviluppo del linguaggio nel bambino segue un piano universale e, secondo studi recenti, non può essere ricondotto né al paradigma di Skinner basato eccessivamente su modellamento e rinforzo esterno, né alla visione di Chomsky troppo genericamente legata ad una ipotesi innatista. Proprio lo studio dei processi che consentono l’acquisizione della lingua madre da parte dei bambini, ha aperto orizzonti nuovi di comprensione della funzione comunicativa umana, che meritano di essere conosciuti ed ulteriormente indagati. Sicuramente oggi si ha una visione più chiara delle abilità linguistiche nella prima infanzia, soprattutto grazie ai progressi nelle conoscenze relative allo sviluppo cognitivo, che hanno fornito strumenti per andare oltre la semplice osservazione fenomenica e comportamentale. Sappiamo che, quando un bambino di un anno pronuncia le prime parole, è in grado di conferire un valore semantico associativo a non meno di 60-90 termini. Se a 15 mesi comprende il senso di frasi bitermine concretistiche (bevi-latte), a 16, quando pronuncia 50 parole distinte, comprende da 170 a 230 termini della lingua madre.

Ritornando al superato modello Wernicke–Geschwind, ci si può chiedere cosa rimanga oggi di valido in quella visione, oltre al riconoscimento delle due aree corticali che, seppure non più ritenute dei “centri” esclusivi, si sa che svolgono un’importante funzione specializzata al livello della funzione integrativa corticale. Si può rispondere che il ruolo privilegiato dell’emisfero sinistro rimane un fatto certo, con la sola eccezione della piccola percentuale di mancini veri che presentano un’inversione con controllo corticale a destra e la quota ancora più bassa dei rari casi di cosiddetta “dominanza doppia” (ambidestri). La specializzazione dell’emisfero sinistro per l’elaborazione fonetica, delle parole e delle frasi, non ha un esatto compenso in un ruolo specifico ed esclusivo dell’emisfero destro per la prosodia, come si era creduto due decenni fa. L’elaborazione prosodica impegna entrambi gli emisferi, con variazioni che dipendono dall’informazione veicolata.

L’evoluzione dei modelli per la rappresentazione delle basi neurali del linguaggio verbale umano impegna attualmente molti gruppi di ricerca, ma il loro effettivo valore ci suggerisce un’osservazione: gli studi recenti condotti con le metodiche più avanzate, sebbene abbiano fornito notevoli contributi di comprensione, sono tutti gravati dal condizionamento dell’impiego di paradigmi di laboratorio, che risultano estremamente artificiali rispetto all’uso che ciascuno di noi fa della funzione linguistica nella vita reale.

Partendo proprio da un simile presupposto, Lauren J. Silbert e colleghi hanno condotto uno studio con una nuova metodologia volta a studiare la complessità “naturale”, tipica dell’uso della lingua nella vita di tutti i giorni. I risultati sono di assoluto rilievo e meritano di essere conosciuti e considerati dai gruppi di studio che lavorano ad alto livello con le procedure standard finora da tutti impiegate (Silbert L. J., et al., Coupled neural systems underlie the production and comprehensio of naturalistic narrative speech. Proceedings of the National Academy of Sciences USA – Epub ahead of print doi: 10.1073/pnas.1323812111, 2014).

La provenienza degli autori è la seguente: Department of Psychology and the Neuroscience Institute, Princeton University, Princeton, New Jersey (USA); Department of Psychology, New York University, New York (USA); Department of Psychology, University of Toronto, Toronto, Ontario (Canada).

[Edited by Charles Gross, Princeton University, Princeton, New Jersey (USA)].

Nella massima parte dei casi, gli studi della funzione linguistica del cervello mediante risonanza magnetica funzionale (fMRI) sono volti ad indagare la produzione o la comprensione di singole unità del codice verbale, quali sillabe, parole o frasi; Silbert e colleghi hanno adottato un nuovo approccio per l’acquisizione di immagini fMRI e l’analisi finalizzata alla caratterizzazione delle risposte neurali durante la produzione e la comprensione di complesse esecuzioni individuali della lingua parlata, tipiche della comunicazione della vita reale.

In primo luogo, usando un metodo di correlazione intra-soggetto basato sulla discontinuità temporale (time-warp intrasubject correlation), i ricercatori hanno identificato tutte le aree che con un elevato grado di certezza erano attivate nel cervello di volontari agenti da speakers che pronunciavano un brano di contenuto narrativo legato a fatti della vita reale della durata di 15 minuti (rete associata alla produzione verbale).

In secondo luogo, hanno identificato tutte le aree che con un elevato grado di certezza erano attivate nel cervello degli ascoltatori mentre questi erano intenti nel comprendere i contenuti di tale esposizione (rete associata alla comprensione verbale).

Queste due operazioni preliminari hanno consentito di identificare reti di regioni cerebrali specifiche per la produzione e la comprensione, così come reti di aree condivise fra i due versanti funzionali.

I risultati indicano che la produzione verbale (esecuzione) di contenuti legati alla vita reale non si verifica mediante processi esclusivamente localizzati nell’emisfero sinistro, ma si sviluppa mediante l’attività di una vasta rete bilaterale di popolazioni neuroniche che, all’interno della fitta trama dei circuiti degli antimeri destro e sinistro dell’encefalo, ampiamente si sovrappone e coincide con la base neurofunzionale che interviene nell’ascolto e costituisce il sistema della comprensione.

Studiando le migliaia di incidenze tomografiche in fMRI del cervello dei volontari, condotte durante gli esperimenti, i ricercatori hanno cercato, servendosi dei precisi correlati temporali forniti dal sistema computerizzato di individuare, oltre a coincidenze spaziali (morfo-funzionali) fra produzione e comprensione, rapporti fra l’atteggiamento funzionale del cervello di chi parlava e quello di chi ascoltava in relazione ad un identico contenuto narrativo. Questa analisi ha consentito a Silbert e colleghi di trovare non soltanto sovrapposizioni spaziali di attività, ma anche aree in cui si registra un’attivazione accoppiata fra colui che parla e colui che ascolta durante, rispettivamente, la produzione e la comprensione dello stesso contenuto.

Il repertorio di immagini rilevate dagli autori, al quale si rimanda con la lettura integrale del testo dell’articolo, consente di dimostrare un accoppiamento ampiamente diffuso e bilaterale fra l’elaborazione legata alla produzione e quella legata alla comprensione, all’interno sia di aree linguistiche sia di aree non-linguistiche dell’encefalo, mostrando un’estensione di processi condivisi fra i due sistemi, sorprendente ed assolutamente imprevedibile sulla base delle nozioni e dei dati sperimentali fino ad oggi rilevati.

Qualche breve considerazione conclusiva per la recensione di un lavoro che parla da solo e non necessita, dunque, di particolari commenti.

Ordinariamente, un’efficace comunicazione verbale richiede l’interazione finemente orchestrata fra processi necessari alla produzione del discorso, o più in generale della parola, nel cervello di chi parla, e processi necessari alla comprensione verbale nel cervello di chi ascolta. I risultati ottenuti in questo studio, non solo mostrano che entrambi i tipi di processi chiedono l’intervento di circuiti e sistemi appartenenti ad entrambi gli emisferi, ma che in una comunicazione simile a quelle che si verificano spontaneamente nella nostra vita quotidiana, il profilo funzionale di chi ascolta per comprendere non è tanto diverso da quello di chi parla per trasmettere un preciso senso narrativo. Le aree impiegate appartengono a reti implicate nel verbal processing, ma anche a reti note quali basi neurali di processi extra-linguistici. Tali reperti indicano che un generale assetto funzionale comune[6] facilita la comunicazione supportando sia la trasmissione che la recezione del significato, e suggerisce l’importanza di affrontare lo studio di produzione e comprensione secondo questa emergente base neurofunzionale condivisa.

 

Gli autori della nota ringraziano la dottoressa Isabella Floriani e invitano alla lettura delle numerose recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond & Giovanni Rossi

BM&L-25 ottobre 2014

www.brainmindlife.org

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



[1] Il piede della terza circonvoluzione frontale corrisponde alla parte opercolare del giro frontale inferiore.

[2] Paul Broca era già celebre, quando comunicò alla Società di Antropologia di Parigi la scoperta del “centro motore del linguaggio” dall’esame autoptico di un paziente capace di ripetere sono il monosillabo “tan”. Chiamò afemia, quella che sarà poi definita afasia motoria. Nel 1865 pubblicò un’osservazione decisiva per stabilire la localizzazione esclusiva a sinistra, introducendo la concezione di un emisfero “dominante”.

[3] Fu la prima pubblicazione di Carl Wernicke, un allievo di Theodor Meynert di 26 anni che lavorava come assistente neurologo presso il reparto di neurologia dell’ospedale di Bratislava. Wernicke proponeva uno schema in cui il fascicolo arcuato portava l’informazione dall’area recettiva deputata alla comprensione della parola a quella esecutiva  contenente i programmi motori che consentono di parlare.

[4] È solo di recente che è stata descritta la via indiretta di connessione da Marco Catani e colleghi (si veda in “Note e Notizie 07-10-05 Nuove vie e nuove basi neurali per il linguaggio”).

[5] Il modello area di Broca-fascicolo arcuato-area di Wernicke è considerato il prototipo dei modelli connessionisti.

[6] Che gli autori dello studio in maniera non troppo appropriata chiamano un meccanismo neurale condiviso (a shared neural mechanism).