Scoperta area sensibile ai tempi della parola e cruciale per comprendere

 

 

DIANE RICHMOND

 

 

 

NOTE E NOTIZIE - Anno XIII – 23 maggio 2015.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

La comprensione delle informazioni contenute nei messaggi verbali è un processo complesso, che include sia operazioni di decodifica basate su rapporti fissi e schematici fra significante e significato, sia operazioni inferenziali dipendenti da sequenze, contesto e circostanze. I tentativi della neuropsicologia classica di ridurre la comprensione della parola ad una’attività di elaborazione localizzata in un’area corticale, si sono rivelati infruttuosi e, con il progressivo emergere dell’architettura funzionale del linguaggio e di vari processi cognitivi, è stata chiara la difficoltà di definire i correlati neurali della comprensione verbale.

La ricerca tuttavia procede, soprattutto grazie alle più avanzate metodiche di neuroimmagine che consentono di porre in relazione compiti sperimentali con picchi di attivazione neuronica in particolari territori dell’encefalo. Impiegando procedure che consentono l’interferenza funzionale o la temporanea inattivazione di alcune aree, si può verificare quali di queste siano indispensabili per lo svolgimento di un determinato compito. Nel campo della comprensione verbale è stata identificata un’area delle metafore, ossia un territorio della corteccia cerebrale che si attiva quando comprendiamo una metafora, e che risulta ipofunzionante in coloro che non comprendono il valore metaforico di una frase o di un vocabolo.

I limiti di questo genere di studi, nell’ottica della individuazione delle reali basi neurali della comprensione di significati mediati da messaggi verbali, sono evidenti, e la maggior parte dei ricercatori ritiene che sia necessario cercare di definire i processi critici della comprensione, per poter penetrare il mistero della fisiologia di questa abilità.

Un aspetto di rilievo intuitivo è l’importanza del parametro tempo nell’elaborazione dei codici verbali in entrata. È evidente che tutta la funzione del cervello è strettamente regolata in chiave temporale, sia nei termini della durata dell’attivazione dei neuroni che operano la decodifica delle singole unità di senso, sia nei termini del ritmo di esecuzione e recezione di frasi e discorsi.

Tobias Overath e colleghi della Duke University e del Massachusetts Institute of Technology (MIT), studiando il modo di distinguere le basi neurali dell’elaborazione acustica del discorso, e in generale della parola udita, dalle basi neurali di decodifica della lingua, hanno misurato le risposte cerebrali ad una lingua straniera, manipolata per evidenziare la sensibilità alla parola indipendentemente dalla struttura linguistica. In tal modo, hanno identificato bilateralmente, ossia in entrambi gli emisferi, un’area nel solco temporale superiore (STS) specificamente reattiva e, in particolare, sensibile ai tempi di elaborazione della parola udita (Overath T., et al., The cortical analysis of speech-specific temporal structure revealed by responses to sound quilts. Nature Neuroscience – Epub ahead of print doi:10.1038/nn.4021, 2015).

La provenienza degli autori dello studio è la seguente: Duke Institute for Brain Sciences, Duke University, Durham, North Carolina (USA); Department of Brain and Cognitive Sciences, Massachusetts Institute of Technology (MIT), Cambridge, Massachusetts (USA); Center for Neural Science and Department of Psychology, New York University, New York (USA); Max Planck Institute, Frankfurt (Germania).

Nella caratterizzazione dei suoni linguistici, la durata ha notevole importanza. I fonemi, ossia le unità sonore minime della lingua, quali i suoni vocalici, hanno una durata temporale che va dai 30 ai 60 millisecondi; le sillabe, invece, dai 200 ai 300 millisecondi; la maggior parte delle parole ha, ovviamente, una durata maggiore di quella delle sillabe che costituiscono una sotto-unità della parola stessa. Per comprendere il significato, il cervello deve rilevare le differenze, riconoscere e integrare le informazioni di durata con gli altri caratteri acustici e con le memorie di senso associate. Il sistema uditivo, come altri sistemi sensoriali, campiona le informazioni in blocchi di dati detti chunk; in questo caso forma blocchi simili in lunghezza a quelli di una consonante media o di una sillaba media.

Overath e colleghi hanno segmentato le registrazioni di campioni di eloquio in brevi chunks di durata variabile fra 30 e 960 millisecondi, e poi hanno riassemblato i frammenti mediante un algoritmo originale, ideato per creare nuovi suoni, battezzati dai ricercatori speech quilts.

Il vaglio sperimentale ha dimostrato che quanto più breve era il frammento di speech quilts tanto maggiore era la rottura della struttura originaria del linguaggio.

Su questa base i ricercatori hanno formulato un’ipotesi che hanno sottoposto a vaglio sperimentale, studiando il cervello dei volontari impegnati nei compiti di ascolto dei quilts, mediante risonanza magnetica funzionale (fMRI). Secondo l’ipotesi, le aree cerebrali impegnate nell’elaborazione del linguaggio avrebbero dovuto presentare risposte maggiori agli speech quilts costituiti dai segmenti più lunghi.

L’osservazione in tempo reale dell’attività encefalica durante le prove ha confermato l’ipotesi: il solco temporale superiore (STS), area importante nell’elaborazione uditiva, durante l’ascolto dei segmenti di 480-960 millisecondi diventava molto più attivo rispetto a quando i volontari erano sottoposti all’ascolto dei segmenti di 30 millisecondi, ossia la durata di singoli foni linguistici e non linguistici. In contrasto, la corteccia acustica primaria (area 41 di Brodman) e altre aree cerebrali implicate nell’elaborazione dei suoni, non presentavano la risposta registrata nell’area STS, indicando la specificità di attivazione di questo territorio della corteccia cerebrale per gli stimoli corrispondenti alle comuni forme di messaggio acustico nelle lingue verbali più note. Per inciso, è noto che l’area STS integra informazioni sensoriali e, in particolare, dati di origine uditiva, ma finora nessuno aveva dimostrato che fosse sensibile a strutture temporali delle lingue prodotte dall’evoluzione culturale umana.

A questo punto, Tobias Overath e colleghi hanno cercato di stabilire in cosa consistesse questa specificità, e se fosse solo apparente. Ad esempio, l’interpretazione del suono come linguistico potrebbe essere dovuta ad un particolare requisito come la frequenza, la tonalità o il ritmo.

La sperimentazione è perciò proseguita testando numerosi suoni di controllo, realizzati per simulare le forme acustiche del linguaggio verbale. In particolare, sono state valutate tre tipi di sintesi sonore: 1) la prima condivideva la frequenza acustica della lingua ma mancava del suo ritmo; 2) la seconda era priva di tutte le tonalità tipiche[1]; 3) la terza era stata realizzata usando suoni ambientali. Tutti questi stimoli sono stati sottoposti a verifica scomponendoli in blocchi di 30 o 960 millisecondi e poi ricucendoli prima di sottoporli ai volontari.

Nessuno dei tre profili di stimoli, manipolati secondo lo schema quilt, ha indotto la risposta dell’area STS.

Questi risultati forniscono una conferma dell’individuazione da parte di Overath, McDermott, Zarate e Poeppel di un’area selettivamente sensibile al timing del linguaggio verbale.

In conclusione, l’insieme dei dati emersi, per il cui dettaglio si rimanda alla lettura integrale del lavoro originale, identifica nella corteccia acustica umana un luogo di analisi della parola udita, che agisce indipendentemente dall’elaborazione lessicale, semantica e sintattica legata ad una specifica lingua.

Gli autori di questo studio hanno programmato una verifica dei risultati ottenuti con il cinese mandarino, un idioma molto diverso nella struttura fonetica dalle lingue neolatine e dalle lingue del gruppo germanico, cui appartiene anche l’inglese.

 

L’autrice della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond

BM&L-23 maggio 2015

www.brainmindlife.org

 

 

 

 

 

 

 

 

 



[1] Le risultanti tonali armoniche o pitches, da intendersi nel senso della tonalità o tono di un brano musicale (Do maggiore, Sol minore, ecc.) che normalmente si riconoscono nell’acustica del nostro eloquio e che lo distinguono da varie forme di suono/rumore. Si ricorda, in proposito, l’osservazione che nell’interazione vocale fra madre e lattante il rapporto fra toni segue un intervallo di quinta (come Sol/Do), con il bambino, evidentemente, al quinto grado acuto della scala rispetto alla madre [Cfr. G. Perrella, Musica e Gioia, relazione al gruppo di studio sulla felicità (Cadoni, Cardon, Carnesecchi, Daniele, Lo Brutto, Perrella, Rezzoni, ecc. ) tenuta in Firenze presso il Caffè Storico Gilli, 2006].