Come i bimbi nati sordi possono distinguere la lunghezza delle vocali

 

 

DIANE RICHMOND

 

 

 

NOTE E NOTIZIE - Anno XIII – 03 ottobre 2015.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

L’acquisizione della capacità di parlare la lingua madre, con il corretto sviluppo delle abilità di articolazione motoria dei suoni nella loro esatta pronuncia, si basa sull’ascolto, la codifica sensoriale e la formazione di memorie delle unità acustiche (fonemi, parole, frasi) recepite. Per tale ragione, anticamente i sordi congeniti erano anche muti.

Ai nostri giorni, l’esercizio logopedico precoce e gli impianti cocleari permettono di affrontare bene il problema, spesso consentendo un apprendimento del linguaggio verbale e uno sviluppo delle abilità di articolazione ed esecuzione individuale della lingua appresa prossime al livello fisiologico. Sebbene tali misure terapeutiche costituiscano indicazioni ormai da tempo diffuse in tutto il mondo, esiste una conoscenza ancora molto limitata circa ciò che realmente i bambini congenitamente sordi percepiscono quando ricevono il loro primo input uditivo e, specificamente, quali elementi rilevanti per la propria esecuzione verbale sono in grado di ricavare dalla modalità di rilevazione acustica assistita.

Niki Katerina Vavatzanidis, Dirk Mürbe, Angela Friederici e Anja Hahne hanno studiato questi aspetti fornendo dati precisi ed indicazioni per ulteriori studi (Vavatzanidis N. K., et al., The Basis for Language Acquisition: Congenitally Deaf Infants Discriminate Vowel Length in the First Months after Cochlear Implantation. Journal of Cognitive Neuroscience – Epub ahead of print doi:10.1162/jocn_a_00868, 2015).

La provenienza degli autori è la seguente: Max Planck Institute for Human Cognitive and Brain Sciences, Leipzig (Germania); Technical University of Dresden, Dresden (Germania).

I bambini vengono al mondo con l’abilità innata di rilevare distinzioni fonetiche in tutte le lingue umane, precocemente sviluppano una capacità fonetica specifica per la lingua madre e, prima della fine del primo anno di vita, acquisiscono le prime parole[1].

Classicamente, B. F. Skinner (1957) sosteneva che né lo stato iniziale, né il modo in cui la lingua verbale viene acquisita, costituiscono qualcosa di unico; al contrario, Noam Chomsky (1959) riteneva le abilità innate dei bambini e il modo in cui la capacità di parlare viene acquisita, una realtà esclusiva della parola e dell’uomo. Gli strumenti di ricerca delle neuroscienze dell’evoluzione ci hanno avvicinato molto alla possibilità di dare risposte definitive ai quesiti circa queste due differenti visioni, illuminandoci, ad esempio, sulla genetica del linguaggio che ha riconosciuto fattori di trascrizione conservati lungo l’evoluzione ed importanti tanto nella regolazione del canto degli uccelli quanto nell’acquisizione della parola da parte dei bambini, e fornendoci dati elettrofisiologici (EEG), magnetoencefalografici (MEG) e morfo-funzionali (fMRI) su elementi specifici e non specifici nell’apprendimento della lingua.

Da un punto di vista teorico, il legame fra percezione uditiva ed azione, ossia ascolto ed esecuzione della lingua, è ipotizzato secondo due tesi principali: l’elaborazione originale detta teoria motoria, che riteneva innata l’associazione percezione-azione, e una formulazione variante della percezione diretta dei gesti, detta realismo diretto, che la considerava conseguente all’esperienza[2]. A questi due principali costrutti teorici basati su tesi deduttive, sono seguiti i fatti dei risultati della ricerca a partire dagli studi di Imada e colleghi (2006) mediante magnetoencefalografia (MEG) su neonati e bambini di 6 e 12 mesi e di Deahene-Lambertz e colleghi (2006) mediante fMRI del cervello di bambini di 3 mesi. Entrambi gli studi hanno rilevato l’attivazione di aree motorie del linguaggio – grosso modo corrispondenti all’area di Broca – come diretta conseguenza della percezione acustica della lingua: sillabe comparate con segnali non verbali ed armoniche nel primo studio, intere frasi nel secondo studio[3]. Nel corso della decade che si va compiendo, i risultati ottenuti da altri ricercatori hanno consolidato ed ampliato le conoscenze emerse da questi primi due studi.

Nell’apprendimento vocale l’udito ha due ruoli diversi e fra loro indipendenti: 1) fornisce modelli; 2) consente il feedback.

1) L’ascolto delle vocalizzazioni permette l’imitazione. Questo aspetto dell’apprendimento è classicamente percettivo ed è sostanzialmente identico nella nostra specie e nelle specie aviarie particolarmente studiate, ossia gli uccelli da canto (songbirds). In questi volatili si forma una memoria sensoriale del canto dell’uccello tutor[4], spesso definita “matrice” (template), durante un periodo definito fase dell’apprendimento sensoriale. Ma né gli uccelli né i bambini traducono direttamente tale memoria sensoriale in una versione motoria per l’esecuzione. Inizialmente, i piccoli producono vocalizzazioni approssimative ed immature che costituiscono la lallazione nella nostra specie e, negli uccelli, il pattern definito in inglese subsong. È necessario che tali vocalizzazioni siano udite e gradualmente modificate, fino a farle assomigliare il più possibile all’uscita senso-motoria desiderata: tale funzione si svolge in un periodo di sviluppo detto fase dell’apprendimento sensomotorio.

2) L’ascolto di se stessi consente il feedback correttivo. L’udito fornisce agli esecutori in corso di apprendimento le informazioni sensoriali circa l’accuratezza della loro performance esecutiva in forma di feedback uditivo. Questo aspetto è stato particolarmente studiato nei giovani uccelli canterini, che possono memorizzare il canto di un adulto (tutor) con un numero relativamente basso di sessioni di ascolto, e produrne un’imitazione la cui bontà dipende da quanto essi possono udire se stessi. Se questi uccellini sono privati dell’udito dopo l’apprendimento sensoriale del canto dell’adulto, producono esecuzioni canore estremamente irregolari, prive perfino della struttura innata. La stessa dipendenza dall’ascolto della propria voce è evidente nella specie umana, come è evidente nel linguaggio marcatamente alterato dei bambini che diventano sordi durante l’infanzia; alterazione che permane spesso anche dopo lunghi ed intensi periodi di trattamento logopedico.

Considerati questi due importanti ruoli dell’udito per lo sviluppo dell’esecuzione vocale, è opportuno ricordare che l’apprendimento vocale è ottimale durante uno speciale periodo sensibile.

L’udito permette un corretto apprendimento della parola nell’uomo e del canto negli uccelli grazie a reti neuroniche specializzate per la vocalizzazione. Negli uccelli, poi, sono stati identificati specifici rilevatori (feature detectors) di elementi distintivi delle vocalizzazioni apprese.

Gli studi sull’apprendimento del linguaggio sono molto più complessi e, anche se grazie al paradigma senso-motorio e anatomo-funzionale del canto degli uccelli è stato possibile fare notevoli progressi, la via da percorrere è ancora lunga.

Gli autori dello studio qui recensito hanno valutato la capacità di estrarre un parametro acustico temporale che ha un’importanza cruciale nella comprensione del linguaggio umano, in quanto veicola differenziazione semantica e contribuisce alla segmentazione delle parole e alla distinzione dei significati: la lunghezza o durata del suono delle vocali. A tal fine, hanno presentato, secondo il classico paradigma oddball, varianti con vocale lunga o breve della sillaba /ba/ ad infanti congenitamente sordi e bambini che avevano ricevuto l’impianto cocleare prima dell’età di 4 anni.

I ricercatori hanno rilevato l’EEG dei due gruppi di bambini ad intervalli regolari per studiare la loro abilità discriminativa a partire dalla prima attivazione dell’impianto fino a 8 mesi dopo. In tal modo sono stati in grado di tracciare temporalmente l’abilità emergente di distinguere e riconoscere la lunghezza del suono della vocale.

I risultati indicano che già 2 mesi dopo il primo input uditivo, ma non direttamente dopo l’attivazione dell’impianto cocleare, questi bambini che avevano ricevuto precocemente il supporto tecnologico distinguevano le sillabe corte dalle lunghe.

Sorprendentemente, dopo soli 4 mesi di esperienza uditiva, i potenziali associati ad evento (ERP, da event-related potential) avevano raggiunto la configurazione esprimente le stesse proprietà degli ERP del gruppo di controllo, costituito da bambini con capacità uditive fisiologiche. Tale rilievo evidenzia la plasticità del cervello nel rispondere adeguatamente alla nuova modalità percettiva.

In tal modo, Vavatzanidis e colleghi hanno dimostrato che un elemento semplice ma linguisticamente rilevante quale la lunghezza delle vocali, raggiunge livelli elettrofisiologici appropriati per l’età già 4 mesi dopo la prima stimolazione acustica, fornendo una buona base per acquisire ulteriori abilità verbali.

 

L’autrice della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond

BM&L-03 ottobre 2015

www.brainmindlife.org

 

 

 

 

_____________________________________________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



[1] Una rassegna esaustiva dell’argomento dal punto di vista delle neuroscienze cognitive si trova in Patricia K. Kuhl, Early Language Acquisition: Neural Substrates and Theoretical Models, pp. 837-854, The Cognitive Neurosciences (Michael S. Gazzaniga editor-in-chief). The MIT Press, Cambridge, Massachusetts, 2009.

[2] La teoria motoria è illustrata in lavori classici di Liberman, Cooper, Shankweiler e Studdert-Kennedy (1967); per il realismo diretto si veda Fowler C. A., J. Phonetics 14, 3-28, 1986.

[3] Imada T., et al. NeuroReport 17, 957-962, 2006; Dehaene-Lambertz G., et al. PNAS USA 103, 14240-14245, 2006.

[4] Nell’apprendimento sperimentale, in genere, si adoperano registrazioni audio di cantori della stessa specie del giovane esemplare sottoposto a training o, talvolta, registrazioni di cantori di altre specie (eterospecifici).