Ruolo
di sincronia e ambiguità nell’integrazione di parole e gesti
LORENZO L. BORGIA
NOTE E
NOTIZIE - Anno IX - 18 giugno 2011.
Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale
di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). La sezione
“note e notizie” presenta settimanalmente note di recensione di lavori
neuroscientifici selezionati dallo staff
dei recensori fra quelli pubblicati o in corso di pubblicazione sulle maggiori
riviste e il cui argomento rientra negli oggetti di studio dei soci afferenti
alla Commissione Scientifica, e
notizie o commenti relativi a fatti ed eventi rilevanti per la Società
Nazionale di Neuroscienze.
[Tipologia del testo:
RECENSIONE]
Durante
una normale conversazione, ossia un’esperienza di comunicazione umana viso a viso, non
solo ascoltiamo il discorso dell’altro, ma possiamo anche
vedere il suo gesticolare. I movimenti delle mani che
accompagnano i messaggi verbali sono da tempo oggetto di studio, ed è stato
dimostrato che i gesti giocano un ruolo importante nella comunicazione in
quanto ciascuna delle due modalità di trasmissione è in grado di influenzare l’interpretazione dell’altra.
Tipicamente
un gesto si sovrappone temporalmente all’esecuzione verbale co-espressa, ma è
noto che il gesto è spesso avviato prima e non dopo la produzione
verbale che accompagna. La relazione temporale fra parola e movimento è
interessante, sia per lo studio dell’organizzazione cerebrale della produzione
nel soggetto emettitore, sia per l’analisi dei processi di integrazione che
avvengono nella decodifica da parte del soggetto ricevente. Boukje Habets e
colleghi dell’Università di Amburgo e di altri istituti europei[1]
hanno studiato mediante ERP il ruolo della sincronia e
dell’ambiguità nell’integrazione parola-gesti durante la comprensione, e ne
riferiscono in un lavoro che sarà pubblicato nel mese di agosto (Habets B., et al.
The
Role of Synchrony and Ambiguity in Speech-Gesture Integration during
Comprehension. Journal of Cognitive Neuroscience
23 (8): 1845-1854, 2011).
Il
lavoro si prefiggeva lo scopo di accertare il grado di asincronia ottimale fra le due modalità di espressione, rispettivamente verbale e motoria, per l’integrazione semantica di gesti e parole concomitanti. A tale scopo sono
stati combinati dei video di una persona gesticolante con segmenti di discorso congrui o incongrui con i gesti. Sebbene movimenti e
discorso si sovrapponessero comunque nel tempo, si è studiata una presentazione
di gesti e parole con tre diversi gradi
di asincronia (SOA 0, SOA
160 msec, SOA 360 msec).
Nella
condizione SOA 0, il generarsi di gesto e parola era simultaneo. Nelle
condizioni SOA 160 e SOA 360, l’espressione verbale era ritardata,
rispettivamente, di 160 e 360 millisecondi. Il tempo degli ERP corrispondenti all’originarsi delle parole ha mostrato una
significativa differenza fra combinazioni parole-gesti semanticamente congrue e
incongrue per la N400[2], nelle condizioni SOA 0 e SOA 160.
Invece, nella condizione SOA 360, non si sono rilevate differenze significative.
Nel
complesso, i risultati emersi dallo studio, per il cui dettaglio si rimanda
alla lettura del lavoro originale, suggeriscono che il discorso e i gesti sono
integrati con la massima efficienza quando le differenze nella comparsa non
eccedono un certo intervallo temporale a motivo del fatto che i gesti
iconici richiedono l’integrazione con il valore semantico del messaggio verbale
per essere “disambiguati” in modo rilevante per il contesto del discorso.
L’autore della nota invita alla lettura delle recensioni di
argomento connesso che compaiono nelle “Note e Notizie” (impiegare la pagina
“CERCA” del sito).
[1] University of Birmingham, United
Kingdom; Max Plank Institute for Psycholinguistics, Nijmegen, The Netherlands;
Radboud University, Nijmegen, The Netherlands; Donders Institute for Brain Cognition and Behaviour, Nijmegen, The
Netherlands.
[2] L’onda negativa dei potenziali cognitivi evocati che si produce dopo circa 400 millisecondi (N400) è tipicamente indicativa di incongruità.