Il dito che oscilla per dire ‘no’, il braccio che indica la direzione di un luogo, due dita ravvicinate nella zona delle labbra per mimare ‘sta fumando’ oppure, pollice e indice congiunti, la mano che scrive nell’aria ‘il conto per piacere’. Sono solo alcune delle diverse tipologie di gesti analizzate dall’Istituto di bioimmagini e fisiologia molecolare del Consiglio nazionale delle ricerche di Segrate (Ibfm-Cnr) e il Cognitive Electrophysiology lab dell’Università di Milano-Bicocca.
I ricercatori hanno studiato i meccanismi neurali che supportano la comprensione della gestualità spontanea negli udenti, partendo da una batteria di 187 gesti utilizzati spontaneamente per accompagnare o sostituire la comunicazione uditivo-verbale nella lingua italiana. Lo studio, intitolato ‘Semantic brain areas are involved in gesture comprehension: An electrical neuroimaging study’, è pubblicato online sulla rivista ‘Brain and Language’ della Elsevier ed è in prossima uscita nella versione cartacea.
“Per ciascun gesto sono state scattate foto frontali, con varianti regionali-dialettali e soggettive, coinvolgenti mimica facciale e movimenti o posture caratteristiche, compiuti da sei individui, tre maschi e tre femmine, di età compresa tra i 24 e i 27 anni, per un totale di 1222 gesti. Gli stimoli sono stati validati da 18 coetanei, anch’essi studenti universitari”, spiega Alberto Zani, ricercatore dell’Ibfm-Cnr. “Di questi gesti, 800 sono stati selezionati e abbinati ad una descrizione verbale, per la metà incongruente, al fine di testare i meccanismi di comprensione semantica da parte degli studenti, di 14 dei quali sono stati registrati i potenziali bioelettrici cerebrali (ERPs)”.
L’osservazione sperimentale dei soggetti impegnati nella comprensione ha mostrato “un’ampia risposta bioelettrica chiamata N400 frontale, che indica il riconoscimento automatico di un’incongruenza di significato tra gesto e descrizione, circa 400 millisecondi dopo la stimolazione”, prosegue Zani. “I segnali neurali ottenuti corrispondono ad aree cerebrali linguistiche-semantiche (lobo temporale mediale sinistro e talamo) e sintattiche (lobo temporale superiore per il linguaggio audiovisivo). Sono risultati attivi anche il sistema di osservazione dell’azione noto come ‘sistema di neuroni specchio fronto-parietale’ (corteccia premotoria e corteccia parietale inferiore sinistra) e le aree coinvolte nell’elaborazione delle parti del corpo e del volto”.
In particolare, l’esperimento voleva indagare se il meccanismo cerebrale di comprensione ed utilizzo dei gesti spontanei fosse più simile a quello che governa il linguaggio del corpo affettivo (body language), da cui traspare per esempio se siamo adirati o imbarazzati, o a quello che controlla il linguaggio dei segni nei non udenti. “I risultati dello studio indicano l’esistenza di un complesso sistema neurale per la comprensione della lingua dei segni spontanea, che potremmo ipotizzare a metà strada tra un linguaggio formale dei segni, come quello utilizzato dai non-udenti, e un linguaggio del corpo emozionale (emotional body language)”, conclude Alice Mado Proverbio, docente dell’Università di Milano-Bicocca e coordinatrice dello studio. “Ciò permette di supporre che vi sia stata una transizione filogenetica tra il sistema di comunicazione linguistica esclusivamente gestuale e quello più propriamente uditivo-verbale. La coesistenza di un sistema avanzato di comunicazione gestuale e di capacità imitative spiccate potrebbe aver reso possibile, negli ominidi, la nascita di protosegni con chiari significati semantici, dotati di specifiche regole d’uso e utilizzati in assenza del referente, caratteristica tipica del linguaggio verbale moderno”.