Colloquialmente, quando due persone la pensano allo stesso modo, diciamo che sono sulla stessa lunghezza d’onda; con i dovuti aggiustamenti, non è una metafora così sbagliata, dopotutto. Un gruppo di ricerca basco, tramite l’elettroencefalografia, ha studiato l’attività cerebrale di coppie di partecipanti parlanti di lingua spagnola, i quali dovevano alternarsi a parlare e ascoltare in assenza di contatto visivo, in una situazione artificiale simile a quando facciamo una telefonata. Lo studio si colloca in un paradigma teorico e metodologico chiamato two-person neuroscience, dove l’unità di studio sono due partecipanti che interagiscono, e non uno singolo e isolato che esegue un determinato compito, come nella maggioranza degli studi di neuroscienze cognitive.

Cervelli in interazione. Autore: geralt. Licenza Creative Commons

Nello specifico, cosa si è misurato dell’attività cerebrale? I ricercatori erano interessati a testare l’ipotesi secondo la quale, durante l’interazione tra due interlocutori in uno scenario di comunicazione orale, l’attività elettrica dei loro cervelli tenderebbe a “mimarsi”, ad assumere ritmi simili (“brain-to-brain entrainment”). Gruppi più o meno grandi di neuroni, infatti, possono “accendersi” a frequenze diverse, dando origine a un segnale periodico (oscillazioni neurali). Queste attività oscillatorie sarebbero la chiave della codifica delle informazioni, determinerebbero il flusso di informazioni tra aree diverse, e la tempistica della percezione e dell’elaborazione. Secondo l’ipotesi di lavoro del presente studio se i cervelli dei due interlocutori dovessero sincronizzarsi si dovrebbero osservare delle convergenze in determinate frequenze sia per il parlante che per l’ascoltatore.

Set-up sperimentale: i due partecipanti interagiscono in una conversazione senza contatto visivo mentre viene registrata l’attività elettrica cerebrale tramite 27 elettrodi posti a contatto con lo scalpo. © Pérez et al. (2017)

Esemplificazione grafica della sincronizzazione delle frequenze alfa tra l’attività cerebrale del parlante e dell’ascoltatore rilevata dai rispettivi elettrodi. © Pérez et al. (2017)

I risultati rivelano che ci sono sia delle differenze tra parlante e ascoltatore che delle convergenze, e che alcune di queste convergenze sono spiegabili come mediate dall’input sonoro, il parlato: alcuni ritmi neurali – bande di frequenza delta (1-3 Hz) e theta (4-8 Hz) – sarebbero infatti dovuti all’entrainment con delle caratteristiche fisiche del parlato, elemento disponibile sia per il parlante che per l’ascoltatore, e non sarebbero quindi rivelatori di una sincronizzazione indipendente dall’input fisico. Ma alcune convergenze, invece, non potrebbero essere spiegate così: l’entrainment nelle bande di frequenza alfa (9-12 Hz) e beta (15-20 Hz), infatti, rispecchierebbero rispettivamente il reclutamento di risorse attentive (necessarie non solo per comprendersi, ma anche per anticipare il parlato in arrivo e per segmentare in unità significative il segnale continuo del parlato) e il collegamento tra processi di comprensione e funzioni motorie (alcuni studi precedenti hanno mostrato cambiamenti sistematici in questa frequenza quando un partecipante doveva ascoltare del parlato – comprensione,– cambiamenti simili a quelli che si rilevano quando un parlante deve invece produrre un messaggio linguistico – produzione).

La sincronizzazione in queste frequenze, quindi, potrebbe essere il riflesso dell’interazione sociale tra due individui (e i loro cervelli) richiesta dalla situazione comunicativa, ed essere quindi una finestra su tali processi e sulle loro basi neurali.

 

Fonte:

Pérez, A., Carreiras, M., Duñabeitia, J.A. (2017). Brain-to-brain entrainment: EEG interbrain synchronization while speaking and listening. Scientific Reports 7: 4190.