Notizie dal mondo5 - Istituto Audiologico Italiano

Vai ai contenuti
Le registrazioni cerebrali fanno luce sull'elaborazione del parlato nel rumore, con implicazioni per gli apparecchi acustici

Di Karl Strom,  Pubblicato il 07 giugno 2023
In un nuovo studio pubblicato sulla rivista ad accesso libero PLOS Biology del 6 giugno, un team di ricercatori ha fatto luce sugli straordinari processi impiegati dal cervello umano per elaborare il parlato mentre si trova in una cacofonia di voci in competizione, spesso definita come il "cocktail effetto." Guidati da Nima Mesgarani, PhD della Columbia University, i loro risultati svelano come il cervello affronta l'intricato compito di comprendere il discorso in una stanza affollata, considerando fattori come la chiarezza uditiva e l'attenzione dell'ascoltatore, con possibili implicazioni che potrebbero aprire la strada a progressi nell'udito elaborazione degli aiuti volta a isolare e migliorare il parlato nel rumore.
Impegnarsi in una conversazione in un ambiente rumoroso può porre sfide significative, in particolare quando il volume delle voci in competizione oscura i segnali vocali desiderati. Sebbene gli apparecchi acustici abbiano fatto passi da gigante nell'aiutare le persone a sentire meglio e più comodamente nel rumore, la loro capacità di identificare e prestare attenzione al discorso di uno specifico interlocutore in questi contesti è ancora per lo più limitata al microfono direzionale o alla tecnologia beamforming.
Per approfondire i meccanismi alla base della percezione del parlato in ambienti rumorosi, il team di ricercatori ha registrato l'attività neurale da elettrodi impiantati nel cervello di individui con epilessia sottoposti a chirurgia cerebrale. Durante tutta la procedura, i pazienti sono stati istruiti a concentrarsi su un'unica voce, sottoposta a intermittenza a vari gradi di volume in relazione ad altre voci, fungendo rispettivamente da controparte "intravista" o "mascherata".
Sfruttando le registrazioni neurali, il team di ricerca ha costruito modelli predittivi dell'attività cerebrale. I modelli hanno mostrato che le informazioni fonetiche del discorso "intravisto" erano codificate sia nella corteccia uditiva primaria che in quella secondaria del cervello e che la codifica del discorso assistito era migliorata nella corteccia secondaria. Al contrario, le informazioni fonetiche del discorso "mascherato" venivano codificate solo se si trattava della voce presente. Hanno anche scoperto che una particolare soglia del rapporto segnale-rapporto (SNR) (-4 dB) ottimizzava le previsioni di risposta neurale.
Inoltre, lo studio ha rivelato una discrepanza temporale tra la codifica del discorso "intravisto" e "mascherato", con quest'ultimo che mostra una risposta ritardata. La codifica separata delle informazioni fonetiche dal discorso "intravisto" e "mascherato" implica che concentrarsi sulla decifrazione solo della parte "mascherata" del discorso assistito potrebbe portare a sistemi di decodifica dell'attenzione uditiva migliorati per gli apparecchi acustici controllati dal cervello.
"Quando ascolti qualcuno in un luogo rumoroso, il tuo cervello recupera ciò che ti sei perso quando il rumore di fondo è troppo forte", afferma l'autore principale dello studio Vinay Raghavan. "Il tuo cervello può anche catturare frammenti di discorso su cui non sei concentrato, ma solo quando la persona che stai ascoltando è tranquilla in confronto."
Si spera che il lavoro possa aiutare a svelare la complessa natura del parlato nel rumore e aprire strade promettenti per futuri progressi nella tecnologia degli apparecchi acustici.

Citazione dell'articolo originale: Raghavan VS, O'Sullivan J, Bickel S, Mehta AD, Mesgarani N. Codifica neurale distinta di discorsi intravisti e mascherati in situazioni multiparlanti. PLoS Biol. 2023;21(6):e3002128.
Fonte: EurekAlert
 
   
   
ISTITUTO AUDIOLOGICO ITALIANO s.r.l.s.
P.Iva 03872020130
REA - CO - 403286
Torna ai contenuti