résumé: Les chercheurs ont découvert que le cerveau décode la parole différemment dans les environnements bruyants en fonction du volume de la parole et de notre concentration sur celle-ci.
Leur étude, qui a utilisé des enregistrements neuronaux et des modèles informatiques, montre que lorsque vous avez du mal à suivre une conversation au milieu de sons plus forts, notre cerveau encode distinctement les informations audio lorsque le son est facilement entendu. Cela peut être essentiel pour améliorer les aides auditives qui isolent la parole présente.
Cette recherche pourrait conduire à des améliorations significatives dans les systèmes de décodage de l’attention auditive, en particulier pour les aides auditives contrôlées par le cerveau.
Faits marquants:
- L’étude a révélé que notre cerveau encode les informations audio différemment dans les situations bruyantes, en fonction du volume de parole sur lequel nous nous concentrons et de notre niveau d’attention.
- Les chercheurs ont utilisé des enregistrements neuronaux pour générer des modèles prédictifs de l’activité cérébrale, montrant que les informations audio « aperçues » et « déguisées » sont encodées séparément dans notre cerveau.
- Cette découverte pourrait conduire à des développements majeurs dans la technologie des aides auditives, en particulier dans l’amélioration des systèmes de décodage de l’attention auditive pour les aides auditives contrôlées par le cerveau.
source: Plus
Des chercheurs dirigés par le Dr.
Publié le 6 juin dans Open Access Journal Biologie PLUSL’étude utilise une combinaison d’enregistrements neuronaux et de modélisation informatique pour montrer que lorsque nous suivons une parole noyée par des sons plus forts, l’information vocale est encodée différemment que dans la situation opposée.
Les résultats pourraient aider à améliorer les aides auditives qui fonctionnent en isolant la parole actuelle.
Se concentrer sur la parole dans une pièce bondée peut être difficile, surtout lorsque les autres sons sont plus forts. Cependant, amplifier tous les sons de manière égale n’améliore guère la capacité d’isoler ces sons difficiles à entendre, et les aides auditives qui tentent uniquement d’amplifier la parole contrôlée sont encore très imprécises pour une utilisation pratique.
Afin de mieux comprendre comment la parole est traitée dans ces situations, des chercheurs de l’Université de Columbia ont enregistré l’activité neuronale d’électrodes implantées dans le cerveau de personnes atteintes d’épilepsie alors qu’elles subissaient une chirurgie cérébrale. Les patients devaient prêter attention à une voix, qui était parfois plus forte qu’une autre (« peeps ») et parfois plus calme (« déguisée »).
Les chercheurs ont utilisé les enregistrements neuronaux pour générer des modèles prédictifs de l’activité cérébrale. Les modèles ont montré que l’information phonologique de la parole « brillante » était codée à la fois dans le cortex auditif primaire et secondaire du cerveau, et que le codage de la parole associé était amélioré dans le néocortex secondaire.
En revanche, les informations audio de la parole « déguisée » n’étaient codées que s’il s’agissait de l’audio visuel. Enfin, le codage de la parole s’est produit plus tard pour la parole « déguisée » que pour la parole « flatteuse ». Étant donné que les informations audio « aperçues » et « déguisées » semblent être codées séparément, se concentrer sur le décodage uniquement de la partie « déguisée » du discours qui l’accompagne pourrait conduire à des systèmes de décodage de l’attention auditive améliorés pour les aides auditives contrôlées par le cerveau.
Vinay Raghavan, auteur principal de l’étude, déclare : « Lorsque vous écoutez quelqu’un dans un endroit bruyant, votre cerveau récupère ce qu’il a manqué lorsque le bruit de fond était trop fort. Votre cerveau peut également capter des parties du discours sur lesquelles vous ne vous concentrez pas. allumé, mais seulement quand la personne que vous écoutez est silencieuse en comparaison.
À propos de cette recherche Nouvelles des neurosciences auditives
auteur: Nima Masgarani
source: Plus
communication: Grace Masgarani – Plus
image: Image créditée à Neuroscience News
Recherche originale : libre accès.
« Codage neuronal distinctif pour un discours brillant et persuasif dans des situations multitalkerÉcrit par Nima Masgarani et al. Biologie PLUS
un résumé
Codage neuronal distinctif pour un discours brillant et persuasif dans des situations multitalker
Les humains peuvent facilement écouter un seul orateur dans un environnement multi-caractères et toujours capter des fragments de parole en arrière-plan ; Cependant, on ne sait toujours pas comment nous percevons le discours persuasif et dans quelle mesure le discours non ciblé est traité.
Certains modèles suggèrent que la perception peut être obtenue par des coups d’œil, qui sont des régions temporelles spectrales où le locuteur a plus d’énergie que l’arrière-plan. D’autres modèles, cependant, nécessitent la restauration des régions masquées.
Pour élucider ce problème, nous avons enregistré directement à partir du cortex auditif primaire et non primaire chez des patients en neurochirurgie tout en assistant à un seul locuteur dans un discours à plusieurs locuteurs et des modèles de fonction de réponse temporelle entraînés pour prédire l’activité neuronale à gamma élevé à partir de caractéristiques de stimulation lumineuses et masquantes. .
Nous avons constaté que la parole brillante est codée au niveau des caractéristiques vocales des locuteurs cibles et non cibles, avec un codage amélioré de la parole cible dans l’AC non central. En revanche, seuls les traits vocaux masqués se sont révélés être codés sur la cible, avec un temps de réponse plus long et une organisation anatomique distincte par rapport aux traits vocaux contondants.
Ces résultats indiquent des mécanismes distincts de codage de la parole sans repère et caché et fournissent des preuves neuronales pour le modèle de perception de la parole semblable à un repère.