Musique et langage traités différemment

L'actualité scientifique commentée par les spécialistes. Aujourd'hui : le cerveau ne traite pas les signaux de musique et de parole de la même façon.

Par Bruno Scala
musique langage cerveau

Les liens entre langage et musique font l’objet de nombreuses recherches. Des travaux1 menés par l’équipe de Robert Zatorre (université McGill), en collaboration avec l’Institut de neurosciences des systèmes de Marseille, confirment que ces deux stimuli sont traités différemment par le cerveau. En altérant les dimensions temporelle ou spectrale de 100 chants sans accompagnement, les auteurs rapportent que les auditeurs ne parviennent plus à reconnaître les textes lorsque la dimension temporelle est altérée mais continuent à identifier l’air sans difficulté. Un phénomène opposé s’observe lorsque l’on manipule la dimension spectrale des chansons. Le plus intéressant est de constater que ces performances sont directement reliées aux activations des cortex auditifs enregistrées pendant l’étude : le cortex gauche est fortement activé par les altérations de la dimension temporelle, et le droit par les altérations de la dimension spectrale. Cela conduit les auteurs à suggérer que la réponse différentielle dans chaque hémisphère dépend du type d’information acoustique perçu.

L’avis du Pr Emmanuel Bigand2

« Près d’un siècle avant le linguiste Noam Chomsky, le musicologue Heinrich Schenker a montré combien la musique (occidentale tonale) était structurée comme un langage, ce qui fut formalisé en 1983 par les musicologue et linguiste, Fred Lerdahl et Ray Jackendoff. Il reste à comprendre comment le cerveau traite ces deux systèmes de communication et quelles sont les implications évolutionnistes de ces liens. Une approche modulaire postule que des régions cérébrales spécifiques sont dédiées à chacun de ces systèmes. La musique est à « droite » et le langage à « gauche », a-t-on dit. Quelle est l’origine de cette différenciation hémisphérique ? Cette étude montre de façon élégante que la latéralisation hémisphérique observée pour la musique et le langage pourrait s’expliquer principalement par la façon dont le cerveau traite les traits acoustiques bas niveaux. Ces résultats ont des implications pour l'élaboration des implants cochléaires qui doivent optimiser le codage de l'information spectrale pour une meilleure perception de la musique, ou pour des stratégies rééducative de la dyslexie. Ils suggèrent qu'une latéralisation de ces traitements en écoute dichotique (avec l'information spectrale maximisée dans l'oreille gauche et l'information temporelle dans la droite) pourrait renforcer la rééducation. »

Newsletter

Newsletter

La newsletter Audiologie Demain,

le plus sûr moyen de ne jamais rater les infos essentielles de votre secteur...

Je m'inscris