Notre cerveau traiterait en même temps les sons et les phrases
La manière dont le cerveau traite les sons du langage a peut-être été mal comprise. Pendant de nombreuses années, il était admis qu’il s’occupe d’abord des informations acoustiques avant de les transformer en informations linguistiques. Une nouvelle étude, parue le 18 août dans la revue Cell, remet cette théorie en cause et suggère que le cerveau traite les sons et la parole simultanément.
Une ancienne théorie qui manque de preuves
Les sons du langage, lorsqu’ils atteignent les oreilles, sont convertis en signaux électriques par la cochlée et envoyés à une région du cerveau appelée cortex auditif sur le lobe temporal. Pendant des décennies, les scientifiques ont pensé que le traitement de la parole dans le cortex auditif suivait une voie en série, semblable à une chaîne de montage dans une usine. On pensait que d’abord, le cortex auditif primaire traite les informations acoustiques simples, telles que les fréquences des sons. Ensuite, une région adjacente, appelée le gyrus temporal supérieur (STG), extrait des caractéristiques plus importantes pour la parole, comme les consonnes et les voyelles, transformant les sons en mots significatifs.
Les preuves directes de ce schéma font défaut car elles sont complexes à obtenir, et c’est ce qui a mis la puce à l’oreille des chercheurs qui se sont dits qu’un autre mécanisme pouvait exister. “Nous nous sommes donc lancés dans cette étude, dans l’espoir de trouver des preuves de cela – la transformation de la représentation de bas niveau des sons en une représentation de haut niveau des mots”, précise Edward Chang, neuroscientifique et neurochirurgien à l’université de Californie à San Francisco, et auteur principal de l’étude.
Une étude pionnière
Pendant sept années, les chercheurs ont étudié neuf participants qui ont dû subir des chirurgies cérébrales pour des raisons médicales, telles que l’ablation d’une tumeur ou la localisation d’un foyer épileptique. Pour ces procédures, des réseaux de petites électrodes ont été placés pour couvrir l’ensemble de leur cortex auditif afin de collecter des signaux neuronaux pour la cartographie du langage et des crises. Les participants se sont également portés volontaires pour que les enregistrements soient analysés afin de comprendre comment le cortex auditif traite les sons de la parole.
“C’est la première fois que nous pouvons couvrir toutes ces zones simultanément directement à partir de la surface du cerveau et étudier la transformation des sons en mots”, s’est réjoui Edward Chang. Les tentatives précédentes pour étudier les activités de la région impliquaient en grande partie l’insertion d’un fil dans la zone, qui ne pouvait révéler les signaux qu’à un nombre limité de points.
Un travail simultané
Lorsqu’ils ont prononcé des phrases courtes aux participants, les chercheurs s’attendaient à trouver un flux d’informations du cortex auditif primaire au STG adjacent, comme l’affirme le modèle traditionnel. Si tel est le cas, les deux zones s’activent l’une après l’autre. À leur surprise, les scientifiques ont découvert que certaines zones situées dans le STG ont répondu aussi rapidement que le cortex auditif primaire lorsque des phrases étaient énoncées, ce qui suggère que les deux zones ont commencé à traiter les informations acoustiques en même temps.
De plus, dans le cadre de la cartographie du langage clinique, les chercheurs ont stimulé le cortex auditif primaire des participants avec de petits courants électriques. Si le traitement de la parole suit une voie en série comme le suggère le modèle traditionnel, les stimuli déformeraient probablement la perception de la parole des patients. Au contraire, alors que les participants éprouvaient des hallucinations sonores auditives induites par les stimuli, ils étaient toujours capables d’entendre clairement et de répéter les mots qui leur étaient dits. Cependant, lorsque le STG a été stimulé, les participants ont déclaré qu’ils pouvaient entendre les gens parler, sans pouvoir distinguer les mots.
Mieux traiter la dyslexie
Ces résultats offrent un nouveau regard sur la manière dont travail notre cerveau et pourraient aboutir à de nouvelles manières de traiter des conditions telles que la dyslexie, où les enfants ont du mal à identifier les sons de la parole. “Bien qu’il s’agisse d’un pas en avant important, nous ne comprenons pas encore très bien ce système auditif parallèle, tempère Edward Chang. Les résultats suggèrent que l’acheminement des informations sonores pourrait être très différent de ce que nous avions imaginé. Cela soulève certainement plus de questions qu’il n’apporte de réponses.”