Howard Brabyn : L’émotion dans le cerveau


29 Aug 2014

(Revue Itinérance. No 2. Novembre 1986)

Howard Brabyn était responsable de l’édition anglaise du Courrier de l’Unesco.

La peur est ancienne. Elle est génétique. Elle dépend de plus de notre langue maternelle : dès la formation de l’enfant elle est présente dans la façon de percevoir le monde extérieur.

Enchâssé dans la boîte crânienne, son armure, enveloppé par plusieurs membranes, entouré d’une poche de liquide qui le protège des chocs, le cerveau — ce petit tas de chair gris-rose à peine gros comme un melon, pesant 1360 grammes — est à l’origine de toutes nos pensées, de tous nos sentiments, de tous nos actes. Cet organe modeste contient, croit-on, dix milliards de neurones, cellules nerveuses microscopiques groupées au sein de circuits qui se comptent par millions et dont chacun exerce une fonction spécifique, définie par l’hérédité ou enseignée par l’expérience.

Le cerveau n’est pas l’apanage de l’homme ; même dans les formes les plus primitives de la vie animale, on trouve un organe qui s’en approche. Mais c’est chez l’homme seulement que le cerveau s’est développé au point de permettre le langage, ce don de l’évolution grâce auquel nous pouvons communiquer ce que nous avons appris et transmettre de génération en génération notre expérience et notre mémoire collectives. Depuis cent ans, les savants cherchent, avec un pourcentage élevé de réussite, à percer les mystères du cerveau et à déterminer la répartition des activités entre les cellules. Ils ont découvert que le cerveau était divisé en deux hémisphères contrôlant chacun le fonctionnement physique de la moitié du corps. Pour une raison inconnue, les nerfs changent de côté dans la moelle épinière avant d’arriver au cerveau. C’est pourquoi le côté gauche du corps est commandé par l’hémisphère droit et le côté droit par l’hémisphère gauche.

La spécialisation hémisphérale ne s’arrête pas là. En 1861, le chirurgien français Paul Broca découvrit la zone du cerveau correspondant au langage articulé et fournit la première preuve anatomique de la localisation d’une fonction cérébrale. En 1874, le neurologue allemand Karl Wernicke repéra la zone de l’hémisphère gauche du langage parlé ou écrit. Plus près de nous, des expériences toujours plus précises ont montré que, chez 95% des sujets, l’hémisphère gauche du langage contrôlait, outre le langage, des processus logiques tels que les mathématiques et que l’hémisphère droit correspondait à des activités non verbales de caractère plutôt artistique ou affectif.

En réalité, le langage fait intervenir trois centres de l’hémisphère gauche (voir illustration). C’est dans la zone de Wernicke que les mots sont extraits de la mémoire verbale. S’il s’agit de langage écrit, les muscles de la main sont activés ; s’il s’agit de langage parlé, la zone de Broca (centre du langage articulé) intervient. Si la vision joue un rôle, un autre centre, le gyrus angulaire, sert de lien entre la zone de Wernicke et le cortex visuel.

Brabyn1

Bien que les deux hémisphères cérébraux semblent symétriques, ils n’ont pas les mêmes fonctions. Le langage, par exemple, est commandé par certaines zones déterminées de l’hémisphère gauche (ci-dessus) : la zone de Broca contrôle le langage articulé et celle de Wernicke correspond à la mémoire verbale. Lorsque la vision intervient, comme dans la lecture et l’écriture, le gyrus angulaire sert de lien entre l’aire visuelle primaire et la zone de Wernicke.

Depuis Broca et Wernicke, la latéralisation de la fonction verbale dans l’hémisphère gauche est l’un des grands thèmes de la neuropsychologie. Nombre de recherches actuelles portent sur la façon dont des sujets normaux réagissent à des stimuli auditifs s’adressant séparément aux hémisphères droit et gauche.

M. Tadanobu Tsunoda, de l’Institut de recherche médicale de la Faculté de médecine de Tokyo, est l’un de ceux qui font autorité dans ce domaine ; voici maintenant une quinzaine d’années qu’il fait des expériences sur la dominance hémisphérale. Dans une communication présentée au colloque de l’Unesco tenu à Athènes en avril 1981, il a fait part de conclusions étonnantes qui sont lourdes de conséquences pour l’éducation et démentent certains postulats racistes encore vivaces.

Tout commence en 1965, date à laquelle M. Tsunoda entreprend sur un groupe de sujets japonais normaux une série d’expériences visant à déterminer la dominance de l’oreille droite ou gauche pour un ensemble de sons vocaliques et de syllabes parlées du japonais — n’oublions pas que, les nerfs auditifs de chaque oreille étant pour la plupart reliés au côté opposé du cerveau, la dominance de l’oreille gauche pour un son donné indique celle de l’hémisphère droit et la dominance de l’oreille droite celle de l’hémisphère gauche.

M. Tsunoda a mis au point des techniques avancées de stimulation auditive avec rétro-information différée (voir encadré) permettant d’étudier la façon dont le cerveau distingue divers types de sons comme les bruits mécaniques, les sons vocaliques et les sons synthétiques et d’établir avec une précision remarquable la dominance hémisphérale correspondant à un son donné.

Répétées pendant un certain nombre d’années, toujours sur des sujets japonais, les expériences ont incontestablement prouvé une dominance de l’oreille droite (hémisphère gauche) pour les syllabes parlées et les voyelles dites « à timbres constants » de la langue japonaise. Jusque-là, rien de particulièrement surprenant.

Poursuivant ses expériences, M. Tsunoda a remplacé les sons vocaliques humains par des sons synthétiques de structure voisine. L’analyse des sons vocaliques humains a mis en évidence l’existence d’une série de maximums de fréquence caractéristiques connus sous le nom de « formants ». A l’aide d’un synthétiseur, il a été possible d’aller plus loin en filtrant certains formants. M. Tsunoda a découvert que, pour qu’un son synthétique induise une dominance de l’oreille droite (hémisphère gauche), il fallait que deux conditions soient remplies : les fréquences des formants devaient être en rapport harmonique et il fallait une modulation de fréquence minimale.

On a pu constater que le cerveau était capable de détecter les caractéristiques structurelles des sons et que ces dernières déterminaient la dominance de l’hémisphère droit ou de l’hémisphère gauche. Ainsi les sons vocaliques humains, les sanglots, le rire, la stridulation des insectes et d’autres bruits naturels, qui comportent tous une modulation de fréquence et des combinaisons harmoniques, induisaient chez les sujets japonais une dominance de l’oreille droite (hémisphère gauche).

La valeur véritable de ces conclusions ne s’est entièrement révélée qu’en 1972, lorsque M. Tsunoda a pour la première fois, tout à fait par hasard, soumis à ses tests un sujet non japonais, un Français en l’occurrence. Il eut la surprise de constater entre ce dernier et les sujets japonais des différences marquées dans les schémas de dominance cérébrale que révélaient les stimuli auditifs. Après des tests complémentaires sur les deux catégories de sujets, M. Tsunoda parvint à la conclusion que ces différences étaient dues à l’influence de la langue maternelle.

Il entreprit alors d’accumuler les preuves expérimentales à l’appui de sa théorie en soumettant aux tests 57 ressortissants de pays d’Europe occidentale (Anglais, Français, Espagnols, Italiens, Allemands et Suédois notamment), 10 sujets parlant chinois (dialectes de Pékin, Canton, Shanghai et Taiwan), 17 Coréens et des ressortissants du Viêt-Nam, du Cambodge, de Thaïlande, d’Indonésie, d’Israël et de divers pays d’Afrique.

Les résultats furent concluants : tout comme les sons purs, les voyelles « à timbre constant » mettaient en évidence une dominance de l’oreille gauche (ou du cerveau droit), alors que les syllabes révélaient une dominance de l’oreille droite (ou du cerveau gauche). Seuls les Polynésiens (natifs de Tonga et des Samoa orientales et Maoris) présentaient les mêmes schémas de dominance que les Japonais — dominance de l’oreille droite (cerveau gauche) pour les voyelles et les syllabes et dominance de l’oreille gauche (cerveau droit) pour les sons purs.

Brabyn2

Dans le test 1, le sujet commence à se tromper à 55 décibels, soit une intensité supérieure de 15 sons synchrones constants.

Dans le test 2, le sujet commence à se tromper à 75 décibels, soit une intensité supérieure de 35 décibels à celle des sons synchrones constants.

Les deux tests révèlent, pour ce type de stimuli, un avantage de l’oreille droite (hémisphère gauche) de 35 moins 15 = 20 décibels.

Mesure de la dominance cérébrale : le test du manipulateur à touche

Quand nous parlons, nous entendons les mots que nous prononçons et une conversation ne peut se dérouler normalement que grâce à cette « rétro-information auditive ». Si celle-ci est différée de 0,2 seconde au moyen d’écouteurs placés sur les oreilles d’un sujet, la conversation est perturbée.

Le test de dominance cérébrale mis au point par M. Tsunoda est fondé sur ce phénomène (connu sous le nom d' »effet Lee »). Au lieu de demander au sujet de parler, on l’invite à écouter des signaux sonores qu’il produit lui-même selon un rythme donné en se servant d’un manipulateur analogue à celui qui est utilisé pour transmettre des messages en morse. Chaque fois qu’il appuie sur la touche, le sujet entend un bref son pur ; avec rétro-information auditive synchrone dans les écouteurs, il continue à respecter le rythme prescrit, alors qu’avec rétro-information auditive différée, il ne le peut plus.

On règle le système de façon que le sujet entende, dans une oreille, des sons synchrones, et dans l’autre, des sons différés de 0,2 seconde. On demande au sujet d’appuyer sur la touche à vitesse constante selon un certain rythme et de concentrer son attention sur les sons synchrones. Mais on augmente progressivement l’intensité du son différé, celle du son synchrone restant constante, de sorte que le sujet éprouve de plus en plus de difficultés à garder la mesure. On note alors l’intensité à laquelle le sujet a commencé à se tromper : c’est le seuil de RAD (rétro-information auditive différée).

Lorsque l’on a répété l’opération en inversant les canaux, on peut comparer les seuils de RAD des deux oreilles et déterminer quelle oreille (et, partant, quel hémisphère) est dominante chez le sujet en question pour un son donné. N’oublions pas que les nerfs auditifs de chaque oreille étant principalement reliés au côté opposé du cerveau, la dominance de l’oreille droite révèle celle de l’hémisphère gauche et la dominance de l’oreille gauche celle de l’hémisphère droit. Dans le premier des deux tests présentés ci-dessus à titre d’illustration, le seuil de RAD se situe à 55 décibels, contre une intensité constante de 40 décibels pour le son synchrone entendu dans l’oreille gauche : la différence est donc de 15 décibels. Dans le deuxième test, pour lequel on a inversé les canaux, le seuil de RAD se situe à 75 décibels, toujours contre une intensité constante de 40 décibels pour le son synchrone entendu dans l’oreille droite : la différence est alors de 35 décibels. On voit donc que, chez ce sujet, l’oreille droite (hémisphère gauche) a un avantage, pour ce type de stimuli, de 20 décibels (35 moins 15). En d’autres termes, le sujet a pu se concentrer plus facilement sur le son synchrone entendu dans l’oreille droite que sur le même son entendu dans l’oreille gauche. C’est pourquoi l’oreille droite (hémisphère gauche) est, chez ce sujet, dominante pour ce son-là.

Cette méthode du manipulateur à touche peut être utilisée afin de mesurer la dominance cérébrale pour de nombreux types de sons tels que les voyelles, les sons mécaniques et les bruits de l’environnement.

Latéralisation des fonctions cérébrales

Brabyn3

Brabyn4

Le chant du grillon

Un jour, alors qu’il se trouvait dans une phase décisive de ses recherches sur le cerveau, M. Tsunoda était assis à son bureau, incapable de travailler. Par la fenêtre ouverte, il entendait chanter un grillon. Sans y penser, il mit en marche son magnétophone, mais quand il écouta la bande, quelle ne fut pas sa surprise de constater que le sonogramme mettait en évidence une analogie remarquable entre la structure sonore du chant du grillon et celle des voyelles de la langue japonaise.

D’autres expériences permirent de confirmer cette analogie pour d’autres bruits que l’on trouve dans la nature — bruits du vent, de l’eau qui coule, des vagues qui déferlent — ainsi que pour les sons humains non verbaux, le soupir par exemple, révélateurs d’une émotion. Du fait de leur analogie avec la structure sonore des voyelles, tous ces bruits sont « traités » par l’hémisphère gauche (hémisphère verbal) chez les individus ayant pour langue maternelle le japonais ou une langue polynésienne, et par l’hémisphère droit chez les autres individus. M. Tsunoda explique cette différence par le fait qu’à l’inverse des autres langues, où dominent des syllabes consonantiques (de type consonne-voyelle-consonne), le japonais et les langues polynésiennes se caractérisent par des mots exclusivement ou principalement vocaliques (de type voyelle-voyelle ou voyelle-consonne-voyelle). Cette particularité peut aussi expliquer partiellement la prédilection du japonais écrit, de la poésie, de la littérature et de l’art japonais pour la nature et ses bruits.

Afin de déterminer si la différence entre Japonais et non-Japonais était ou non génétique, une expérience fut faite sur 20 japonais émigrés de la deuxième ou troisième génération. Sur ces 20 sujets, les 18 dont la langue maternelle avait été l’espagnol, le portugais ou l’anglais jusqu’à l’âge de huit ans présentaient des schémas de dominance de type occidental. Les deux autres sujets, qui avaient eu le japonais comme langue maternelle jusqu’à l’âge de neuf ans, présentaient des schémas de dominance de type japonais. En outre, deux Américains et quatre Coréens élevés au Japon présentaient, eux aussi, des schémas de dominance de type japonais. Il était donc manifeste que la différence dans les schémas de dominance était due à l’environnement auditif et linguistique, et non à des facteurs génétiques.

Malgré cette différence, on peut considérer l’hémisphère gauche comme le « cerveau verbal » dans les deux groupes de sujets, puisqu’il est, dans tous les cas, dominant pour les syllabes. Mais comment expliquer qu’à la différence des autres sujets, où il y a dominance de l’hémisphère droit pour les sons vocaliques et dominance de l’hémisphère gauche pour les syllabes, les Japonais et les Polynésiens témoignent d’une dominance de l’hémisphère gauche tant pour les voyelles que pour les syllabes ? Le japonais et les langues polynésiennes ont ceci de commun qu’ils comportent un grand nombre de mots composés exclusivement ou principalement de voyelles. Les voyelles y jouent dans la compréhension des mots et des phrases un rôle aussi important que les consonnes. Au même titre que tout autre son du langage articulé, elles sont traitées dans l’hémisphère gauche, l’hémisphère verbal. Notons à ce propos que tout son naturel dont le spectre est semblable à celui d’une voyelle est également traité de préférence dans l’hémisphère verbal.

M. Tsunoda résume ses conclusions de la façon suivante : « La latéralité de la perception des divers sons chez les Japonais laisse à penser que, chez eux, les fonctions de l’émotion et du langage, ainsi que les fonctions logiques fondées sur le langage, ont leur siège dans le cerveau verbal. Au contraire, le cerveau d’un Occidental affecte manifestement la fonction du langage et les fonctions logiques connexes à l’hémisphère verbal et place la fonction de l’émotion dans l’hémisphère non verbal.

Pour les Japonais, les sons liés à l’émotion sont traités par le cerveau gauche, dont la dominance s’établit de plus en plus fermement à mesure que le langage se développe. Dès lors, le cerveau gauche est également dominant pour les fonctions affectives, du fait qu’il s’est établi un lien entre les sons liés à l’émotion et l’expérience affective.

On peut dire l’inverse des non-Japonais : leur cerveau droit domine pour ce qui est des sons et des fonctions liés à l’émotion. On peut donc conclure que la latéralité de l’émotion s’acquiert par la langue maternelle.

Je suis convaincu que la langue maternelle détermine la manière dont les individus reçoivent, traitent, ressentent et comprennent les sons émanant du milieu. Elle est étroitement liée au développement du mécanisme de l’émotion dans le cerveau. Je présume que la langue maternelle que l’on acquiert pendant l’enfance est aussi étroitement liée à la formation de la culture et de la mentalité singulières de chaque groupe ethnique. »

Howard Brabyn


Étiquettes : , , , Essais