« Nous espérons que l’implant cortical surpassera l’implant cochléaire »

L’Institut de l’audition participe à un projet de recherche européen visant à réaliser une preuve de concept d’un implant cortical auditif. Baptisé HearLight, il doit notamment montrer que ce dispositif fournirait des performances supérieures à l’implant cochléaire. Brice Bathellier, chercheur CNRS à l’IDA et coordinateur du projet, nous explique la teneur de ce travail ambitieux.

Propos recueillis par Bruno Scala
cerveau circuit implant_2000px

Audiologie Demain (AD) : En quoi consiste ce projet HearLight ?

Brice Bathellier (BB) : Il s’agit de développer la preuve de concept, chez l’animal, d’un implant cortical auditif. Et de montrer sa supériorité par rapport à un implant cochléaire en termes de perception des sons. Le cortex auditif est le dernier étage du système auditif et il s’agit aussi d’une zone assez vaste, en termes de surface et de nombre de neurones. C’est notamment pour ces raisons que nous nous concentrons sur elle. Elle offre deux avantages : on peut utiliser un stimulateur plus large et envisager de mettre au point des algorithmes de codage plus complexes. Ainsi, notre implant pourrait contenir une centaine de points de contact (contre une quinzaine avec l’IC). Il s’agira d’électrodes ou de LED. Nous allons en effet tester deux types d’implant : l’un électrique, l’autre optique – grâce à l’optogénétique (lire encadré). D’où le nom du projet, HearLight. Par ailleurs, nous testerons deux types de codage : l’un uniquement tonotopique, similaire à l’implant cochléaire, et un autre plus élaboré.

Grâce à des tests comportementaux, nous allons effectuer des mesures psychoacoustiques chez des souris équipées d’un implant cochléaire ou d’un implant cortical. Nous espérons que les résultats seront meilleurs avec ce dernier.

En parallèle, un autre versant du projet consiste à créer un prototype d’implant cortical pour l’homme.

AD : Que sait-on de l’encodage des sons au niveau du cerveau ?

BB : La littérature est assez fournie sur ce sujet. Comme la cochlée, le cortex auditif est organisé de façon tonotopique. On sait aussi qu’il existe des neurones spécialisés dans le codage de certaines informations. Par exemple, il n’y pas beaucoup de neurones capables de suivre la modulation fréquentielle au-delà de 10 Hz. Ce changement de résolution par rapport à la cochlée est compensé par une représentation plus complexe, grâce à des neurones sensibles à des fréquences de modulation spécifiques. Ceux-ci ne suivent pas la modulation mais certains répondent à une stimulation autour de 10 Hz, tandis que d'autres neurones répondront si la modulation est de l'ordre de 50 Hz, etc. Il y a donc une conversion des informations temporelles secondaires dans un codage d'identité neuronal. Ce type de codage est aussi observé pour d’autres éléments acoustiques cruciaux dans la perception auditive. On trouve dans le cortex des neurones sensibles à une direction particulière de modulation de fréquence (par exemple une fréquence qui augmente rapidement), mais ne répondent pas à la direction opposée. Cela n’existe pas dans la cochlée. Enfin, les représentations corticales sont plus robustes au bruit de fond sonore. Ce sont des choses bien décrites et que nous devrons retranscrire dans nos algorithmes.

AD : Sur quelles bases scientifiques repose ce projet ?

BB : La cochlée n’est pas le seul organe réalisant des représentations auditives. On en trouve à différents étages du système auditif. On sait, grâce à l’implant cochléaire, qu’il est possible de reproduire ces représentations avec des stimulations électriques. Donc, en théorie, il est aussi possible de les reproduire à d’autres étages. C’est d’ailleurs le principe des implants du tronc cérébral, avec des résultats mitigés car les zones du tronc cérébral qui traitent les informations auditives sont petites et difficiles à cibler en chirurgie.

Mon équipe a obtenu pas mal d’informations concernant la façon dont les sons sont représentés dans le cortex auditif. Par exemple, récemment, nous avons montré deux choses importantes [1]. En utilisant un système de vidéo projection, nous avons généré des motifs de lumière sur la surface du cortex auditif de souris (dont les neurones avaient préalablement été rendus sensibles à la lumière). Ces expériences ont montré que les souris peuvent discriminer différents motifs et qu’elles adaptent leur comportement en fonction. On stimule, par exemple, la zone du cortex auditif qui code les basses fréquences. La souris apprend à associer cette stimulation à une récompense sucrée dispensée par un tube. Après apprentissage, elle est capable d’anticiper la récompense en léchant le tube avant l’arrivée de celle-ci. En revanche, elle ne réagit pas si on projette sur les neurones un motif lumineux qui stimule la zone des hautes fréquences. La perception de ce « son artificiel » est donc spécifique.

Nous avons également montré que ce qu’elle ressent lors de la stimulation par cette technique correspond bien à une perception sonore. Pour cela, nous perturbons la perception de la souris pendant une tâche de discrimination. Par exemple, nous demandons à la souris de discriminer un son basse fréquence. Mais lorsque nous émettons ce son, nous stimulons en même temps, avec un stimulus lumineux, la zone corticale des sons haute fréquence. Le comportement de la souris est biaisé : elle réagit comme si la stimulation correspondait à un son haute fréquence. C'est donc que nos stimulations impliquent les représentations qui génèrent la perception sonore.

C'est sur cette base que le projet HearLight est construit. Nous souhaitons montrer qu'il est possible de complexifier les motifs de stimulation, afin de généraliser ces expériences, en utilisant des algorithmes de codage pour générer une perception auditive riche.

Un autre défi consiste à implémenter de l’intelligence artificielle dans le dispositif afin de mieux reproduire les principes de codage que l’on observe au niveau du cortex et qui sont directement responsables de la perception.

AD : Quels sont les principaux défis de ce projet ?

BB : Chez l'homme, le cortex auditif est situé dans le lobe temporal et au milieu d'une circonvolution ; il est donc difficilement accessible – contrairement au cortex visuel par exemple. Il est donc nécessaire de mettre au point un implant qui nécessitera une intervention la moins invasive possible.

Ce qui fait défaut aujourd’hui, c'est une technologie flexible et biocompatible. C’est là qu’intervient le champ de la bioélectronique, qui vise à générer des circuits électroniques présentant de tels atouts. La flexibilité doit permettre de glisser l’implant délicatement à l'intérieur de la circonvolution. Il serait déposé seulement en surface, donc l’opération serait réversible. Une des difficultés, c’est de fabriquer des implants très fins et également étanches. Il faut trouver des revêtements de surface qui répondent à ces contraintes. Lorsque cet obstacle sera résolu, cela bénéficiera au monde de l'audition, mais aussi au-delà.

Un autre défi consiste à implémenter de l’intelligence artificielle dans le dispositif afin de mieux reproduire les principes de codage que l’on observe au niveau du cortex et qui sont directement responsables de la perception. On utilise des modèles que l'on peut entraîner, à partir des spectrogrammes des sons, à reconstruire l'ensemble de types de réponses qu'on observe dans le cortex auditif. Ainsi, le modèle génère un code général, plus complexe et plus proche de la réalité biologique que ce que l’on pourrait obtenir sans intelligence artificielle.

AD : Quand peut-on espérer la mise sur le marché d’un tel produit ?

BB : Notre projet doit se terminer en 2023. En fonction des résultats, il sera possible d’anticiper les étapes suivantes. Mais quoi qu’il en soit, je n'imagine pas qu'on puisse avoir un produit fini avant 15 ans.

Newsletter

Newsletter

La newsletter Audiologie Demain,

le plus sûr moyen de ne jamais rater les infos essentielles de votre secteur...

Je m'inscris