18 Mars 2024

Article réservé aux abonnés

L’intelligence artificielle à l’assaut de l’audiologie

En termes d’intelligence artificielle, l’audiologie n’est pas à la traine. Plusieurs projets ou même solutions déjà existantes, utilisent de l’IA. Le but : mieux détecter les pathologies, mieux prendre en charge, de façon plus efficace.

Par Bruno Scala
oreille collage

Difficile aujourd’hui de passer à côté de l’intelligence artificielle (IA) dans le domaine de la biotech. Au CES, la grand-messe de l’innovation électronique qui se déroule chaque année à Las Vegas, mieux vaut présenter des produits dotés de ce nouvel outil, au risque d‘être rapidement ringardisé... Le secteur médical n’échappe pas à cette règle, bien au contraire. C’est notamment dans l’imagerie que l’IA a fait son entrée. Grâce à l’apprentissage machine, elle est capable de déceler une pathologie sur la base d’une radio, d’une IRM, etc.

En audiologie, les fabricants d’aides auditives ont été précurseurs. Mais aujourd’hui, on trouve des outils utilisant des formes d’IA à quasiment toutes les étapes de la prise en charge du patient malentendant, du diagnostic jusqu’à la réhabilitation.

Aujourd’hui, nombre de startups, deeptechs ou laboratoires utilisent ce puissant outil, capable d’analyser des big data, d’y trouver des associations que les méthodes classiques n’auraient pas su mettre en évidence, de développer des algorithmes d’aides à la décision, au diagnostic, etc.

Voici, étape par étape, une sélection de projets ou de solutions, essentiellement français, qui font appel à une forme d’IA et font figure de pionniers pour le secteur. Nul doute que, dans quelques années, toutes les entreprises du secteur utiliseront cet outil en routine.

Grâce à sa puissance de calcul et d’analyse, l’IA peut assister le professionnel de santé dans l’établissement de son diagnostic, voire le faire à sa place – sous son contrôle et moyennant sa validation. Ainsi peut-on imaginer des algorithmes qui permettent d’identifier des pathologies sur la base d’un audiogramme ou d’une imagerie.

Analyse d’imagerie

diag
C’est précisément ce que commence à proposer la startup grenobloise GeodAIsics. Sa solution Brain GML (pour generative manifold learning), vise à « observer les atteintes cérébrales liées à l’audition et au vertige, sur la base d’IRM cérébrales », résume le neuroradiologue Arnaud Attyé, cofondateur et président de la deeptech. Dans ce cas, la technique d’IA utilisée est l’apprentissage de variété (manifold learning), qui repose sur la création d’un jumeau numérique. « Quand on reçoit un patient sourd, on crée le jumeau de son IRM cérébral, illustre le Dr Attyé. La création se fait à partir d’IRM de sujets sains, en choisissant ceux qui ont des IRM similaires. En termes simples, on moyenne ces différents IRM pour créer le jumeau numérique. Si, par exemple, on constate que celui-ci présente des atteintes de l’audition au niveau central, on suppose que le patient est à risque de souffrir du même type d’atteinte. » Par rapport à du deep learning, particulièrement pertinent pour trouver des biomarqueurs, cette technique utilise ces derniers pour offrir une analyse contextualisée et personnalisée. Elle est aussi très rassurante car transparente : on sait sur quel critère l’IA prend sa décision. « C’est notamment pour cette raison qu’on pense que ce logiciel sera rapidement adopté par la communauté médicale », espère Arnaud Attyé.

Il est ainsi possible de faire du diagnostic différentiel, mais aussi de choisir la meilleure option thérapeutique : l'implantation cochléaire sera-t-elle un succès pour ce patient ? Cette solution devrait obtenir le marquage CE d’ici la fin de l’année, et est d’ores et déjà utilisée en recherche dans certains CHU ou laboratoires (à Grenoble, Lille, dans l’IHU re-Connect...).

GeodAIsics travaille aussi à la conception d’un autre logiciel, LAbyrInth GML, qui permet de détecter des malformations de l’oreille interne, en utilisant la même technique d’analyse. Encore en phase de test, il est donc à un stade moins avancé que BrAIn GML.

Réalisation d’audiométrie

L’IA s’apprête à faire son entrée dans les cabinets des professionnels de santé. Son objectif est notamment de libérer du temps médical pour les médecins, dont les effectifs ne sont pas en adéquation avec les besoins, en particulier en audiologie. C’est notamment pour répondre à cet enjeu que l’audioprothésiste Nicolas Wallaert a créé la solution iAudiogram, qui réalise différents examens audiologiques grâce à de l'IA. « Aujourd’hui, on peut faire l’intégralité d’un examen avec iAudiogram de façon totalement automatisée, décrit l'entrepreneur : interprétation de l’otoscopie, Weber, tonale CR et CO, vocale et vocales dans le bruit, gain prothétique avec appareils. »

En fonction des examens, différentes formes d’IA sont utilisées par le programme. « Pour la tonale, on fait appel à un sous-type de machine learning qui s’appelle l’active learning », détaille Nicolas Wallaert. Avec cet apprentissage actif, c’est l'algorithme lui-même qui demande davantage d’informations, afin de délivrer une réponse plus précise. Concrètement, voici le déroulé de l’opération : « Le programme réalise un premier jeu de points d’initialisation, explique l’audioprothésiste et ingénieur. Sur cette base, l’IA va mesurer, décibel par décibel et hertz par hertz, la probabilité que chaque point soit entendu en fonction de la réponse que le patient a déjà donnée, de ses caractéristiques, de ce qu’on a imposé à l’algorithme, et de ce qu’il a appris. » En gros, le programme simule ce que ferait un humain, mais avec une puissance de calcul vraiment supérieure. Puis, vient l’étape de l’affinage. Le programme revient sur les points pour lesquels l’incertitude est la plus grande. Au fur et à mesure, la courbe est réajustée, et l’incertitude réduite.

Concernant la vocale, iAudiogram va aussi proposer plus de précisions. « Nous allons tester l’intégralité de la fonction psychométrique en continu, en fonction de la précision que le praticien souhaite. On propose aussi des modèles de reconnaissance vocale globale soit phonémique. »

iAudiogram propose également une aide à l’interprétation des otoscopies. « Nous utilisons une classification multi- label », décrit le concepteur du programme, ce qui signifie que l’intelligence artificielle peut détecter plusieurs pathologies sur la base d’une image, et pas seulement une seule – la plus probable – comme la plupart des modèles existants. Cette nouvelle fonctionnalité devrait notamment servir de « go/no go » pour autoriser ou interdire une téléexpertise, pour les patients éloignés des soins en ORL. Ce public a été identifié comme prioritaire par le groupe de travail composé des syndicats en audio et du CNP d’ORL, et la solution iAudiogram mêlant IA et téléexpertise pourrait leur être proposée prochainement.

Outil de santé publique

Autre exemple d’utilisation de l’IA, cette fois-ci dans le cadre d’aide à la décision, au choix du traitement. En 2016, l’entreprise i-Nside/Nemo Health, créée par le Dr Laurent Schmoll, ORL à Strasbourg et qui coordonne la commission IA de la SFORL, mettait au point un vidéo-otoscope greffé sur smartphone, le Smart Scope. Grâce à la startup américaine Clarifai, spécialisée en IA, et sur une base de 90 000 images de tympans réalisées et labelisées (attribution d’une pathologie) par le Dr Schmoll, le Smart Scope est capable de détecter, grâce à une IA embarquée qui utilise de l’apprentissage profond, une pathologie du tympan, à partir d’un cliché. D’abord conçu à des fins humanitaires, l’appareil connait une deuxième carrière dans le cadre d’un partenariat avec l’hôpital Necker, à Paris. « Le Pr Jérémie Cohen et la Dr Constance Dubois ont repris l’application et réalisé des tests », rapporte le Dr Schmoll. L’idée est de mieux diagnostiquer les pathologies de l’oreille moyenne, dont certaines peuvent être à l’origine de troubles auditifs, mais aussi de limiter la prescription d’antibiotiques. « Ces médicaments sont trop prescrits aux enfants, et parfois de façon inutile, parce que les tympans sont mal observés par les non spécialistes, détaille le Dr Schmoll. Le but serait ainsi de prescrire l’antibiotique uniquement lorsque l’IA confirme le diagnostic des tympans. » Les deux objectifs finaux étant de limiter les coûts liés à cette surprescription, ainsi que l’antibiorésistance. Les résultats de l’étude sont attendus prochainement.

bandeau2

Aujourd’hui, beaucoup d’aides auditives abritent des algorithmes qui ont été conçus ou qui fonctionnent avec une forme d’IA. Secret industriel oblige, il est néanmoins difficile de savoir ce que les puces ont dans le ventre, et tout dépend aussi de la façon dont on définit le concept. Ce qui est certain, c’est que les contraintes d’énergie et de taille combinées empêchent généralement l’IA d’être embarquée dans les aides auditives. Soit elle se trouve dans un smartphone, soit les algorithmes conçus grâce à de l’IA sont régulièrement améliorés grâce à des mises à jour. Autre obstacle, l’utilisation de l’IA a pour conséquence d’augmenter sensiblement le délai du traitement du son. Difficile donc de combiner une stratégie de diminution de ce délai avec de l’IA embarquée.

Classification de scènes sonores

appareillage
La plupart des fabricants ont développé des algorithmes capables de reconnaitre l'environnement sonore dans lequel se trouve le patient, et proposer le réglage adéquat, sans que l’utilisateur ait à intervenir. Ainsi, les aides auditives Oticon sont pourvues d’un réseau neuronal profond qui vient d’être amélioré avec la nouvelle puce Sirius. L’application Widex peut proposer des réglages alternatifs qui correspondent à l’environnement sonore quand l’utilisateur le demande. Signia Assistant a également été entraîné par un réseau de neurones profond pour proposer les meilleurs réglages en fonction de la situation. Chez Phonak, c’est l’algorithme AutoSense OS qui est capable d’assurer cette tâche. Starkey, pionnier en matière d’IA, utilise notamment le mode Edge pour obtenir un réglage personnalisé dans les situations sonores particulièrement complexes.

Rehaussement de la parole

Du côté des nouveaux acteurs, Pulse, la startup créée il y a un an et demi par Manuel Pariente et Thibaud Moufle-Milot, devrait proposer des lunettes auditives d’ici juin 2025. Le produit, destiné aux personnes atteintes de perte auditive légère à modérée et qui hésitent encore à franchir le pas d’un centre audio, veut résoudre « les deux principaux freins à l’appareillage, selon Manuel Pariente : le manque de performances des aides auditives dans les environnements bruyants, et la stigmatisation ». Le principe est simple : « Cinq microssynchronisés sont distribués sur la monture, détaille le concepteur. Des algorithmes de rehaussement de la parole, à la pointe de l’IA, récupèrent le son, le traitent et extraient le signal d’intérêt – la parole – qui est transmis des haut-parleurs disposés juste au-dessus des oreilles. »

Que font précisément ces algorithmes ? « Ce sont des algorithmes classiques, mais avec des estimations réalisées par des réseaux de neurones, afin de mieux refléter la complexité du monde audio, explique Manuel Pariente. Les réseaux de neurones apprennent le mapping, c’està- dire, en quelque sorte, les fonctions mathématiques, qui transforment des mixtures audios avec de la parole du bruit, de la réverbération, vers des sources audios propres avec la parole d’intérêt. »

Pulse travaille actuellement avec des audioprothésistes afin de montrer que les données de performances obtenues sur des modèles numériques se retrouvent également chez les patients. La publication des résultats est attendue prochainement.

bandeau3

C’est un peu la crainte des audioprothésistes : grâce à l’IA, le réglage des aides auditives pourrait bien un jour se faire automatiquement, sans l’intervention d’un humain. Ce qui ne veut pas dire que la profession disparaitrait, mais simplement qu’elle évoluerait, comme elle le fait continuellement, suivant les avancées et connaissances techniques et scientifiques.

Affiner le réglage des aides auditives

reglage
La startup Neocustic ne prétend pas remplacer l’audioprothésiste et son savoir-faire dans le réglage initial, mais l’adapter aux situations sonores de l’utilisateur. Certains fabricants offrent une fonctionnalité similaire, mais avec la solution X-plus, Neocustic propose de « construire une intelligence artificielle pour chaque patient », explique Arnaud Butzbach, cofondateur de la startup. « On utilise pour cela les données captées par l’application smartphone et le téléphone, décrit-il. Et cette IA va proposer des réglages qui correspondent aux besoins de ce patient. On ne se base pas uniquement sur l’environnement sonore, mais aussi sur des données de vie réelle, qui permettent d’identifier les contextes dans lesquels le patient rencontre des problèmes particuliers. On reste sous le contrôle de l’audioprothésiste qui règle les appareils, mais l'IA apporte une solution dans certains contextes. » X-Plus est un programme qui s’implémente dans l’application du fabricant d’aides auditives. Jusque-là présent sur le marché allemand, Neocustic espère, grâce à une levée de fonds qui vient de débuter, investir le marché français en 2024.

Suivi du dossier patient

Créée par le Dr Arnaud Devèze et le Pr Éric Truy, Audya propose un carnet de santé audiologique numérique. Mais des développements sont déjà prévus pour la version 2. « Nous voulons intégrer des outils d’IA dans l’application afin de réaliser de la prédiction de risque, de chute, de déclin cognitif, et d’évaluer les surrisques de mortalité, décrit Arnaud Devèze. Mais nous voulons aussi nous servir des données audiométriques comme facteurs prédictifs de pathologies cardiovasculaires, par exemple. » D’un point de vue plus pratique, l’ORL prévoit aussi que l‘IA pourra réaliser sur Audya une « analyse de dossier médical et son organisation automatique », afin de faciliter l’exercice des professionnels de santé.

Autre avantage de l’IA, elle permet d’analyser des quantités de données gigantesques. Or avec les capacités de stockage qui augmentent, nous sommes entrés dans l’ère du big data. « Avec toutes les données en vie réelle que nous allons récolter (via les PROM), nous allons pouvoir mettre en évidence des écarts par rapport à une normale, ou des associations, et ainsi réaliser des diagnostics présymptomatiques. D'un point de vue éthique, ce type de diagnostic est assez délicat, et il faudra réfléchir à ce qui est faisable ou pas. »

Ce travail sur le big data, c’est aussi ce qu’a initié Amplifon depuis plusieurs années. Grâce à l’IA, l’enseigne analyse l’énorme base que constituent les données de l’ensemble de ses patients, et notamment plus d’un million d’audiogrammes. Le but est ainsi de croiser des données épidémiologiques des patients avec leurs données audiologiques, puis, grâce à des modèles d’IA, d’identifier des éléments qui font qu’un patient bénéficie davantage de ses appareils qu’un autre, et qui permettront donc d’assister l’audioprothésiste et améliorer la prise en charge.

bandeau1
Audiologie Demain
La suite de cet article est réservée aux abonnés à Audiologie Demain.

S'abonner, c'est promouvoir un journalisme d'expertise

Nos formules d'abonnement

Newsletter

Newsletter

La newsletter Audiologie Demain,

le plus sûr moyen de ne jamais rater les infos essentielles de votre secteur...

Je m'inscris