Difficile aujourd’hui de passer à côté de l’intelligence artificielle (IA) dans le domaine de la biotech. Au CES, la grand-messe de l’innovation électronique qui se déroule chaque année à Las Vegas, mieux vaut présenter des produits dotés de ce nouvel outil, au risque d‘être rapidement ringardisé... Le secteur médical n’échappe pas à cette règle, bien au contraire. C’est notamment dans l’imagerie que l’IA a fait son entrée. Grâce à l’apprentissage machine, elle est capable de déceler une pathologie sur la base d’une radio, d’une IRM, etc.
En audiologie, les fabricants d’aides auditives ont été précurseurs. Mais aujourd’hui, on trouve des outils utilisant des formes d’IA à quasiment toutes les étapes de la prise en charge du patient malentendant, du diagnostic jusqu’à la réhabilitation.
Aujourd’hui, nombre de startups, deeptechs ou laboratoires utilisent ce puissant outil, capable d’analyser des big data, d’y trouver des associations que les méthodes classiques n’auraient pas su mettre en évidence, de développer des algorithmes d’aides à la décision, au diagnostic, etc.
Voici, étape par étape, une sélection de projets ou de solutions, essentiellement français, qui font appel à une forme d’IA et font figure de pionniers pour le secteur. Nul doute que, dans quelques années, toutes les entreprises du secteur utiliseront cet outil en routine.
Grâce à sa puissance de calcul et d’analyse, l’IA peut assister le professionnel de santé dans l’établissement de son diagnostic, voire le faire à sa place – sous son contrôle et moyennant sa validation. Ainsi peut-on imaginer des algorithmes qui permettent d’identifier des pathologies sur la base d’un audiogramme ou d’une imagerie.
Analyse d’imagerie
Il est ainsi possible de faire du diagnostic différentiel, mais aussi de choisir la meilleure option thérapeutique : l'implantation cochléaire sera-t-elle un succès pour ce patient ? Cette solution devrait obtenir le marquage CE d’ici la fin de l’année, et est d’ores et déjà utilisée en recherche dans certains CHU ou laboratoires (à Grenoble, Lille, dans l’IHU re-Connect...).
GeodAIsics travaille aussi à la conception d’un autre logiciel, LAbyrInth GML, qui permet de détecter des malformations de l’oreille interne, en utilisant la même technique d’analyse. Encore en phase de test, il est donc à un stade moins avancé que BrAIn GML.
Réalisation d’audiométrie
L’IA s’apprête à faire son entrée dans les cabinets des professionnels de santé. Son objectif est notamment de libérer du temps médical pour les médecins, dont les effectifs ne sont pas en adéquation avec les besoins, en particulier en audiologie. C’est notamment pour répondre à cet enjeu que l’audioprothésiste Nicolas Wallaert a créé la solution iAudiogram, qui réalise différents examens audiologiques grâce à de l'IA. « Aujourd’hui, on peut faire l’intégralité d’un examen avec iAudiogram de façon totalement automatisée, décrit l'entrepreneur : interprétation de l’otoscopie, Weber, tonale CR et CO, vocale et vocales dans le bruit, gain prothétique avec appareils. »
En fonction des examens, différentes formes d’IA sont utilisées par le programme. « Pour la tonale, on fait appel à un sous-type de machine learning qui s’appelle l’active learning », détaille Nicolas Wallaert. Avec cet apprentissage actif, c’est l'algorithme lui-même qui demande davantage d’informations, afin de délivrer une réponse plus précise. Concrètement, voici le déroulé de l’opération : « Le programme réalise un premier jeu de points d’initialisation, explique l’audioprothésiste et ingénieur. Sur cette base, l’IA va mesurer, décibel par décibel et hertz par hertz, la probabilité que chaque point soit entendu en fonction de la réponse que le patient a déjà donnée, de ses caractéristiques, de ce qu’on a imposé à l’algorithme, et de ce qu’il a appris. » En gros, le programme simule ce que ferait un humain, mais avec une puissance de calcul vraiment supérieure. Puis, vient l’étape de l’affinage. Le programme revient sur les points pour lesquels l’incertitude est la plus grande. Au fur et à mesure, la courbe est réajustée, et l’incertitude réduite.
Concernant la vocale, iAudiogram va aussi proposer plus de précisions. « Nous allons tester l’intégralité de la fonction psychométrique en continu, en fonction de la précision que le praticien souhaite. On propose aussi des modèles de reconnaissance vocale globale soit phonémique. »
iAudiogram propose également une aide à l’interprétation des otoscopies. « Nous utilisons une classification multi- label », décrit le concepteur du programme, ce qui signifie que l’intelligence artificielle peut détecter plusieurs pathologies sur la base d’une image, et pas seulement une seule – la plus probable – comme la plupart des modèles existants. Cette nouvelle fonctionnalité devrait notamment servir de « go/no go » pour autoriser ou interdire une téléexpertise, pour les patients éloignés des soins en ORL. Ce public a été identifié comme prioritaire par le groupe de travail composé des syndicats en audio et du CNP d’ORL, et la solution iAudiogram mêlant IA et téléexpertise pourrait leur être proposée prochainement.
Outil de santé publique
Autre exemple d’utilisation de l’IA, cette fois-ci dans le cadre d’aide à la décision, au choix du traitement. En 2016, l’entreprise i-Nside/Nemo Health, créée par le Dr Laurent Schmoll, ORL à Strasbourg et qui coordonne la commission IA de la SFORL, mettait au point un vidéo-otoscope greffé sur smartphone, le Smart Scope. Grâce à la startup américaine Clarifai, spécialisée en IA, et sur une base de 90 000 images de tympans réalisées et labelisées (attribution d’une pathologie) par le Dr Schmoll, le Smart Scope est capable de détecter, grâce à une IA embarquée qui utilise de l’apprentissage profond, une pathologie du tympan, à partir d’un cliché. D’abord conçu à des fins humanitaires, l’appareil connait une deuxième carrière dans le cadre d’un partenariat avec l’hôpital Necker, à Paris. « Le Pr Jérémie Cohen et la Dr Constance Dubois ont repris l’application et réalisé des tests », rapporte le Dr Schmoll. L’idée est de mieux diagnostiquer les pathologies de l’oreille moyenne, dont certaines peuvent être à l’origine de troubles auditifs, mais aussi de limiter la prescription d’antibiotiques. « Ces médicaments sont trop prescrits aux enfants, et parfois de façon inutile, parce que les tympans sont mal observés par les non spécialistes, détaille le Dr Schmoll. Le but serait ainsi de prescrire l’antibiotique uniquement lorsque l’IA confirme le diagnostic des tympans. » Les deux objectifs finaux étant de limiter les coûts liés à cette surprescription, ainsi que l’antibiorésistance. Les résultats de l’étude sont attendus prochainement.
Aujourd’hui, beaucoup d’aides auditives abritent des algorithmes qui ont été conçus ou qui fonctionnent avec une forme d’IA. Secret industriel oblige, il est néanmoins difficile de savoir ce que les puces ont dans le ventre, et tout dépend aussi de la façon dont on définit le concept. Ce qui est certain, c’est que les contraintes d’énergie et de taille combinées empêchent généralement l’IA d’être embarquée dans les aides auditives. Soit elle se trouve dans un smartphone, soit les algorithmes conçus grâce à de l’IA sont régulièrement améliorés grâce à des mises à jour. Autre obstacle, l’utilisation de l’IA a pour conséquence d’augmenter sensiblement le délai du traitement du son. Difficile donc de combiner une stratégie de diminution de ce délai avec de l’IA embarquée.
Classification de scènes sonores
Rehaussement de la parole
Du côté des nouveaux acteurs, Pulse, la startup créée il y a un an et demi par Manuel Pariente et Thibaud Moufle-Milot, devrait proposer des lunettes auditives d’ici juin 2025. Le produit, destiné aux personnes atteintes de perte auditive légère à modérée et qui hésitent encore à franchir le pas d’un centre audio, veut résoudre « les deux principaux freins à l’appareillage, selon Manuel Pariente : le manque de performances des aides auditives dans les environnements bruyants, et la stigmatisation ». Le principe est simple : « Cinq microssynchronisés sont distribués sur la monture, détaille le concepteur. Des algorithmes de rehaussement de la parole, à la pointe de l’IA, récupèrent le son, le traitent et extraient le signal d’intérêt – la parole – qui est transmis des haut-parleurs disposés juste au-dessus des oreilles. »
Que font précisément ces algorithmes ? « Ce sont des algorithmes classiques, mais avec des estimations réalisées par des réseaux de neurones, afin de mieux refléter la complexité du monde audio, explique Manuel Pariente. Les réseaux de neurones apprennent le mapping, c’està- dire, en quelque sorte, les fonctions mathématiques, qui transforment des mixtures audios avec de la parole du bruit, de la réverbération, vers des sources audios propres avec la parole d’intérêt. »
Pulse travaille actuellement avec des audioprothésistes afin de montrer que les données de performances obtenues sur des modèles numériques se retrouvent également chez les patients. La publication des résultats est attendue prochainement.
C’est un peu la crainte des audioprothésistes : grâce à l’IA, le réglage des aides auditives pourrait bien un jour se faire automatiquement, sans l’intervention d’un humain. Ce qui ne veut pas dire que la profession disparaitrait, mais simplement qu’elle évoluerait, comme elle le fait continuellement, suivant les avancées et connaissances techniques et scientifiques.
Affiner le réglage des aides auditives
Suivi du dossier patient
Créée par le Dr Arnaud Devèze et le Pr Éric Truy, Audya propose un carnet de santé audiologique numérique. Mais des développements sont déjà prévus pour la version 2. « Nous voulons intégrer des outils d’IA dans l’application afin de réaliser de la prédiction de risque, de chute, de déclin cognitif, et d’évaluer les surrisques de mortalité, décrit Arnaud Devèze. Mais nous voulons aussi nous servir des données audiométriques comme facteurs prédictifs de pathologies cardiovasculaires, par exemple. » D’un point de vue plus pratique, l’ORL prévoit aussi que l‘IA pourra réaliser sur Audya une « analyse de dossier médical et son organisation automatique », afin de faciliter l’exercice des professionnels de santé.
Autre avantage de l’IA, elle permet d’analyser des quantités de données gigantesques. Or avec les capacités de stockage qui augmentent, nous sommes entrés dans l’ère du big data. « Avec toutes les données en vie réelle que nous allons récolter (via les PROM), nous allons pouvoir mettre en évidence des écarts par rapport à une normale, ou des associations, et ainsi réaliser des diagnostics présymptomatiques. D'un point de vue éthique, ce type de diagnostic est assez délicat, et il faudra réfléchir à ce qui est faisable ou pas. »
Ce travail sur le big data, c’est aussi ce qu’a initié Amplifon depuis plusieurs années. Grâce à l’IA, l’enseigne analyse l’énorme base que constituent les données de l’ensemble de ses patients, et notamment plus d’un million d’audiogrammes. Le but est ainsi de croiser des données épidémiologiques des patients avec leurs données audiologiques, puis, grâce à des modèles d’IA, d’identifier des éléments qui font qu’un patient bénéficie davantage de ses appareils qu’un autre, et qui permettront donc d’assister l’audioprothésiste et améliorer la prise en charge.