L’intelligence artificielle en passe de révolutionner l’audiologie

Le futur s’invite en audiologie et assure le don d’ubiquité aux audioprothésistes. Dotées de l’intelligence artificielle, les nouvelles solutions auditives peuvent aujourd’hui s’ajuster en temps réel à l’environnement sonore et aux préférences de leurs utilisateurs. Une avancée technologique indéniable qui devrait permettre de franchir un cran supplémentaire dans la satisfaction des patients.

Par Ludivine Aubin-Karpinski et Bruno Scala
_272772521_web

Il n’est pas si loin le temps où les aides auditives étaient 100 % analogiques, où les audioprothésistes procédaient aux réglages à l’aide d’un tournevis… Le chemin parcouru en quelques décennies est impressionnant. D’innovations incrémentales en technologies de rupture, le futur s’est progressivement invité en audiologie. Avec l’arrivée des capteurs sensoriels et de l’intelligence artificielle (IA ), une révolution est en marche. Aujourd’hui capables de détecter les environnements et de s’adapter en temps réel aux préférences sonores des utilisateurs, les aides auditives repoussent les limites en termes de personnalisation voire de compréhension dans le bruit.

Assister en temps réel

Des avancées en partie rendues possibles grâce à l’émergence de l’intelligence artificielle (voir encadré ci-dessous). « Le principe de l’IA est de développer des technologies qui prennent des décisions intelligentes, à l’image des êtres humains, résume Achin Bhowmik, chef de la technologie et vice-président exécutif de l'ingénierie chez Starkey. Pour cela, il faut réussir à atteindre les quatre étapes suivantes : ressentir, traiter, agir sans en avoir nécessairement reçu l’ordre et, tout au long de ce procédé, apprendre. »

Depuis deux ans, les fabricants d'aides auditives rivalisent sur ce terrain avec chacun leur approche. Leurs innovations présentent toutes un dénominateur commun : elles permettent de franchir un cap supplémentaire en termes de personnalisation.

Entendre dans la vie réelle signifie une multitude de situations sonores et n’aura pas le même sens d’un individu à l’autre, ni pour un même individu selon le moment, l'environnement, son état de fatigue, son humeur... Autant de paramètres uniques qu’il est difficile voire impossible de restituer parfaitement en centre, même au prix de plusieurs rendez-vous. « En cabine, il est parfois compliqué pour les audioprothésistes de cibler les bonnes modifications de réglages par rapport aux problématiques de leurs patients, explique Mikaël Ménard, responsable de formation et d’application chez Signia. Leurs attentes sont liées à leurs expériences. Ce sont elles qui guident les professionnels dans la personnalisation de leurs réglages. Or, il leur est compliqué de mettre en mots, a fortiori à distance de l’événement, les conditions exactes dans lesquelles ils ont éprouvé des difficultés, de traduire un paysage sonore, un ressenti. Et puis, comment s’assurer que le correctif apporté est bien adapté ? Il faut attendre que le patient soit de nouveau confronté à la situation puis revienne à l’occasion d’un autre rendez-vous. » Avec la distorsion induite par la distance dans le temps et l’espace.

L’intelligence artificielle offre aux audioprothésistes le moyen d’accompagner leurs patients au-delà du centre, dans la vie réelle.

Benjamin Lehaut, directeur marketing et développement des ventes de Widex

Manque également une donnée essentielle : l’intention d’écoute de l’utilisateur, à l’instant t. C’est notamment sur cette notion qu’est basée la technologie Soundsense Learn de Widex. Benjamin Lehaut, directeur marketing et développement des ventes de la marque en France, explique : « Il est difficile d’obtenir une programmation parfaite en centre car il manque l’intention d’écoute en fonction de la situation. Les audioprothésistes n’ont pas le don d’ubiquité et ne peuvent proposer un réglage pour toutes les occasions de la vie. Résultat : les patients sont parfois insatisfaits et portent peu leurs aides auditives, ils tentent de régler eux-mêmes ou reviennent au centre, générant des rendez-vous supplémentaires pour l’audioprothésiste. L’intelligence artificielle permet de pallier cela et va aider les professionnels à proposer une audition personnalisée en temps réel. »

Amélioration des réglages

C’est la promesse de Signia Assistant, présenté comme un « compagnon auditif personnel ». Intégré à l’application Signia App disponible sur le smartphone des utilisateurs, ce module garantit une assistance 24 heures sur 24 et 7 jours sur 7, sous forme d’échanges intuitifs. Basé sur des réseaux de neurones alimentés par une multitude de cas supervisés par un panel d’audioprothésistes et corrigés en continu par les préférences de réglages de l’ensemble des utilisateurs, Signia Assistant apprend au fil du temps pour apporter des réponses plus personnalisées. L’application permet de légers ajustements sonores en temps réel pour améliorer l’écoute dans des situations difficiles. En d’autres termes, les réglages basculent d’une approche prédictive à une approche par confirmation : l’atteinte ou non de performances dans une situation donnée. Lorsqu’il est sollicité, Signia Assistant va en effet appliquer de légers correctifs par petites touches successives, sur la base de l’analyse de l’environnement sonore et d’un jeu de questions/réponses avec l’utilisateur concernant des problématiques liées à la perception de sa voix, de celles des autres ou de la qualité sonore générale. Le patient peut choisir de conserver les réglages ou de revenir en arrière pour tenter une autre approche ou restaurer les réglages initiaux. Ces ajustements sont visibles par l’audioprothésiste et modifiables si besoin.

Approche similaire pour Widex depuis deux ans avec SoundSense Learn et l’application Evoke, dans lequel est incorporé un réseau de neurones artificiels. Dans une situation d’écoute difficile, pour laquelle l’utilisateur n’est pas satisfait, Evoke va proposer des profils de réglage, A ou B. L’utilisateur choisit celui qui lui correspond le mieux. Son choix, ainsi que les choix de milliers d’utilisateurs, alimente l’apprentissage d’un réseau de neurones – c’est l’apprentissage machine – qui devient de plus en plus performant et qui, à terme, propose des profils de plus en plus pertinents. Au début, jusqu’à sept alternatives de réglages étaient nécessaires, maintenant, deux ou trois suffisent. « Dans 6 mois, prédit Benjamin Lehaut, nous pourrons proposer un son vraiment parfait dès la première. »

Reconnaissance des scènes sonores

L’utilisation de l'intelligence artificielle par Oticon est sensiblement différente. L’objectif n’est pas d’assister l’utilisateur dans le choix du meilleur réglage, mais plutôt d’analyser au mieux la scène sonore. Cette nouvelle technologie, un réseau neuronal profond embarqué sur la nouvelle puce Polaris, équipe les nouvelles aides auditives Oticon More, dévoilées fin 2020. « Pour entraîner ce réseau neuronal profond, nous lui avons présenté des sons, issus d’enregistrements de la vie réelle, détaille Éric Bougerolles, responsable audiologie chez Prodition. Au total, le réseau a été entraîné grâce à 12 millions de scènes sonores. » Le système est figé, il n’apprend plus. La puce est maintenant autonome, capable de séparer et identifier les différentes sources de n’importe quelle situation sonore qu’elle rencontre. Le but, restituer la scène au mieux et dans son ensemble – c’est l’un des arguments de la philosophie d’Oticon, qui laisse le cerveau faire le tri –, en augmentant les contrastes entre les sources principales et les sources secondaires (lire notre article Oticon More ou la promesse des réseaux neuronaux profonds). « Le réseau neuronal profond sait quel est le meilleur réglage, pour chaque situation, résume Éric Bougerolles. L’audioprothésiste recentre ainsi son activité sur la perte auditive et sur les besoins du patient. »

De l’aide auditive au hearable

L’intelligence artificielle selon Starkey concerne aussi bien le traitement du son et l’amélioration de l’intelligibilité dans le bruit, grâce à la nouvelle plate-forme Hearing Reality Pro embarquée dans les aides auditives Livio Edge AI, que des services extra-auditifs, gommant la frontière entre les hearables et les aides auditives, comme la détection de chute, la traduction ou le rappel de rendez-vous. « L'intelligence artificielle permet aux aides auditives Starkey de comprendre les sons et de les traiter différemment, explique ainsi Achin Bhowmik. Elle traite des quantités gigantesques de données et peut distinguer les différentes classes de signaux sonores : parole, dans le silence, dans le bruit, vent, moteur… La technologie Starkey effectue une analyse toutes les 6 ms. »

De plus, Starkey a introduit l'intelligence artificielle Edge dans le monde des aides auditives. De quoi s’agit-il ? La plupart des calculs réalisés par intelligence artificielle sont déportés sur des clouds, car ils traitent du big data spatiophage et sont énergivores. L’Edge consiste à confier une infime partie de ces calculs à l’appareil qui collecte les données, afin de gagner en vitesse de traitement notamment. Quelques millisecondes, certes, mais qui s’avèrent très précieuses puisqu’on passe presque en temps réel. C’est cette technologie, basée sur le concept de réseaux de neurones profonds, que l’on trouve dans les aides auditives Livio Edge AI. Ainsi, Starkey permet à l’utilisateur, dans des situations complexes, par simple tapotement sur son aide auditive, d’activer le mode Edge. Celui-ci va proposer un programme spécial pour la scène analysée, en augmentant la clarté du signal de parole pour gagner en intelligibilité.

Un cran supplémentaire dans la personnalisation

Toute innovation majeure bouge les lignes et l’introduction de l’intelligence artificielle suscite quelques inquiétudes. Les fabricants se veulent rassurants. Au-delà des indéniables bénéfices qu’en tireront les utilisateurs d’aides auditives, en toutes situations, cette avancée technologique constitue une opportunité pour les audioprothésistes de pousser plus loin encore la satisfaction de leurs patients. « Les professionnels doivent accepter que leurs réglages correspondent à 90 % des besoins, commente Benjamin Lehaut. Ils ne peuvent pas se mettre à la place du patient pour certaines situations sonores. L’intelligence artificielle, elle, le peut et offre aux audioprothésistes le moyen d’accompagner leurs patients au-delà du centre, dans la vie réelle. Elle leur permet en outre une entière visibilité sur les ajustements faits par les patients et dans quel environnement, ce qui permet de mieux préparer les rendez-vous suivants. Ils gardent la main et peuvent intervenir à distance grâce à Remote Care. Ces nouveaux produits vont en réalité renforcer les liens avec les patients et le succès de l’appareillage, dont dépend l’observance. »

Des atouts pour les audioprothésistes

C’est aussi un gain de temps pour les audioprothésistes. Temps qui peut être réinvesti dans la prise en charge de nouveaux prospects et de cas complexes. « La valeur ajoutée d’un audioprothésiste s’exprime dans l’anamnèse, l’identification des besoins, la prise d’empreinte, le choix de l’appareil, l’adaptation initiale, et pas dans les 3 dB supplémentaires ajoutés au programme restaurant, explique Pascal Boulud, p.-d.g. de Sivantos France. Les professionnels vont ainsi pouvoir se consacrer à faire de l’audiologie en s’épargnant les rendez-vous pour les modifications à la marge, qui se feront en temps réel. Ils sont en outre avisés des ajustements et alertés si les appareils ne sont pas portés. C’est un pas de plus dans la personnalisation et le suivi. Le 100 % Santé devrait amener à l’appareillage davantage de patients, il va falloir trouver du temps pour les prendre en charge…»

Le 100 % Santé devrait amener à l’appareillage davantage de patients ; il va falloir trouver du temps pour les prendre en charge…

Pascal Boulud, p.-d.g. de Sivantos France.

L’introduction de l’intelligence artificielle fait entrer un peu plus les aides auditives dans l’ère des hearables, rendant plus désirables des dispositifs médicaux jusqu’alors fortement marqués du sceau du handicap et de l’avancée en âge. Esthétiques, nomades, intelligentes… les nouvelles solutions fourbissent leurs arguments pour séduire des utilisateurs plus jeunes, qui n’auront pas honte de porter des bijoux technologiques leur permettant en plus de leur fournir une meilleure audition en toutes circonstances, d’écouter la musique… « Notre leitmotiv est de développer notre marché, d’amener des malentendants plus précocement à l’appareillage et, pour cela, nous devons obtenir que les consommateurs aient une image positive de nos aides auditives, commente Pascal Boulud. Gagner en sophistication en même temps qu’en efficacité en tous temps et en tous lieux, nous permettra d’améliorer encore leur attractivité et donc le taux d’équipement. »

Newsletter

Newsletter

La newsletter Audiologie Demain,

le plus sûr moyen de ne jamais rater les infos essentielles de votre secteur...

Je m'inscris