Big data, grandes opportunités

Depuis un peu plus d’une décennie, nous sommes entrés dans l’ère du big data. La production de données a explosé. Autant d’informations précieuses qu’il est possible d’exploiter afin d’améliorer les connaissances, les soins ou les politiques de santé publiques dans le secteur de l’audiologie.

Par Bruno Scala

À quand remonte la dernière fois où vous avez dû libérer de l’espace de stockage sur votre ordinateur ou votre téléphone ? Probablement longtemps. Les capacités sont en effet de plus en plus importantes. Tellement, qu’elles apparaissent quasiment illimitées. Ce qui signifie qu’il est possible de produire de plus en plus de données.

big data
Cela tombe bien, parce qu’en parallèle, des capteurs de toutes sortes ont été inventés à cet effet : puce GPS, aides auditives, balances connectées, compteurs de pas, applications smartphones, appareils photo... Et tout le monde se sert de ces capteurs et produit des données en continu. Ce phénomène a commencé dans les années 1990 environ et ne cesse de progresser. De l’ère du small data, nous avons viré progressivement vers l’ère du big data (ou données massives). Et avec l’arrivée de l’intelligence artificielle, nous entrons désormais dans l’ère de la data-driven science (la science guidée par les données).

Évidemment, le secteur de la santé – y compris celui de la santé auditive – bénéficie fortement de ces capacités de produire, stocker et analyser des données en énorme quantité. Un exemple parlant : en 2003, le premier génome humain était séquencé. Il contient environ 23 000 gènes, soit environ 3 milliards de bases (A, T, C ou G) à lire. Pour réaliser cette prouesse, il a fallu plus d’une dizaine d’années (et environ 3 milliards de dollars). Aujourd’hui, pour venir à bout de cette même tâche, moins d’une demi-journée et quelque 1 000 $ sont nécessaires. Et cela devrait encore décroître.

Identifier des gènes

Il est donc désormais possible de séquencer le génome de milliers d’individus, afin de réaliser certaines recherches sur tout ou partie de ce génome. C’est par exemple le principe des études d’association pangénomique (GWAS pour genome-wide analysis study) : on sélectionne, dans une cohorte de patients, ceux dont on sait qu’ils ont une pathologie. Par exemple, une presbyacousie précoce – le fait qu’elle soit précoce laisse supposer une anomalie génétique. Puis, on fait une étude de génome et on observe si cet échantillon présente des motifs génétiques communs que l’on ne retrouve pas chez les personnes qui n’ont pas de presbyacousie précoce. On identifie ainsi des gènes d’intérêt. Si, parmi ceux-ci, certains sont en plus connus pour être impliqués dans le fonctionnement du système auditif, alors ils sont logiquement soupçonnés de jouer un rôle dans la presbyacousie précoce. Ce genre d’analyse n’est possible que grâce aux progrès en termes de séquençage combinés à une hausse des capacités de stockage de données et à leur analyse.

Améliorer les connaissances épidémiologiques

Si le big data peut aider à caractériser certaines pathologies, elle peut aussi fournir des informations épidémiologiques. Nous recueillons des données depuis plusieurs décennies, qui alimentent des tas de base de données (lire l'encadré). Certaines, constituées par des équipes de recherche notamment, sont particulièrement utilisées pour faire de l’épidémiologie. Au moins deux de ces cohortes ont fourni des résultats qui ont marqué le secteur de l’audiologie. On se souvient de la cohorte Paquid, créée par une unité Inserm de Bordeaux, qui avait permis à la Pr Hélène Amieva de confirmer en 2015 les liens entre perte auditive et démence. Plus récemment, la cohorte Constances a permis au Dr Quentin Lisan de fournir des éléments inédits sur l’épidémiologie de la perte auditive.

Perfectionner les aides auditives

Le secteur de l’aide auditive bénéficie aussi de ces données massives. Il y a déjà quelques années que les fabricants se sont emparés de cette manne pour perfectionner certaines de leurs fonctionnalités. Globalement, dans ce cas, les données servent à nourrir des algorithmes, souvent d’intelligence artificielle. Par exemple, AutoSense, le logiciel de Phonak, qui identifie automatiquement l’environnement dans lequel l’utilisateur se trouve. « Nos ingénieurs ont enregistré une très grande quantité d’environnements sonores, dans des classes, des cours de récréation, des restaurants, des parcs..., rapporte Amélien Debès, audiologiste chez Phonak. Ces enregistrements ont servi à entraîner un algorithme d'apprentissage automatique qui sait désormais différencier les environnements sonores. C’est sur cet algorithme qu’est fondé AutoSense. »

Oticon a également utilisé une méthode similaire pour alimenter son réseau neuronal profond, embarqué dans les aides auditives Oticon More : les ingénieurs se sont rendus sur le terrain munis d’un microphone sphérique et ont procédé à des enregistrements. Selon la marque, 12 millions de scènes sonores ont ainsi alimenté le réseau neuronal profond. Une fois au point (assez entraîné pour reconnaitre n’importe quelle scène sonore), il a été intégré dans MoreSound Intelligence, la fonctionnalité de traitement des environnements sonores.

La technologie MySound, de Widex, utilise aussi les données massives apportées par les utilisateurs des aides auditives de la marque, qui alimentent une intelligence artificielle, dont le but est ensuite de faire des propositions de réglages plus fines et plus pertinentes à cette « communauté ».
Chez Phonak, on utilise également les données d’utilisation du logiciel de réglage Target des audioprothésistes volontaires. « Si nos clients sont d’accord, ils partagent avec nous les données anonymisées des réglages de leurs patients, ce qui nous permet en retour d’améliorer nos méthodes de préréglage », décrit Amélien Debès.

Bien sûr, chaque malentendant est particulier, mais le big data permet d’intégrer de la méthodologie scientifique à la personnalisation de la prise en charge.

Fabien Auberger, directeur stratégie santé Amplifon

Mieux prendre en charge

D'autres acteurs du secteur sont assis sur une quantité incroyable de data, ce sont les enseignes. Ces données sont issues de leurs clients et des différents résultats de leurs tests ou des réglages qui leur sont proposés. Depuis plusieurs années, Amplifon finance des thèses d’étudiants de Polytechnique, afin de faire parler ces données. Deux thèses récentes portaient sur quelque 100 000 patients appareillés pour l’une, et 1,2 million d’audiogrammes pour l’autre. L’objectif ? « Personnaliser la prise en charge », résume Fabien Auberger, directeur stratégie santé chez Amplifon France, avant d'insister sur la difficulté d’obtenir des données exploitables : « Si nous avons pu nous lancer dans ces analyses, c’est que nous nous en sommes donné les moyens. Il y a tout un travail en amont, de méthodologie de la prise en charge, de normalisation des outils de tests et des pratiques, de leur validation scientifique... » Le but est ainsi de croiser des données épidémiologiques des patients avec leurs données audiologiques, puis, grâce à des modèles d’intelligence artificielle, d’identifier des éléments qui font qu’un patient bénéficie davantage de ses appareils qu’un autre, et qui permettront donc d’améliorer la prise en charge. « En fonction de nos résultats, on adapte la formation de nos équipes », rapporte Fabien Auberger.

graph
Résultats présentés lors du CRS Amplifon. Chaque point représente un patient. On note des différences de résultats en fonction des marques d'aides auditives, ce qui, pour Amplifon, souligne l'importance de travailler avec toutes les marques, et montre la nécessité de poursuivre l'analyse des données en procédant pas clusters.
En outre, ces données permettent de cartographier les patients, en les regroupant par clusters, en fonction de leurs profils. « Grâce à ce type de regroupement, on peut personnaliser la prise en charge, on peut aider nos audios à être plus pertinents avec chaque patient, détaille-t-il encore. Bien sûr, chaque malentendant est particulier, mais cela permet d’intégrer de la méthodologie scientifique à la personnalisation de la prise en charge. » L’ensemble de ces données permet aussi d’identifier les déterminants, sur lesquels il est possible d’agir et qui vont permettre d’améliorer certaines performances, comme la compréhension dans le silence ou dans le bruit. « On réussit ainsi à définir l'amplification optimale pour améliorer la compréhension dans le bruit, illustre Fabien Auberger. Autre exemple, nous avons un test chez Amplifon qui s’appelle le stéréo-équilibrage, et nos études montrent qu’en l’utilisant, on peut améliorer la compréhension de 16 à 20 %. On peut aussi, au sein d’un cluster, identifier quelles sont les marques d’appareils qui fonctionnent le mieux. Donc l’analyse de nos données nous apporte des informations vraiment concrètes, que l’on transmet à nos équipes. »

L’analyse des données massives fournit des résultats aussi robustes que des études multicentriques.

Pr Bernard Fraysse, ex-président de l’Ifos

Guider les politiques publiques

Pour le Pr Bernard Fraysse, qui a participé à ces études Amplifon, « l’analyse de ces données massives fournit des résultats aussi robustes que des études multicentriques ». Certains résultats ont particulièrement intéressé l’ORL toulousain. « Nous avons observé l’impact de l’environnement socio-économique, grâce à un indice de disparité entre différentes zones résidentielles en France. Nous avons donc divisé notre échantillon en 5 groupes. Et nous avons ainsi montré qu’il y a une différence de 15 ans dans l’accès aux soins auditifs entre les plus aisés – qui se soignent plus tôt – et les moins aisés. Ces résultats signifient qu’il ne faut pas donner la même information concernant l’importance du dépistage ou de la prise en charge à chacune de ces zones. L’intérêt, c’est donc d’adapter le message en fonction du territoire. »

Avant ces études, les chercheurs du centre Eriksholm (Oticon) s’étaient également intéressés aux données massives dans le but d‘aider les décideurs. Dans le cadre d’un projet de recherche européen baptisé Evotion, qui s’est achevé en 2020, ils ont cherché à « mettre au point un outil destiné à aider à orienter les politiques sur la santé auditive », explique Niels Pontopiddan, qui a mené ce projet. « Nous récoltions les données d’un millier d’usagers appareillés d’aides auditives Oticon, ce qui nous permettait d’enregistrer le niveau sonore dans les lieux dans lesquels ils se trouvaient, comme par exemple des parcs, des concerts, des restaurants... » Grâce à ces données, les chercheurs étaient capables de faire des simulations, grâce à des modèles. « C’est intéressant car pendant que nous travaillions sur ce projet, une nouvelle loi (décret du 7 août 2017, NDLR) est entrée en vigueur en France sur le niveau sonore maximal autorisé dans les lieux publics. Nous avons donc mené des simulations pour déterminer quel serait l’impact d’une telle législation sur la santé auditive des utilisateurs que nous suivions. C’est ce genre de simulation qui peut intéresser les pouvoirs publics », explique le chercheur. Les données récoltées lors de ces travaux ont, par la suite, également permis de se pencher sur l’observance des patients, grâce au datalogging.

Alors que les données transmises aux décideurs pour leur permettre de fonder leurs politiques de santé publiques reposent principalement sur du déclaratif (comme dans les enquêtes EuroTrak), ce datalogging leur permettrait d’évaluer objectivement l’observance des patients appareillés, à l’aune du 100 % Santé. Et ainsi, de s'assurer de la réussite qualitative de la réforme.

Newsletter

Newsletter

La newsletter Audiologie Demain,

le plus sûr moyen de ne jamais rater les infos essentielles de votre secteur...

Je m'inscris