SI SPECIAL ETE 97

le techno-quotidien

dessin Enrico dessin Enrico

La surdité, les prothèses auditives
& l'informatique

Mary-Louise Marco-Dutoit, médecin ORL
& Pascal Blanc, audioprothésiste, Lausanne

Table des matières


LE SON

La source de production d'un son est un corps mis en vibration. Il s'agit d'une sensation, c'est-à-dire d'un phénomène subjectif.

Le son voyage sous forme d'ondes de pression produites par la compression et la raréfaction en alternance des molécules d'air (ou du milieu élastique dans lequel il se propage).

On appelle pression sonore l'amplitude des variations de pression; elle s'exprime généralement en pascals. Les vibrations transportent de l'énergie en se propageant; c'est l'intensité sonore qui s'exprime en watts/cm2.

L'intensité sonore (quantité d'énergie transportée par les vibrations) est proportionnelle au carré de la pression sonore (amplitude des variations de pression).

La sensibilité de l'oreille en intensité est extraordinaire: le rapport des intensités (10-16/cm2 à 10-3/cm2) extrêmes audibles pour l'oreille sans destruction de l'oreille interne atteint le chiffre fabuleux de 10'000 millards, ce qui correspondrait à la faculté d'analyser les distances de 1mm à 10 millions de kilomètres. On a donc été conduit à exprimer les différentes intensités sonores dans une échelle logarithmique dont l'unité est le bel. Par convention internationale, on a institué une échelle fixe dont le niveau 0 (ou niveau de référence) a été fixé à 10-16 watts/cm2. Cette intensité acoustique de référence est, à peu de chose près, à la fréquence 1000 Hertz ou cycles/seconde (c/s), le seuil d'audition d'une personne jeune entendante.

LE CHAMP AUDITIF

Fig. 1 ­ champ auditif normal

Le champ auditif tonal est l'ensemble des fréquences audibles, il s'étend en moyenne entre 20 et 20'000 Hertz (Hz) (voir figure 1). La limite supérieure des fréquences audibles s'abaisse avec l'âge (la presbyacousie).

LA PAROLE

C'est l'organisation séquentielle des structures phonétiques, c'est-à-dire la mise en ordre des phonèmes entre eux, des syllabes dans les mots. Les consonnes sont des éléments de bruit.

LA ZONE DE COMPREHENSION DU LANGAGE

Il s'agit de la bande de fréquences émise lors de la parole (zone des fréquences conversationnelles). Elle coïncide avec la zone la plus sensible du champ auditif; elle s'étend entre 80 et 8000 Hz pour la fréquence et entre 25 et 75 dB pour l'intensité. Ce sont les fréquences entre 1000 et 2000 Hz qui sont utilisées au maximum.

Retour à la table des matières

L'OREILLE

Fig. 2 - l'oreille

L'oreille comprend un organe de captage et de transmission des ondes sonores: l'oreille externe et moyenne; et un organe de réception au sens strict: l'oreille interne (voir figure 2).

Les ondes sonores pénètrent dans le conduit auditif externe et frappent le tympan. La pression d'air exercée sur celui-ci est amplifiée au travers du système de leviers représenté par les osselets (marteau, enclume, étrier). Une fois transmise à l'étrier, cette pression est transformée en vibrations qui sont acheminées à l'organe de Corti. L'organe de Corti comprend deux types de cellules ciliées: les cellules ciliées internes (CCI) et les cellules ciliées externes (CCE) (voir figure 3). Au total, la cochlée comprend une rangée de 3500 CCI et 12500 CCE disposées en trois rangées. Ces chiffres sont réellement faibles pour des populations cellulaires figées, autrement dit n'ayant pas la capacité de se renouveler au cours de la vie. Il en découle une fragilité toute particulière de cet organe sensoriel.

Retour à la table des matières

Le rôle des CCI et des CCE

Fig. 3 - organe de Corti

Les CCI sont les véritables cellules sensorielles de la cochlée; elles font synapse avec la grande majorité des fibres du nerf cochléaire auxquelles elles transmettent le message auditif lorsqu'elles sont stimulées. Les impulsions nerveuses émises sont acheminées par le nerf auditif jusqu'au cerveau.

Les CCE sont différentes des CCI. Elles possèdent une propriété mécanoréceptrice par l'ancrage de leurs cils dans la membrane tectoriale. C'est ce que l'on appelle le mécanisme actif. Par ailleurs, grâce à leur pouvoir contractile, elles amplifient très localement la vibration dans la portion cochléaire correspondante. C'est la membrane tectoriale qui effectue un mouvement relatif de glissement et qui entraîne le cisaillement des cils les plus longs des CCE. Les CCE, donc, ont un rôle d'amplification et un rôle d'amélioration de la sélectivité par la mise en action de la CCI. La tonotopie (représentation spatiale des différentes fréquences tout au long de la membrane basilaire) devient sélective. Ainsi, deux fréquences très rapprochées peuvent exciter sélectivement deux CCI contiguës qui vont chacune grâce à leur câblage propre envoyer au cerveau un message légèrement différent. La discrimination fréquentielle ainsi obtenue est à la base de l'intelligibilité du langage.

La plupart des atteintes de la cochlée commence par une atteinte des CCE:

Tous ces facteurs provoquent un même effet: la suppression des réponses contractiles des CCE et donc la suppression du mécanisme actif. Ceci se traduit par une perte de la sensibilité (40 ou 50 dB) et par une détérioration de la sélectivité en fréquences, base de la discrimination des sons.

Retour à la table des matières

La surdité

Toute baisse uni- ou bilatérale de l'ouïe, quels que soient son degré et sa localisation, définit la surdité.

Ce sont les surdités de perception qui traduisent une atteinte soit de la cochlée, du nerf auditif ou des voies auditives centrales qui pourront, selon leur gravité, justifier une adaptation audioprothétique.

Le problème principal d'une personne sourde réside dans le fait que la parole d'autrui est audible, entendue mais souvent inintelligible ! Comme ce sont les consonnes qui permettent la discrimination des sons de parole et que les consonnes sont plutôt des bruits que des sons purs, on voit se dessiner la complexité de la mise en route d'une adaptation audioprothétique analogique. Tous les bruits de l'environnement sont amplifiés au même titre que les éléments consonantiques de la parole, d'où phénomène de distorsion, de masquage du message verbal. Le rapport signal/bruit (S/B) ne peut que difficilement être amélioré malgré les caractéristiques des appareils modernes (possibilités de programmation, mémoires multiples, multi-canaux ou multi-microphones).

Le phénomène de recruitment (distorsion de la sensation d'intensité) reste difficile à maîtriser; de même que la présence ou non d'acouphènes (sifflements d'oreille) ou encore la presbyacousie compliquée qui empêche dans un âge avancé toute participation à une activité de groupe, réduisant les contacts verbaux à une relation individuelle. Le bruit gêne lorsqu'il y a élévation du seuil des sons aigus car il masque facilement les zones de fréquences moyennes utilisées plus intensément pour la reconnaissance phonétique. Si en plus le bruit de l'environnement est amplifié à son tour par une audioprothèse non totalement numérique, il est difficile de rester insensible à des commentaires tels que:

Actuellement, nous assistons à un bond en avant du traitement audioprothétique de l'information grâce aux prothèses numériques entièrement digitales. Les ondes sonores sont enregistrées et transformées par le micro. Une première puce retranscrit les signaux analogiques en signaux numériques. Une seconde puce, avec une puissance de 14 millions d'opérations à la seconde, filtre et divise le son en sept fréquences de 125 à 6000 Hz. Puis, elle compresse les trois basses fréquences et amplifie les quatre hautes fréquences selon l'audiogramme du patient. Nettoyées et amplifiées, les fréquences sont regroupées par la deuxième puce. Enfin, le son peut être retranscrit de nouveau en signaux analogiques par la première puce et diffusé par l'écouteur. Un modèle vocal servant de paramètre de comparaison et autorisant l'évaluation du niveau de bruit a pu être élaboré par un fabricant danois.

Certes, l'évolution des aides auditives pour malentendants a suivi avec un peu de retard celle de l'informatique; ce retard s'expliquant par la miniaturisation nécessaire des composants électroniques. En plus, il fallait l'efficacité et la simplicité d'emploi de la prothèse. Actuellement, la plupart des aides auditives, principalement les modèles de haut de gamme, sont programmées au moyen de logiciels installés sur PC, avec système d'exploitation DOS et Windows (3 x ou Win 95). La configuration actuelle retenue est: logiciels, interface (carte extérieure au PC) et appareils acoustiques.

A noter qu'avant l'actuelle prolifération des logiciels offerts par les fabricants d'audioprothèses, ceux-ci livraient des substituts, non intégrés à un ordinateur, sous forme de consoles de programmation. Sur celles-ci, on trouvait toutes les commandes nécessaires à la programmation des appareils et les indications de réglages apparaissaient sur un écran à cristaux liquides. Chaque fabricant livrait son propre système avec ses propres logiciels. On comprendra aisément les problèmes de gestion de cette pléthore de matériel qui prenait passablement de place: câbles de programmation, cassettes ROM logiciel et consoles «mini-ordinateurs».

Heureusement, cette époque est révolue. La configuration actuelle se déroule de la façon suivante: sur la couche que compose Windows, on trouve dans pratiquement tous les cas un logiciel de base (un titre très employé: NOAH). Ce logiciel sert à regrouper les données du patient (nom, adresse, âge, données audiologiques, historique de l'adaptation prothétique, etc). Il constitue donc une banque de données et, d'autre part, une sorte de standard graphique auquel les fabricants se soumettent. Sur ce logiciel de base, viennent se greffer les logiciels de programmation des appareils acoustiques. Mais des logiciels, il y en a presque autant que de constructeurs. Leur principe est toujours le même mais leur apparence change au gré du fournisseur, ce qui peut parfois créer quelques difficultés. Ils puisent les données audiologiques dans la banque de données (NOAH). Puis ils calculent l'amplification compensatrice de la perte d'audition selon l'algorithme propre au constructeur. Enfin, l'interface externe (une très connue porte le nom de HI-PRO), reliée par un port série du PC, formate les données et les inscrit par un câble sériel dans la mémoire non volatile et réinscriptible de la prothèse auditive.

Bien entendu, la réinscription des réglages dans la ou les prothèses est quasi infinie; les possibilités de réglage sont, par contre, déterminées par les paramètres maxi et mini définis pour chaque modèle. Les modifications apparaissent directement et presque instantanément à l'oreille du malentendant. On peut, à partir du réglage initial calculé, harmoniser les réglages selon le souhait du patient. Il est à noter que les fabricants les plus réputés fournissent des algorithmes fiables à plus de 90 %. Leurs données s'appuient sur les observations de milliers de sujets et l'expérience de nombreuses années.

Il existe actuellement quelques constructeurs de prothèses qui sont arrivés à miniaturiser et commercialiser des aides auditives entièrement digitales (à part les transducteurs sonores). Leur fonctionnement, si ce n'est leur mémoire et leur jeu d'instructions relativement limité, dû à la taille lilliputienne des circuits, s'apparente donc à ceux des ordinateurs actuels.


retour au sommaire du Flash informatique spécial été 97

retour à la page principale des Flash informatique

Vos commentaires

© FI SPECIAL ETE du 2 septembre 1997