La notion de « musique compressée » prête souvent à confusion, y compris chez les praticiens aguerris, parce qu’elle recouvre deux réalités distinctes qui se superposent fréquemment dans la chaîne audio. D’une part, la compression de dynamique, c’est-à-dire un traitement du signal visant à réduire l’écart entre sons faibles et sons forts afin d’augmenter la sonie perçue et de maîtriser les crêtes. D’autre part, la compression de données, soit l’encodage par codec qui diminue la taille d’un fichier ou d’un flux (MP3, AAC, LC3, Opus, etc.), avec ou sans pertes. Dans la pratique clinique, ces deux compressions peuvent s’additionner aux traitements appliqués par les aides auditives, modifiant la structure temporelle, spectrale et spatiale de la musique que perçoit le patient. Comprendre ce double mécanisme est essentiel pour ajuster les réglages, conseiller des sources adaptées et objectiver les limites d’un système d’écoute donné.

Qu’est ce que la musique compressée ?

La « musique compressée » désigne deux réalités complémentaires : d’une part la compression de dynamique, un traitement appliqué au signal pour réduire l’écart entre sons faibles et forts (on « tasse » les crêtes et on remonte les passages doux) afin d’augmenter la sonie perçue et la constance d’écoute, très utilisé au mixage, au mastering, en radio et sur scène ; d’autre part la compression de données, un encodage qui allège la taille des fichiers ou flux (MP3, AAC, Opus, LC3…) en retirant des informations jugées masquées par des modèles psychoacoustiques, au prix éventuel d’artefacts si le débit est faible. La première agit sur l’amplitude et le temps (ratios, attack/release) et peut lisser les transitoires ou réduire le « relief » musical ; la seconde agit sur la représentation temps-fréquence (banques de filtres/MDCT) et peut altérer la finesse des timbres, la spatialisation ou générer du « pré-écho » quand elle est poussée. Dans la pratique, les deux se cumulent souvent : un titre déjà très « compacté » au mastering est ensuite encodé pour le streaming ou le Bluetooth, ce qui explique que deux versions au même volume mesuré puissent être perçues différemment. Pour un rendu naturel, on privilégie des masters moins écrasés et des encodages de bonne qualité (p. ex. AAC ~256 kb/s ou lossless) en limitant les réencodages successifs.

Compression de dynamique : principes, effets et interfaces avec l’audioprothèse

La compression de dynamique (DRC) agit dans le domaine amplitude/temps. Elle utilise un seuil au-delà duquel un ratio (par exemple 2:1 ou 4:1) comprime les niveaux, assorti de temps d’attaque et de relâchement qui déterminent la réactivité du processeur. Un knee plus ou moins doux et un make-up gain complètent l’architecture. En studio, elle sert à contrôler les transitoires, homogénéiser une voix, accroître l’impression de puissance d’un mix. Sur le plan psychoacoustique, elle élève la sonie moyenne mais écrase la micro-dynamique et adoubit les attaques, surtout si les temps constants sont courts ou si l’on cumule de multiples étages (pistes individuelles, bus, mastering, radiodiffusion). Les indices temporels fins, qui participent aux timbres et à la localisation, s’en trouvent atténués. Le phénomène dit de « loudness war » illustre cette dérive : des masters volontairement denses, proches du plafond, au prix d’une fatigue accrue et d’une perte de relief.

Pour le professionnel de l’audition, la DRC a une conséquence directe : les aides auditives intègrent déjà des schémas de WDRC (compression à dynamique étendue) multicanaux, souvent complétés par des AGC en entrée/sortie et un limiteur proche du MPO. Si la source est déjà fortement compressée, l’empilement de traitements peut réduire la dynamique utile, émousser les transitoires et tasser la sensation d’espace. En pratique, un programme Musique bien conçu repose sur des ratios plus faibles, des temps d’attaque/relâchement plus longs (pour préserver les enveloppes), une limitation plus haute lorsque la tolérance du patient le permet, et une suspension ou un assouplissement des modules optimisés pour la parole (réduction de bruit agressive, directionnalité stricte, détection de voix, contrôle de larsen trop intrusif). Le but n’est pas de supprimer la sécurité du dispositif, mais de restaurer suffisamment de marges temporelles et de niveau pour que la musique respire.

Compression de données : codecs, artefacts et conditions de transparence

La compression de données relève d’un tout autre registre : elle réduit le débit nécessaire au transport ou au stockage d’un signal. Les codecs avec pertes (lossy) reposent sur des modèles psychoacoustiques : en filtrant et analysant le signal dans le temps-fréquence (MDCT, banques de filtres), ils quantifient plus finement les zones audibles et rognent ce qui est supposé masqué (masquage spectral et temporel). À l’inverse, les codecs sans pertes (FLAC, ALAC) compactent l’information mais restituent le flux bit pour bit à la lecture. Entre ces deux pôles, la pratique contemporaine est dominée par le lossy : MP3 et AAC dans les catalogues historiques, LC3 dans l’écosystème Bluetooth LE Audio, Opus pour certaines plateformes temps réel.

Les artefacts du lossy sont bien identifiés. Le plus emblématique est le pré-écho, petit halo précédent un transitoire, lié à l’étalement temporel des fenêtres de transformée. Viennent ensuite les textures sifflantes ou « granuleuses » dans les aigus, les réverbérations « pommelées », la perte de micro-réverbération qui contribue à la profondeur, et une appauvrissement de la stéréophonie lorsque l’encodage stéréo conjointe est trop agressif. Ces défauts se manifestent d’abord aux bas débits, sur des contenus riches en harmoniques stationnaires (orgue, cordes soutenues) ou au contraire très transitoires (percussions, cymbales). La « transparence » – la difficulté à distinguer l’encodé de l’original – dépend du débit, du contenu, du transducteur… et de la sensibilité de l’auditeur.

Dans les usages quotidiens, quelques repères sont utiles pour orienter les patients mélomanes : des flux AAC vers 256 kb/s ou MP3 vers 320 kb/s sont souvent considérés comme quasi transparents sur des systèmes usuels ; FLAC ou ALAC garantissent l’intégrité lorsqu’ils sont disponibles et que la bande passante n’est pas une contrainte. Côté Bluetooth, le monde « classique » A2DP mêle SBC (variable en qualité), AAC et des variantes propriétaires (aptX/HD/LL selon compatibilité), tandis que LE Audio introduit LC3, conçu pour de meilleures performances à bas débits et des latences plus faibles, avec des perspectives de diffusion (Auracast) intéressantes pour la médiation culturelle et l’accessibilité.

Psychoacoustique et déficience auditive : pourquoi la musique compressée pose plus de problèmes

La perte auditive modifie les règles du jeu psychoacoustique sur lesquelles s’appuient à la fois la DRC artistique et les codecs. L’élargissement des bandes critiques et l’élévation des seuils réduisent le pouvoir de résolvance spectrale et rendent moins efficaces certaines hypothèses de masquage des encodeurs. De nombreux patients s’appuient davantage sur les indices d’enveloppe (ENV) que sur la structure fine (TFS) ; or les artefacts de quantification et de fenêtrage touchent précisément les enveloppes. La spatialisation est, elle aussi, fragilisée : la combinaison d’un joint-stereo appuyé, d’une directionnalité microphonique en aide auditive et d’un réducteur de bruit temporel peut raboter les différences inter-aurales et gommer l’ambiance d’une prise de son. Au final, ce qui passe relativement inaperçu chez un auditeur normoentendant peut devenir saillant, voire gênant, chez un mélomane appareillé.

Chaîne du signal en conditions réelles : où se perd la qualité dans la musique compressée ?

Il est fréquent que la musique « compressée » le soit plusieurs fois avant d’atteindre l’oreille : mastering dense → transcodage de la plateforme (parfois réencodages successifs) → transport Bluetooth (nouvelle compression si l’algorithme côté source ne correspond pas au codec natif du casque/AA) → WDRC/AGC/limiteur de l’aide auditive. Chacune de ces étapes, prise isolément, peut être acceptable ; leur cumul crée l’impression d’un signal « lissé », un peu mat, avec des cymbales qui « chuchotent » et une scène qui se resserre. C’est une des raisons pour lesquelles la connexion filaire (entrée audio directe, DAI, TV-connector en mode pass-through de qualité) reste précieuse pour l’évaluation critique, et pourquoi il vaut mieux éviter les chaînes multi-encodées (par exemple : vidéo en ligne déjà compressée → smartphone qui reconvertit en SBC → aide auditive).

Traduction clinique : réglages, validation et pédagogie patient

Sur le plan des réglages, l’objectif n’est pas d’idéaliser la source – vous ne contrôlez ni le mastering ni l’encodeur de Spotify – mais de limiter les dégradations additionnelles. Un programme Musique efficace privilégie des ratios bas (souvent < 2:1 dans les zones spectrales clés), des temps constants plus longs pour respecter les enveloppes, et un MPO paramétré de manière à laisser passer les pics brefs et musicaux sans inconfort. Les modules orientés parole (réducteurs de bruit modulants, directionnalité stricte, suppressions de larsen agressives) doivent être adoucis, voire contournés, car ils confondent souvent transitoires musicaux et « bruit ». Selon l’écologie du patient (salon, salle de répétition, scène), on ajustera différemment la bande passante utile et la sensibilité d’entrée.

La validation combine mesures objectives et écoute guidée. En laboratoire ou au cabinet, la vérification au coupleur permet d’anticiper l’écrêtage et de repérer une distorsion anormale sous charge ; on peut aussi estimer la latence effective dans une configuration TV pour prévenir les problèmes de synchronisation labiale. Côté subjectif, privilégiez une batterie d’extraits courts mais différenciés : un passage percussif (attaque et pré-écho), une voix a cappella (timbre et intonation), un ensemble de cordes soutenu (stationnarité et « voile »), un quartet jazz avec contrebasse (assise et image stéréo). Invitez le patient à noter la clarté, la fatigue, l’ouverture spatiale et le plaisir d’écoute, plus fiables cliniquement que la simple « qualité » globale.

La pédagogie complète l’intervention. Expliquer simplement la différence entre dynamique et données aide le patient à comprendre pourquoi « la même chanson » n’a pas la même sensation selon la source. Invitez-le à sélectionner, dans ses applications, le profil de qualité le plus élevé disponible ; à privilégier, quand c’est possible, un format lossless ; et à préférer des chemins courts (smartphone → TV-connector/streamer natif → aides) plutôt qu’une succession d’adaptations. Pour les musiciens appareillés, suggérez, lors des répétitions, une entrée ligne ou un retour personnel propre, et des temps constants plus longs afin d’éviter que l’aide n’aplatisse la dynamique expressive.

Quelques repères pratiques sur la musique compressée

  • Pour le streaming mobile, viser au minimum AAC ~256 kb/s quand l’option existe ; éviter les enchaînements réencodés.

  • En Bluetooth LE Audio, tirer parti du LC3 bien implémenté pour gagner en qualité à bas débit et en latence.

  • En adaptation, penser « conservation des enveloppes » : ratios doux, temps constants longs, MPO justement calibré.

  • Pour l’évaluation, mêler mesures simples (distorsion/écrêtage/latence) et écoute multi-critères brève mais structurée.

Accepter « l’imparfait »

Il est illusoire de viser, en conditions ordinaires, une reproduction parfaitement fidèle d’un master haute résolution. Les contraintes matérielles, énergétiques et de bande passante imposent des compromis. Le rôle du professionnel n’est pas de pourchasser l’artefact jusque dans ses derniers retranchements, mais d’orchestrer des arbitrages : un peu plus de dynamique au prix d’un bruit ambiant légèrement plus présent ; une latence plus faible même si le conteneur n’est pas lossless ; une scène moins directive pour que l’orchestre reprenne de la largeur. L’important est de documenter ces choix avec le patient, de vérifier qu’ils correspondent à ses priorités (confort, expressivité, pratique instrumentale, plaisir d’écoute à domicile) et d’offrir des routines simples pour changer de programme ou de profil qualité selon le contexte.

La « musique compressée » n’est pas un verdict mais un état de fait dans l’écosystème actuel. En distinguant rigoureusement la compression de dynamique et la compression de données, en comprenant comment elles interagissent avec les traitements embarqués des aides auditives, et en curant la chaîne depuis la source jusqu’à l’oreille, on peut restaurer une part essentielle du relief musical : attaques plus lisibles, timbres plus nuancés, image moins étriquée, fatigue réduite. Cette démarche est moins une quête d’absolu qu’un art de l’optimisation : choisir la bonne source, paramétrer sobrement, valider intelligemment, et transmettre au patient des clés d’usage qui augmentent, très concrètement, son plaisir d’écouter.

La musique compressée est elle dangereuse pour l’oreille ?

L’exposition à des sons trop forts est un risque établi pour l’audition. Plus insidieux, le traitement numérique du signal largement utilisé dans la diffusion musicale et les communications peut lui aussi infléchir la réponse auditive. Une étude expérimentale chez le cochon d’Inde — modèle dont l’audition et les réflexes auditifs se rapprochent de ceux de l’humain — montre que, à énergie acoustique réglementaire identique, la structure temporelle d’un signal musical traité peut produire des effets fonctionnels distincts et plus durables que la version non traitée. Une étude a évalué l’impact de la musique compressée sur l’audition et nous vous en dévoilons les contours.

  • Protocole expérimental : un même morceau, deux versions, une exposition contrôlée

Les chercheurs ont exposé des cochons d’Inde éveillés  (afin de limiter les biais liés à l’anesthésie) à un même extrait musical pendant quatre heures à 102 dBA, niveau conforme au cadre réglementaire français pour les lieux diffusant de la musique amplifiée. Deux conditions d’écoute ont été comparées : la version originale et une version fortement traitée (signal rendu plus uniforme, comblant les micro-pauses naturelles). Le dispositif a permis d’enregistrer les réflexes auditifs et d’examiner la cochlée ainsi que les cellules ciliées internes, tout en assurant un niveau de stress minimal chez l’animal.

  • Mesures et critères de jugement

L’évaluation a croisé des marqueurs fonctionnels et morphologiques :

    • la réactivité du réflexe de l’oreille moyenne (stapédien), indicateur de l’intégrité des voies auditives précoces ;

    • des indices cochléaires immédiats et retardés, afin de distinguer une altération transitoire d’une atteinte durable ;

    • une analyse histologique ciblant les cellules ciliées internes et leurs synapses, pour objectiver d’éventuelles lésions irréversibles.

  • Résultats : même dose, effets différents

Le contraste entre conditions est net. La version originale n’induit qu’une altération cochléaire passagère, typique d’un stress acoustique réversible. À l’inverse, la version traitée entraîne un déficit persistant du réflexe de l’oreille moyenne, compatible avec une atteinte neuronale fonctionnelle. Une semaine après l’exposition, les animaux du groupe « signal traité » n’avaient pas entièrement récupéré ce réflexe. Fait important, aucune lésion irréversible des cellules ciliées internes ni des synapses n’a été mise en évidence, ce qui oriente vers des modifications de l’excitabilité et/ou de la synchronisation des voies auditives plutôt que vers une dégénérescence structurale.

  • Interprétation physiopathologique : la temporalité du signal comme facteur causal

À niveau sonore moyen identique, la distribution temporelle de l’énergie apparaît déterminante. Un signal rendu quasi continu supprime les fenêtres de récupération qui jalonnent naturellement la musique non traitée. En conséquence :

    • les mécanismes réflexes et régulations efférentes (incluant le contrôle stapédien) sont sollicités en permanence, jusqu’à un désajustement mesurable ;

    • la cochlée est maintenue dans un régime d’activité soutenue, compatible avec des fatigues métaboliques et des altérations de synchronie au sein des voies auditives initiales ;

    • l’absence de lésion irréversible suggère un processus fonctionnel potentiellement récupérable, mais plus lent quand le signal ne « respire » plus.

  • Conséquence réglementaire : les limites d’un modèle basé sur l’énergie moyenne

Les normes actuelles s’appuient principalement sur des mesures intégratives (énergie/temps), utiles pour le bruit industriel ou environnemental. L’étude met en lumière un angle mort : deux signaux iso-énergie n’induisent pas la même charge physiologique si leur micro-structure temporelle diffère. En d’autres termes, la « dose » acoustique ne suffit pas ; il faut considérer comment cette dose est délivrée. Cela plaide pour l’introduction, dans les référentiels, d’indicateurs complémentaires de temporalité (par exemple des métriques de continuité ou d’occupation temporelle) lorsqu’il s’agit de sons traités numériquement et diffusés à fort niveau.

  • Portée clinique : ce que les professionnels de l’audition doivent anticiper

En pratique, l’environnement sonore contemporain — des concerts aux plateformes de communication — recourt massivement à des traitements qui uniformisent le signal. Chez des sujets vulnérables (antécédents d’exposition, hyperacousie, acouphènes, professions de la musique), cela peut se traduire par :

    • une fatigabilité accrue, parfois disproportionnée par rapport aux niveaux mesurés ;

    • des plaintes sur la qualité d’écoute (signal « plat », « envahissant », « épuisant ») alors même que les seuils audiométriques restent stables ;

    • des troubles transitoires de tolérance après expositions « réglementaires ».

Pour l’évaluation et le conseil :

  • privilégier une anamnèse des conditions d’écoute réelles (formats, plateformes, contextes de travail) afin d’identifier les usages à forte occupation temporelle ;

  • documenter la récupération après exposition : un retard de normalisation des fonctions réflexes ou de la sensation de confort doit alerter, même sans altération morphologique objectivée ;

  • adapter les recommandations d’hygiène sonore non seulement en niveau et durée, mais aussi en « rythme » d’exposition (introduire des pauses effectives et des variations de contenu).

Implications pour la médiation et la prévention

Les politiques de prévention gagneraient à intégrer des messages spécifiques aux sons traités numériquement. Dans les lieux de diffusion, cela peut passer par :

  • une gestion scénique qui conserve des plages de respiration (programmation, enchaînements, réglages de diffusion) ;

  • une sensibilisation des techniciens et régisseurs aux effets auditifs des signaux très uniformes, au-delà des seuls indicateurs de niveau ;

  • une information du public sur la récupération auditive : la pause n’est pas seulement une baisse de dB, c’est un temps de remise à l’équilibre des mécanismes réflexes et métaboliques.

Limites et perspectives de recherche

Comme toute étude animale, ces résultats nécessitent une transposition prudente à l’humain. Plusieurs axes méritent d’être approfondis :

  • la cinétique de récupération des réflexes de l’oreille moyenne et ses corrélats cognitifs (effort d’écoute, fatigue) ;

  • l’identification des seuils d’occupation temporelle critique à niveaux équivalents, pour mieux paramétrer des recommandations ;

  • l’exploration fine des voies efférentes et de la synchronie neuronale dans des expositions répétées, plus proches des usages réels (musique, jeux en ligne, visioconférences prolongées).

Recommandations

Sans attendre une révision normative, plusieurs gestes simples sont applicables :

  • Évaluer les expositions « à signal uniforme » lors des entretiens (musiques de travail, streaming continu, visioconférences longues).

  • Mettre en place des pauses structurées et des alternances de contenus lors d’événements ou sessions prolongées, à niveau constant.

  • Informer les usagers que la fatigue auditive peut survenir à dose réglementaire, si la structure temporelle du signal ne ménage aucune respiration.

Cette étude montre qu’au-delà du niveau sonore moyen, la forme temporelle d’un signal diffusé à haut niveau modifie la réponse auditive et peut prolonger l’altération de certaines fonctions réflexes, sans lésion irréversible identifiable à court terme. Dans un monde où les sons traités numériquement sont omniprésents, mieux caractériser la temporalité des expositions devient un enjeu de santé auditive. Pour les cliniciens, intégrer cette dimension dans l’évaluation, le conseil et la prévention revient à adapter nos outils à la réalité des usages, afin de protéger non seulement l’oreille interne, mais aussi l’écosystème fonctionnel qui soutient l’écoute durable et confortable.

Glossaire

A2DP (Bluetooth Classique)
Profil Bluetooth pour la diffusion audio stéréo « grand public ». Utilise typiquement SBC, AAC ou aptX selon compatibilité.

AAC (Advanced Audio Coding)
Codec avec pertes couramment utilisé en streaming. Bonne transparence vers ~256 kb/s selon contenu et matériel.

AGC (Automatic Gain Control)
Contrôle automatique du gain en entrée/sortie pour stabiliser le niveau. Dans les aides auditives, peut coexister avec WDRC et limiteur.

ALAC / FLAC (Lossless)
Codecs sans pertes : restitution bit-pour-bit de la source, taille réduite vs WAV/AIFF.

aptX / aptX HD / aptX LL
Famille de codecs Bluetooth (propriétaires). Améliorations possibles en qualité/latence si appareils compatibles.

Attack / Release (Temps d’attaque / de relâchement)
Constantes temporelles d’un compresseur. Déterminent la vitesse de réaction à une variation d’amplitude.

Auracast
Diffusion de flux audio multiples en Bluetooth LE Audio (espaces publics, accessibilité).

Bandes critiques
Unités psychoacoustiques de résolution fréquentielle cochléaire. Leur élargissement dans la perte auditive modifie le masquage.

Bit depth (Profondeur d’échantillonnage)
Nombre de bits par échantillon (ex. 16/24 bits). Affecte la plage dynamique et le bruit de quantification.

Bitrate (Débit binaire)
Quantité de données par seconde (kb/s). Plus il est élevé (à codec constant), plus la probabilité d’artefacts diminue.

Clipping / Écrêtage
Saturation lorsqu’un signal dépasse le plafond numérique/analogique → distorsion harmonique marquée.

Cochlée
Organe sensoriel de l’audition. Analyse spectro-temporelle des sons via la membrane basilaire et les cellules ciliées.

Compression de données (Codec)
Réduction de la taille d’un flux/fichier. « Lossy » (avec pertes) ou « lossless » (sans pertes).

Compression de dynamique (DRC/WDRC)
Réduction de l’écart entre sons faibles et forts via seuil, ratio, attack/release. En aides auditives : multicanal, à large plage dynamique (WDRC).

DAI / Entrée audio directe
Connexion filaire ou accessoire dédié contournant les micros pour une meilleure intégrité de la source.

Directionnalité (microphonique)
Traitement qui privilégie certaines directions d’arrivée du son. Utile pour la parole, souvent à atténuer pour la musique.

Distorsion harmonique (THD)
Énergie harmonique ajoutée par le système. Marqueur de non-linéarités (compresseur agressif, transducteur saturé, etc.).

ENV / TFS (Enveloppe / Temporal Fine Structure)
Indices temporels lents (ENV) vs structure fine rapide (TFS). Beaucoup de patients s’appuient davantage sur l’ENV.

Feedback canceller (anti-larsen)
Algorithme supprimant l’accrochage acoustique. Peut altérer des composantes musicales s’il est trop agressif.

Headroom (Marge)
Réserve de niveau sous le plafond (MPO/0 dBFS) permettant de laisser passer les crêtes sans écrêtage.

Joint stereo (stéréo conjointe, M/S)
Technique d’encodage exploitant les redondances entre canaux gauche/droite pour économiser du débit.

Knee (souple/dur)
Transition plus ou moins progressive autour du seuil d’un compresseur. Un knee souple rend l’action moins audible.

LC3 (Low Complexity Communication Codec)
Codec du Bluetooth LE Audio. Meilleure qualité à bas débits et latence réduite vs SBC.

LE Audio (Bluetooth)
Nouvelle génération Bluetooth pour l’audio (LC3, Auracast). Efficacité énergétique et latence améliorées.

Limiteur / MPO (Maximum Power Output)
Barrière de niveau en sortie des aides auditives. Protège du dépassement et de l’inconfort.

Loudness / LUFS / EBU R128
Mesures perceptuelles de niveau moyen. Référentiel de normalisation en broadcast/streaming.

MDCT (Transformée cosinus modifiée discrète)
Brique temps-fréquence de nombreux codecs lossy. Fenêtrage qui peut induire du pré-écho si le débit est faible.

Noise Reduction (Réduction de bruit)
Algorithmes visant à diminuer le bruit. Peuvent « lisser » des transitoires musicaux si paramétrés pour la parole.

Opus
Codec avec pertes polyvalent (voix/musique, temps réel). Excellente efficacité à bas/moyens débits.

Psychoacoustic masking (Masquage)
Inaudibilité d’un son en présence d’un autre plus intense/proche spectralement ou temporellement. Base des codecs perceptuels.

Pré-écho
Artefact temporel précédant un transitoire, lié au fenêtrage/quantification des codecs transformés à bas débit.

Quantification / Bruit de quantification
Arrondi des valeurs lors de l’encodage numérique. Modelage du bruit pour en masquer la perception.

Ratio (compresseur)
Degré de réduction au-dessus du seuil (ex. 3:1). Plus le ratio est élevé, plus la dynamique est tassée.

Réflexe stapédien (oreille moyenne)
Contraction musculaire protectrice face aux sons forts. Marqueur de l’intégrité des voies auditives précoces.

SBC (Subband Codec)
Codec par défaut d’A2DP. Qualité variable selon implémentations/bitrate ; latence typiquement plus élevée que LE Audio.

Sur-transcodage
Chaîne de conversions successives (ex. plateforme → Bluetooth SBC) entraînant une dégradation cumulative.

Taux d’échantillonnage (Sample rate)
Nombre d’échantillons par seconde (ex. 44,1 / 48 kHz). Détermine la bande passante théorique.

Transitoires
Événements brefs/rapides (attaques d’instruments). Cruciaux pour le timbre, l’articulation et la spatialisation.

Transparence (perceptuelle)
Point à partir duquel la différence entre original et encodé n’est plus audible dans des conditions normales.

TV-connector / Streamer
Passerelle dédiée entre source (TV/lecteur) et aides auditives, souvent plus stable/qualitative que le Bluetooth générique.

WAV / AIFF
Formats PCM non compressés (taille élevée, référence de qualité).

WDRC (Wide Dynamic Range Compression)
Compression « large plage » des aides auditives, à gains variables selon le niveau et souvent par bandes.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *