A-t-on réellement besoin de l’audio HD (24 bits / 192 KHz) sur les smartphones ?

 
Nous testons actuellement le Marshall London, premier smartphone de la célèbre marque anglaise d’amplis. Il arbore une puce audio dédiée (Cirrus Logic WM8281) capable, en théorie, de retranscrire la musique HD avec un encodage sur 24 bits et une fréquence d’échantillonnage maximale de 192 kHz. Les audiophiles sont excités à la lecture de ces chiffres, qui n’ont rien à voir, en théorie avec un MP3 compressé ou un CD audio d’une définition de 16 bits échantillonné à 44,1 kHz. Mais a-t-on vraiment besoin de l’audio HD ? Perçoit-on réellement une différence avec les fichiers standard dans la pratique ?
musique-une

Avant de plonger en détail dans le vif du sujet, une petite explication physique s’impose. Le son est une vibration qui se propage sous forme d’ondes et qui se ressent par l’être humain grâce à l’ouïe. On dit souvent que les individus jeunes parviennent à capter les sons d’une fréquence comprise entre 20 Hz et 20 000 Hz. Plus ils vieillissent, et moins ils entendent le haut du spectre (donc les aigus). Pour enregistrer de la musique, il faut réussir à capter ces vibrations, et même les plus rapides (les plus aiguës).

 

L’échantillonnage et les hertz

C’est là que le terme d’échantillonnage entre en jeu. Pour simplifier, l’échantillonnage est la quantité d’informations que l’on récupère en une seconde lors de la numérisation d’un signal audio. L’unité est le Hertz : un Hertz signifie qu’on récupère une information par seconde. Sur un CD audio, l’échantillonnage est de 44,1 kHz, ce qui veut dire qu’on va réussir à capter 44 100 fois par seconde les vibrations et donc en théorie un son aigu d’une fréquence maximale de 44,1 kHz. Mais cela se corse un peu, puisque pour capter un son d’une fréquence de 20 kHz, il faut doubler la fréquence d’échantillonnage (selon le théorème d’échantillonnage de Nyquist-Shanon), ce qui donne 40 kHz. Lors de la création du CD audio, Sony a donc pris la décision de monter à 44,1 kHz pour se laisser un peu de marge et être compatible avec les standards vidéo de l’époque.

 

La définition en bits

Concernant la définition de la musique, celle-ci s’exprime en bits et correspond à son encodage. Il s’agit en fait du nombre de valeurs numériques qui peuvent exister entre un son inaudible et le son le plus fort. Avec 16 bits, chaque échantillon (des 44 100 avec un échantillonnage à 44,1 kHz) peut prendre 65 536 valeurs de volume différentes. Avec 24 bits, ce chiffre monte à 16 777 216 valeurs différentes. On a longtemps considéré la définition 24 bits comme utile uniquement pour travailler sur la musique, afin d’éviter les pertes issues des manipulations. On pourrait en effet penser qu’avec les 65 536 valeurs différentes du 16 bits, cette définition suffit pour l’écoute. Ce n’est pas forcément vrai puisque ce chiffre s’applique uniquement dans des conditions idéales et lorsque le volume de l’appareil est poussé au maximum.

img-what-is-high-resolution-audio-2-ca_fr

 

Plus de Hertz = une meilleure qualité ?

Abordons tout d’abord le cas de l’échantillonnage. Sur certains supports comme le DVD-Audio ou des plateformes de streaming / téléchargement comme Qobuz, il est possible de profiter d’une musique échantillonnée à 192 kHz. Chaque fréquence musicale est alors captée 192 000 fois par seconde et il est possible de capter et retranscrire – en théorie – un son d’une fréquence de 96 kHz, bien au-delà de la limite théorique de l’oreille, fixée à 20 kHz. Alors à quoi ça sert de capter le son « si loin » ? Certains pensent pouvoir entendre les sons au-delà de 20 kHz. D’autres trouvent que les harmoniques des instruments (qui montent très haut dans les fréquences) doivent être conservées pour un son plus naturel, même si les oreilles ne les entendent pas directement. Et dans les faits ?

S’il y a une différence, elle est vraiment infime. En tout cas, je ne prends pas plus de plaisir avec la version HD.

Il y a quelques mois, le site Le Monde a réalisé une expérimentation intéressante par le biais d’une écoute à l’aveugle de deux versions différentes d’un même morceau non compressé : en 24 bits / 96 kHz et en 16 bits / 48 kHz. Trois musiciens célèbres ont écouté le morceau (un ingénieur du son, un pianiste et un jazzman) à l’aveugle, pour tenter de discerner la différence, sur deux baladeurs vendus 1000 euros, un Sony et un Astell&Kern avec un casque Sennheiser HD650. Au final, il a été impossible de distinguer, à chaque fois, le morceau HD du morceau en version standard. Peut-être avec un équipement à plusieurs dizaines de milliers d’euros, cela aurait-il été possible, et encore… Médéric Collignon, jazzman, a d’ailleurs précisé : « S’il y a une différence, elle est vraiment infime. En tout cas, je ne prends pas plus de plaisir avec la version HD ».

On doit toutefois nuancer ce test réalisé en aveugle. En effet, les trois personnes sélectionnés ne semblent pas toutes jeunes et doivent donc sûrement avoir perdu leur capacité à entendre le haut du spectre audio. De plus, on peut penser que leurs oreilles ont été exposé à des niveaux sonores élevés du fait de leur métier, ce qui contribue à réduire leurs capacités auditives.

 

Plus de bits pour plus de nuances

Mais cela ne signifie pas pour autant que la musique HD ne sert à rien. En effet, l’apport le plus important de la musique HD se situe très certainement au niveau de sa définition. Les 24 bits permettent en effet d’avoir beaucoup plus de valeurs différentes, qui peuvent se révéler utiles dans certains cas. On pense notamment aux écouteurs intra-auriculaires sensibles très haut de gamme qui réduisent énormément le bruit ambiant et réclament une faible puissance de sortie pour être alimentée. Dans ce cas, l’utilisateur va réduire le volume de sortie de l’appareil, ce qui réduira automatiquement le nombre de valeurs disponibles entre le silence et le son le plus fort et possiblement arriver à une situation où l’auditeur va commencer à percevoir un son dénaturé avec l’introduction d’une forme de distorsion audible, particulièrement dans les passages sonores à niveau plus faible, comme un solo ou un interlude entre des moments de paroles.

audacity -70 dB

Sur la forme d’onde ci-dessous d’une musique, on peut voir le signal d’un appareil réglé avec un volume de sortie minimal. Malgré un échantillonnage en 16 bits, on peut voir une petite dizaine de nuances possibles sur les 65 536 théoriquement disponibles puisque le volume a été fortement diminué.

C’est dans ce type de conditions et avec des écouteurs Shure SE535 que François Simond (un ingénieur bien connu dans le monde Android, notamment pour ses travaux dans le domaine du son, comme Voodoo Sound) m’a confié réussir à distinguer la distorsion des formes d’ondes. Le traitement et mixage de sources sonores puis une sortie en 24 bits permettrait alors de repousser cette limite grâce à un plus grand nombre de valeurs disponibles puisque la plage dynamique (exprimée en dB) est plus grande : 96 dB pour le 16 bits et 144 dB pour le 24 bits. On peut donc penser que le 24 bits apporte une meilleure qualité audio aux mélomanes que les 96 et 192 kHz. La cerise sur le gâteau, c’est que la source sonore (le morceau de musique) n’a pas besoin d’être en 24 bits pour profiter de cet apport.

Le 24 bits assure donc une plus grande marge dans tous les cas.

En effet, prenons l’exemple d’un smartphone. Si le fichier sonore est échantillonné en 16 bits mais que le DAC (la puce qui convertir le signal numérique en signal analogique pour l’envoyer vers la sortie audio) est capable de traiter la musique en 24 bits, la plage dynamique disponible sera plus élevée qu’avec un DAC 16 bits du fait des pertes lors du traitement. Si le fichier est échantillonné en 24 bits, c’est encore mieux puisqu’il y aura une marge de manœuvre plus élevée. Il faut également savoir qu’il y a des pertes de plage dynamique (mesurées avec le rapport signal – bruit et exprimé en dB) qui peuvent provenir du matériel utilisé. Le 24 bits assure donc une plus grande marge dans tous les cas.

 

Gare à la compression

Enfin, le dernier élément à prendre en compte tient à la compression du fichier audio. Le MP3 réalise une compression dite destructive puisqu’elle supprime des éléments du spectre sonore qui sont, en théorie, peu audibles pour l’homme. Mais même avec une écoute aveugle, on distingue clairement une différence de qualité entre un MP3 encodé à 128 kbps (le nombre d’informations contenues sur une seconde de musique) et le même fichier encodé à 320 kbps. La différence entre un MP3 à 320 kbps et un fichier non compressé est un peu plus délicate à saisir, mais elle existe bien. On trouve alors le format de fichier FLAC, qui dispose d’un algorithme de compression non destructeur. Le fichier est plus petit qu’un WAV mais dispose des mêmes informations. Ce format de fichier est celui utilisé par Qobuz pour la musique HD sur les appareils mobiles.

PCM-vs-MP3
On voit clairement les fréquences manquantes sur le MP3

 

L’audio HD sous Android

Life-In-Stereo_800

Depuis plusieurs mois, les constructeurs de smartphones commencent à mettre en avant la musique HD 24 bits / 192 kHz ainsi que le format de fichier FLAC. Mais est-ce un réel argument ? Il y a plusieurs manières de répondre à la question. Tout d’abord, cet argument est utile à une infime minorité de la population. Pour profiter de la différence de qualité d’un fichier source HD, il faut disposer d’un excellent casque ou d’un système hi-fi avec ampli et enceintes de très bonne qualité. Pas besoin, en revanche, d’un système compatible 24 bits, ils le sont tous puisque le signal numérique est transformé en signal analogique lors de sa sortie. Il faut également que toute la chaîne matérielle et logicielle suive sur le smartphone : de l’application d’écoute au DAC en passant par le pilote et le mixer. Android supporte nativement le 24 bits, et même la définition audio 32 bits. Mais ce n’est pas forcément le cas du reste des maillons de la chaîne.

Finalement, les smartphones compatibles 24 bits / 192 kHz comme le nouveau HTC A9 ou le Marshall London mais également 24 bits / 96 kHz sur certains smartphones Xperia de Sony ont peut-être d’autres arguments à faire valoir. C’est par exemple le cas de la double sortie casque du Marshall London ou ses haut-parleurs stéréo très puissants. Encore faut-il que l’ensemble de la chaîne soit compatible et que l’argument de l’audio HD ne soit pas simplement marketing, avec un traitement logiciel réalisé en 16 bits.

Dans tous les cas, l’audio HD est une bonne chose selon moi. Cette mode tire en effet l’industrie mobile vers le haut, puisque même si la différence entre un son HD à 24 bits / 192 KHz et un son « standard » à 16 bits / 44,1 KHz est inexistant pour certain et léger pour d’autre, il n’a pas vraiment d’effet négatif. Le seul que l’on pourrait citer est le prix facturé par les catalogues musical pour bénéficier d’une source audio en HD. Mais comme on l’a vu, même sans source HD, les 24 bits peuvent améliorer l’expérience audio sur smartphones. Toutefois, avant de vouloir à tout prix un smartphone supportant la musique HD, il vaut mieux investir dans un bon système d’écoute. Le bond en qualité sera largement supérieur à celui permis par la musique en HD.

 

Votre intérêt pour l’audio de qualité ?

Il est bien entendu possible de mesurer la capacité des smartphones à jouer nativement de la musique 24 bits sur un smartphone et une tablette, tout comme de nombreux autres indicateurs de qualité (comme le rapport signal bruit notamment). À nous, donc, de vous poser une question : seriez-vous intéressé à l’idée de savoir si les appareils que nous testons sont réellement compatibles 24 bits / 192 kHz, de connaître la puissance de leur sortie casque et la qualité de cette dernière, tout comme la latence audio (extrêmement importante pour les amateurs de MAO) ? Si c’est le cas, nous pourrions creuser l’idée de créer un protocole de test objectif pour la partie audio.


Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !

Les derniers articles