Le HDR, mode d’emploi

Le High Dynamic Range, ou large gamme dynamique, est une technologie visant à améliorer le contraste lumineux de l’image. Derrière ces termes, se cachent de [...]
Brick au clair de lune, une marine photo de Gustave Le Gray, pionnier du HDR. © DR

Le High Dynamic Range, ou large gamme dynamique, est une technologie visant à améliorer le contraste lumineux de l’image. Derrière ces termes, se cachent de nombreuses réflexions technologiques agrémentées d’une « inévitable » guerre des formats.

Les normes du signal vidéo sont issues de technologies historiques, aujourd’hui dépassées. Chaque composante du signal vidéo (RVB ou YCbCr) est définie sur 8 bits, soit un maximum de 256 niveaux entre les zones les plus lumineuses et les plus sombres. Cet échelonnement (quantification) du signal lumineux était suffisant pour les écrans à tubes cathodiques et leur luminosité maximale de 100 nits (100 candelas/m2). Alors que les caractéristiques dynamiques des caméras ont très sensiblement évolué, notamment grâce aux grands capteurs (14 diaphs pour certains modèles), la plage dynamique des images doit être compressée selon les limites de la SDR (Standard Dynamic Range).

 

Quelles sont les capacités dynamiques de l’œil ?

L’œil collabore avec le cerveau pour analyser dynamiquement le monde qui nous entoure. Cela rend la comparaison des caractéristiques matérielles (caméras) et humaines délicates. Pour vulgariser, on peut assimiler la rétine au capteur d’une caméra. Les cellules qui la composent sont de deux types : les 120 millions de bâtonnets sont plus sensibles aux faibles lumières, les 6 millions de cônes étant eux responsables des informations colorées. Ces cellules sont réparties de manière non homogène sur la rétine avec une zone centrale de 2 mm2 environ, riche en cônes et bâtonnets : la macula et la fovéa, une zone encore plus resserrée contenant uniquement des cônes. Les bâtonnets sont actifs à faible luminosité (vision scotopique – de nuit) et les cônes en journée (vision photopique). La vision mésopique, combinaison des deux précédentes, mobilise les cônes et les bâtonnets.

L’œil peut discerner des éléments lumineux depuis 0,001 lux jusqu’à 10 000 lux, soit un rapport de 1 à 10 millions, ou 26 diaph (une augmentation d’un diaph représente un doublement de la luminosité – ce terme est plus représentatif du fonctionnement de l’œil qui répond à la lumière de manière logarithmique). Cette valeur est la plage de contraste statique de l’œil. Mais à un même moment, l’œil est capable de percevoir une dynamique plus réduite d’environ 10 diaphs (1 pour 1 000) : c’est sa plage de contraste dynamique. Cependant, en analysant les différentes zones de l’image par balayage, le duo œil-cerveau présente un contraste plus important, estimé à approximativement 14 diaphs.

 

Un peu d’histoire : les débuts du HDR en photographie

En photographie, le procédé HDR consiste en la prise de vue d’un ensemble de clichés (entre trois et neuf) avec des expositions différentes. Un traitement en postproduction permet d’obtenir une image dévoilant les ombres, les hautes lumières, et la large plage tonale de la scène d’origine. Avec cette technologie, un re-mappage des différentes zones tonales est effectué vers un médium de « diffusion » proposant une gamme dynamique plus limitée. Pour afficher ces photos HDR, les écrans informatiques ne nécessitent pas de caractéristiques particulières. Cette technologie permet la création d’images réalistes ou au contraire surréalistes et stylisées.

 

Le HDR et la télévision

Les téléviseurs HDR doivent disposer au minimum d’un affichage 10 bits (1 024 nuances par composante). Ils doivent également permettre l’affichage de zones lumineuses beaucoup plus importantes qu’en SDR. Même si le terme HDR côtoie les icônes 4K ou Ultra HD, c’est une technologie indépendante de la résolution ; des contenus HD peuvent être HDR. Le HDR offre un plus grand contraste entre les tons sombres et les hautes lumières, un étagement tonal plus fin et des hautes lumières plus saturées ; une image plus réaliste. Le gain apporté par le passage de la HD au HDR est généralement perçu comme plus important que celui du passage de la HD au 4K SDR.

Le contraste mesure l’écart entre les plus hautes lumières qu’un téléviseur peut diffuser et la luminosité du noir le plus sombre, valeurs exprimées en nits (cd/m2). La technologie Oled propose actuellement les noirs les plus profonds, puisqu’elle est la seule à permettre l’extinction complète de chaque pixel. En définition standard, les luminosités maximales des téléviseurs se situent entre 300 et 500 nits. Les modèles HDR actuels les plus haut de gamme proposent des pics de luminosité à 2 000 nits ; certains prototypes atteignent 10 000 nits de luminosité maximum. Les noirs sont le point fort des écrans Oled, mais ce sont les LCD qui proposent la plus forte luminosité. La technologie Qled est une bonne alternative.

 

L’UHD Alliance

Les premiers prérequis pour le matériel HDR ont été écrits par l’UHD Alliance (groupement d’industriels dont Samsung, LG, Sony, Panasonic et Dolby) à l’occasion de l’annonce de la mise en place de la certification commerciale et du logo Ultra HD Premium en avril 2016 pour les lecteurs Blu-ray UHD : le signal vidéo doit être encodé avec une quantification de 10 bits minimum et les téléviseurs doivent proposer des pics de luminosité jusqu’à 1 000 nits (pour prendre en compte les caractéristiques des écrans Oled, la certification impose deux niveaux de luminosité extrêmes selon les possibilités dans les noirs des écrans : soit pour un niveau de noir inférieur à 0,05 cd/m2, un pic de luminosité supérieur à 1000 cd/m2 ou pour un niveau de noir inférieur à 0,0005 cd/m2, un pic de luminosité supérieur à 540 cd/m2).

 

HLG, HDR10, HDR10+, PQ, Dolby Vision

En SDR, les hautes lumières sont très souvent compressées, dans la caméra et en postproduction. C’est essentiellement pour optimiser ces hautes lumières que la réserve de luminosité est exploitée en HDR.

Deux choix (si j’osais, je dirais deux visions) s’affrontent.

Dolby Vision et HDR10

Les technologies Dolby Vision, HDR10 et HDR10+ font appel à des métadonnées pour piloter l’écran afin d’afficher correctement l’image en fonction de ses caractéristiques, de celles de l’écran utilisé pendant l’étalonnage du programme et de celles de l’écran final. Dolby Vision a été le pionnier du HDR. Cependant, l’important coût financier des licences et du matériel Dolby nécessaires pour la postproduction et l’étalonnage des programmes, mais également imposé aux constructeurs de télévision à qui Dolby demande le paiement de royalties importantes pour l’utilisation de sa technologie Dolby Vision, a incité de nombreux industriels (dont Samsung, LG, Sharp, Sony, Vizio…) à adhérer au standard HDR10 concocté par la CTA (Consumer Technology Association, également éditrice du CES, le Consumer Electronic Show).

HDR10 est ainsi devenu le format le plus populaire actuellement, même si sur le papier le format Dolby Vision est plus ambitieux avec une quantification vidéo en 12 bits. En SDR, les composantes de l’image vidéo sont corrigées avec une courbe de gamma mise en place à l’origine de la création du signal de télévision pour compenser la non-linéarité de réponse à la lumière des tubes cathodiques. En HDR, la courbe de gamma est remplacée par une fonction de transfert PQ (Perceptual Quantizer) ou Hybrid Log-Gamma (HLG). Pour désigner les fonctions de transfert PQ ou HLG, vous trouverez également dans la littérature consacrée au HDR le terme EOTF qui signifie electro-optical-transfer-function. C’est Dolby Vision qui est à l’origine du Perceptual Quantizer publié sous la référence SMPTE ST 2084. Cette fonction de transfert permet l’affichage de vidéo HDR avec une luminosité pouvant atteindre 10 000 cd/m².

En résumé, la norme Dolby Vision utilise la fonction de transfert PQ, une quantification des composantes couleurs sur 12 bits, un espace colorimétrique Rec.2020 et des métadonnées dynamiques. Les écrans de référence qui doivent être utilisés pour la préparation de programmes Dolby Vision doivent également présenter actuellement un pic de luminosité de 4 000 cd/m² minimum (avant que des écrans plus lumineux soient disponibles). Le format HDR10 Media Profile utilise également la fonction de transfert PQ et l’espace colorimétrique Rec.2020, mais avec une quantification des composantes couleurs 10 bits, un sous-échantillonnage chromatique 4:2:0 et des métadonnées statiques SMPTE ST 2086, MaxFALL, et MaxCLL. Pour le HDR10+ les métadonnées sont dynamiques comme avec le Dolby Vision ; les contrastes sont plus saisissants et variables d’une scène à l’autre ou d’un plan à l’autre. Le HDR10+ et le Dolby Vision imposent l’utilisation de matériel compatible, mais le HDR10+ reste libre de droit.

Hybrid Log Gamma ou HLG ?

C’est un format développé conjointement par la BBC et la NHK dès 2014 avec deux objectifs : disposer d’un format diffusable en live sans postproduction et directement compatible avec les téléviseurs SDR. Le format HLG ajoute au signal SDR des informations pour le rendu du signal HDR sur les téléviseurs compatibles. Il utilise deux fonctions de transfert, les basses lumières sont décrites par une EOTF similaire au « gamma » du SDR (pour la compatibilité) ; les hautes lumières étant gérées par une courbe logarithmique.

Les broadcasters anglais et japonais souhaitaient éviter un format intégrant des métadonnées pouvant être perdues « en route », ou un codage trop complexe non synchronisé avec les images potentiellement responsables de dérives des couleurs. Le HLG peut même être affiché sur les anciens téléviseurs, HD ou SD. La majorité des équipements actuels des studios étant également compatibles HLG, moyennant quelques ajustements.

 

Le HDR offre des images plus lumineuses que le SDR ?

Les images HDR ne sont pas prévues pour être « globalement » plus lumineuses. La réserve lumineuse par rapport aux moniteurs SDR est dédiée aux détails dans les hautes lumières : les réflexions, les flammes, les détails dans les nuages. Il reste possible d’utiliser la luminosité disponible via cette technologie selon ses envies, mais ce serait souvent contreproductif par rapport aux ambitions initiales du HDR. De nombreux téléviseurs et moniteurs HDR ne permettent d’ailleurs l’affichage des plus hautes lumières que sur une zone restreinte de l’image.

En SDR, les programmes sont étalonnés sur des écrans calibrés autour de 100 à 120 nits de luminosité maximum. Cependant la technologie SDR étant « relative », lorsque l’on visionne les images sur un écran SDR récent avec une luminosité maximum jusqu’à 500 nits, sous des conditions d’éclairage ambiant assez importantes, l’étagement des zones tonales de l’image s’adapte à ce réglage.

La technologie HLG étant elle aussi « relative », elle permet également une adaptation de l’affichage à l’éclairage ambiant. Pour les technologies comme Dolby Vision, HDR10 ou HDR10+, la description absolue des luminosités de l’image prévue dans les métadonnées n’est pas pensé pour permettre une adaptation de l’affichage aux conditions d’éclairage. Cela pourra être le désavantage de ces technologies pour la visibilité des images sous des éclairages intenses comme on peut en trouver dans un séjour lumineux. Ces technologies seront à l’opposé très précises et réalistes, notamment le Dolby Vision et ses 12 bits, pour l’expérience d’un vidéophile possédant un home-cinéma correctement calibré.

 

Le HDR au cinéma avec Eclair

La solution Eclair Color, destinée aux salles de cinéma, combine la préparation d’un master dédié et l’optimisation de projecteurs de cinéma numériques Sony Digital Cinema 4K et Barco. Eclair souligne que les étapes de création du HDR étant faites pendant la réalisation du master, rien ne change au tournage. Le master est réalisé sous le contrôle artistique du réalisateur et du chef opérateur pour conserver les intentions initiales.

 

Pour profiter du HDR

Il faut choisir une source et un écran compatibles. Les Blu-ray peuvent être encodés en HDR10 ou en Dolby Vision. Netflix propose des films HDR aux formats de streaming Dolby Vision et Ultra HD Premium (HDR10). Pour en profiter, il faut disposer d’un abonnement Netflix quatre écrans, d’une qualité de streaming définie surélevée, ainsi que d’un débit de connexion à Internet suffisant et stable de 25 Mbits/sec minimum pour un visionnage HDR 4K de qualité. Avec un débit inférieur, vous pouvez visionner des films HDR avec une résolution inférieure.

 

Parlons normes

La recommandation ITU-R BT.2020 (ou Rec. 2020) définit les résolutions UHD (3 840 x 2 160 et 7 680 x 4 320) et un espace colorimétrique élargi (WCG) par rapport à la recommandation Rec. 709 de la HD. La principale recommandation ITU-R concernant le HDR est la Rec. 2100 publiée en juillet 2016. Elle concerne la HDTV 1080p et l’UHDTV 4K et 8K. Les primaires de l’UHD HDR restent les mêmes que pour la SDR (Rec. 2020), mais les fonctions de transfert sont différentes. Deux versions sont définies dans Rec. 2100, la fonction PQ (Perceptual Quantizer) préalablement standardisée sous la norme SMPTE ST 2084 et la fonction HLG (Hybrid Log-Gamma) standardisée sous la norme ARIB STD-B67. Rec. 2100 définit l’utilisation de composantes RGB, YCbCr ou ICtCp. ICtCp est un nouvel espace colorimétrique optimisé pour le HDR et le WCG (wide color gamut – espace colorimétrique étendu). La technologie HDR est peut-être plus difficile à expliquer au grand public, comparativement à l’augmentation du nombre de pixels, mais une démonstration suffit souvent à convaincre de son intérêt.

 

POURQUOI DOLBY UTILISE DU PQ POUR LE HDR

Si depuis les années 30 la courbe de correction perdure, c’est qu’en plus de répondre à un besoin technologique, elle est représentative de la réponse logarithmique de l’œil à la lumière. L’écran cathodique est un grand tube en verre sous vide d’air, un canon à électrons envoie ces derniers vers la surface de l’écran. Les luminophores tapissant l’écran réagissent à ce bombardement d’électrons en créant de la lumière.

L’intensité lumineuse est liée à la tension émise aux bornes du canon à électrons, avec une réponse non linéaire, le fameux gamma I = Vs où I est la luminosité de l’écran et Vs la tension source aux bornes du canon à électrons. Aux débuts de la télévision, la correction de gamma qui permettait de retrouver la linéarité du signal retransmis avait été implémentée au sein des caméras pour éviter d’alourdir le prix des postes de télévision. La correction suivait sensiblement l’équation suivante Vs = Vc = Vc0,45. La correction de gamma valait 0,45 pour un gamma de 2,4. Les véritables équations décrivant le signal vidéo sont un peu plus complexes ; avec notamment une réponse différente sur le début de la plage lumineuse.

Le gamma fonctionne très bien, pourquoi le changer ?

Il fonctionnait relativement bien pour des écrans à niveaux de luminosité relativement bas et avec une plage de dynamique restreinte. C’est pour cela que des courbes de transfert (EOTF) ont été mises au point pour le HDR. Les travaux de Barten sur la sensibilité au contraste de l’œil humain ont notamment servi à l’élaboration du PQ. Le but étant d’optimiser l’encodage du signal pour qu’une quantification relativement modeste (12 bits pour le Dolby Vision; 10 bits pour le HDR10 et le HDR10+), suffise à présenter à l’œil des échelles de tons qu’il ne percevra pas (pour éviter la dégradation de la qualité perceptive de l’image).

 

Article paru pour la première fois dans Moovee #1, p.66/70. Abonnez-vous à Moovee (4 numéros/an) pour accéder, dès leur sortie, à nos articles dans leur intégralité.