HDR, du tournage à l’étalonnage : la parole à un étalonneur (Partie 5)

Afin de vous présenter des mises en œuvre et des réflexions concrètes autour des technologies du HDR, nous avons donné la parole à des acteurs de la production audiovisuelle et cinématographique française s’intéressant de près à cette évolution que nous considérons, avec eux, comme majeure. Après le passionnant échange que vous avez pu découvrir dans les colonnes du précédent numéro de Mediakwest*, et sur lequel vous avez été nombreux à réagir, nous donnons aujourd’hui la parole à un étalonneur suivant au plus près les techniques et usages artistiques. Rémi Berge est affectueusement surnommé par certains de ses amis Monsieur HDR.
1_Remi Berge en action sur le pupitre Blackmagic DaVinci advanced.jpg

 

Le HDR en quelques lignes

Le HDR, c’est une évolution technique du signal vidéo sur deux critères. Le contraste d’abord : jusqu’à aujourd’hui le signal vidéo était basé sur une valeur de luminance maximale définie à 100 nits, selon les possibilités des écrans à tubes cathodiques « de l’époque ». En HDR le contraste est largement augmenté et selon les normes et les technologies d’affichage et de production le niveau de luminance peut aller jusqu’à 10 000 nits. Le second critère qui évolue parallèlement est l’espace colorimétrique qui grandit également fortement passant du Rec. 709 pour la HD jusqu’au Rec. 2020. Pour plus de détails, nous vous invitons à lire nos précédents articles*.

 

 

Mediakwest : Quels types de films étalonnes-tu en HDR ?

Rémi Berge : Pour les longs-métrages, les seules solutions actuellement exploitées sont proposées par Eclair (EclairColor) et Dolby (DolbyVision). En France, il y a peu de projets « fiction » étalonnés en HDR. J’étalonne donc en HDR des documentaires et des magazines. J’ai également préparé des produits pour Apple TV, des boucles d’une heure sur l’Afrique du Sud, la Polynésie, l’Indonésie, etc.

 

 

M. : Nous avions échangé sur un projet de téléfilm (« Mon frère bien aimé » – production Neyrac Films) que tu devais étalonner en HDR ; qu’en est-il ?

R. B. : Sur ce téléfilm, nous avons fait des tests avec le directeur photo, mais à l’époque (en 2016), des problématiques de coût et le manque de maturité des outils nous ont contraints à abandonner l’idée. En effet, les exigences, notamment sur les tons « chair », nous auraient imposé la réalisation de deux étalonnages. À ce moment, l’intérêt porté à cette technologie n’était pas assez important et le différentiel en termes de cibles potentielles n’est pas assez intéressant.

Les productions peuvent être intéressées par le 4K HDR pour le potentiel de vente des programmes à Netflix, mais cela reste incertain. Le surcoût d’un étalonnage HDR lorsque votre principal client diffuse et demande du SDR n’est alors pas justifié. Sur ce projet, le directeur photo était attiré par l’idée, nous avons donc fait des essais en pensant réaliser le produit principal en SDR via un « downconvert ». Le résultat n’était pas à la hauteur d’un étalonnage spécifique SDR.

La conversion de films HDR en SDR est possible. Il existe même des outils dédiés, et les logiciels de postproduction permettent des transcodages depuis des sources encodées suivant une courbe PQ dans un espace Rec. 2020 vers des médias Rec. 709, Gamma 2,4 ; mais sans l’intervention d’un coloriste le résultat est très moyen. J’aimerais étalonner plus de fiction en HDR ; pour moi il n’y a pas de différence entre étalonner de la fiction et étalonner des documentaires.

 

 

M. : Quelle quantité de films étalonnes-tu en HDR ?

R. B. : J’étalonne beaucoup de films. Cette année j’ai étalonné douze 52 min. et sept 26 min. en HDR, dont de nombreux programmes d’excellente qualité pour The Explorers. C’est un tournant, je n’ai jamais autant étalonné en HDR ; avant ce n’était que des essais par-ci, par-là.

 

 

M. : Actuellement, quand tu fais un film en HDR, est-ce en supplément du SDR ?

R. B. : En fait, c’est l’inverse ! Ce sont les étalonnages SDR qui sont réalisés en supplément. Sur l’ensemble des films HDR que j’ai étalonnés, deux ont fait l’objet d’une version HDR, à partir du master SDR, au cas où. Tous les autres étaient une véritable demande d’étalonnage HDR.

 

 

M. : Quelle est ton expérience des différentes normes HDR coexistantes ?

R. B. : Il y a au moins « trois HDR ». J’ai fait des essais en HLG. La NHK et la BBC ont retenu cette norme, pour des raisons pratiques évidentes de rétrocompatibilité en diffusion. Deux téléspectateurs, l’un équipé en HDR et l’autre en SDR, pourront tous les deux profiter de la même source. La courbe hybride Log-Gamma s’adapte en effet toute seule dans le récepteur ; et cela fonctionne parfaitement. Cependant le rendu, tout en étant sensiblement mieux qu’en SDR est beaucoup moins bluffant qu’en HDR 10. Il y a une plus grande dynamique, mais on n’obtient pas l’effet « waouh » ! Pour Dolby, l’investissement financier conséquent dans les licences et la presque obligation de terminer son film chez Dolby freine considérablement son adoption.

Principalement, moi je fais du HDR 10 qui est le format le plus commun. C’est le format de postproduction pour préparer des masters destinés au pressage de Blu-ray par exemple ou pour du broadcast « hors live », du magazine ou du documentaire. Le format HLG de son côté a un intérêt ; c’est la seule solution pour faire du HDR en live : je ne vois actuellement pas d’autres solutions pour le live, même si le rendu n’est effectivement pas aussi bluffant qu’avec une courbe PQ.

Si on revient sur le Dolby Vision, ses grandes forces sont d’être encodé sur 12 bits, là où le HDR 10 se limite à 10 bits, et de pouvoir transporter les métadonnées indiquant les valeurs moyennes et maximales d’intensité lumineuse pour chaque plan du film. On peut donc dire qu’en HDR 10, 8 bits de quantification sont destinés à l’image « normale » et 2 bits sont dédiés aux hautes lumières : le signal de base (SDR) étant encodé uniquement sur 8 bits.

Avec les mêmes comparaisons, en Dolby Vision on dédie une plage de quantification de 10 bits pour l’image « traditionnelle » et 2 bits pour les hautes lumières. C’est pour cette raison que lorsque j’exporte mon master HDR 10, je le fais en 12 ou 16 bits plutôt qu’en 10 afin de m’octroyer une marge qualitative pour la réalisation de mon master SDR (préparé à partir du master HDR repris en source et découpé dans le logiciel DaVinci Resolve). Je pourrais réaliser l’étalonnage SDR à partir du projet d’origine, mais cela reviendrait finalement à étalonner à nouveau le programme et provoquerait un dépassement des limites de temps imposées par le budget.

 

 

M. : Quelles sont les contraintes sur les sources d’images qu’on te fournit pour étalonner un programme en HDR ?

R. B. : Les caméras sont les mêmes pour le HDR et le SDR, les modèles de caméras récentes disposent d’une plage dynamique suffisante. Mais les problématiques que l’on rencontre sont la très grande diversité et le mélange des médias fournis. Pour les magazines, il est courant de travailler à partir d’images issues de trois, quatre ou cinq caméras différentes ; et parmi elles on peut avoir des sources enregistrées dans l’espace colorimétrique réduit Rec. 709. Souvent une ou deux belles caméras sont utilisées, auxquelles viennent se greffer des appareils à la dynamique très éloignée, comme les stabilisateurs DJI Osmo. Il est alors nécessaire de réinterpréter ces médias pour adapter leur dynamique. On s’aperçoit alors très vite du manque d’informations : les hautes lumières sont brûlées. Le HDR supporte mal les aplats et le manque de matière obtenus.

 

 

M. : Il est de coutume de dire que le complément de dynamique apporté par le HDR est là pour offrir toute leur place aux hautes lumières plutôt que pour donner une luminosité générale plus grande à l’image, peux-tu nous préciser ce qu’il en est dans la pratique ?

R. B. : Si je peux me permettre cette comparaison : lorsqu’on a un grand lit, on a quand même tendance à s’étaler un peu dedans. Même si en théorie la dynamique supplémentaire est prévue pour les pics de lumière, lorsqu’on travaille en HDR on étalonne des images légèrement plus lumineuses qu’en SDR ; c’est souvent la demande des clients. Mais même si on me dit : « il faut que ça pète », je me limite parce que les images doivent rester naturelles et homogènes.

 

 

M. : En fonction de la technologie des écrans, seule une zone limitée peut être affichée en haute luminosité, notamment pour des raisons de limitation de consommation et d’écologie. Est-ce que c’est une contrainte pour toi ?

R. B. : Absolument pas, je n’ai pas envie de travailler avec des lunettes de soleil, et si je souhaite bronzer, je préfère aller dehors. Afficher des images à 1 000 nits sur une dalle entière présente peu d’intérêt. Cela doit juste être pris en considération pour des effets d’explosion par exemple. Lorsque dans certains films, on a demandé au monteur d’insérer des flashs au blanc, les écrans Oled réagissent bizarrement ; ils ne sont capables d’afficher ces images que pendant un très court instant ; l’écran a alors tendance à « pomper » ; d’autre part il faut garder à l’esprit que peu d’écrans grand public sont capables d’afficher plus de 800 nits (et encore moins sur toute leur surface).

Cela me permet d’évoquer le sujet de la place du blanc. En HDR, son niveau ne doit pas forcément être réglé à 100 %, et en est même sensiblement éloigné, contrairement au SDR. Je dois donc baisser les niveaux des « flashs au blanc ». La réflexion est la même pour les titrages, je règle leur luminosité à environ la moitié de la courbe de luminosité.

 

 

M. : Regardes-tu ce qui est produit en HDR, par exemple sur Netflix ?

R. B. : Nous regardons régulièrement des programmes HDR sur Netflix avec un écran grand public de qualité. Lors de notre dernier visionnage « critique », sur dix programmes HDR un seul nous semble avoir été étalonné en HDR au départ. Les autres ont certainement été « gonflés » en HDR avec pour résultat des images hyper agressives, des hautes lumières excessivement lumineuses, et des titrages « explosifs » : c’est de l’aberration commerciale.

Certaines productions commencent cependant à penser à la pérennité de leurs films. J’ai étalonné un documentaire diffusé sur Arte, donc en HD et en SDR. L’étalonnage HDR a été pensé pour les futures distributions : c’est un investissement. Pour ce documentaire, j’ai fait l’étalonnage en HDR suivi d’une passe en SDR à partir du master HDR. C’est pour moi la meilleure solution actuelle, tant technique que commerciale.

Je pourrais choisir de travailler en ACES (une technologie qui adapte le traitement du signal vidéo en fonction des caractéristiques des différents étages de la chaîne de production : sources, outils de travail, écrans, etc.) et de préparer deux sorties différentes en adaptant l’étalonnage, mais cela revient finalement quasiment à réaliser deux étalonnages différents.

Il serait également envisageable de travailler d’abord en SDR et d’étalonner le programme HDR dans un second temps. Dans ce sens, la problématique la plus importante se situe dans le passage de l’espace colorimétrique Rec. 709 à l’espace Rec. 2020, ou plus précisément à l’espace DCI P3 au sein de l’espace Rec. 2020 (cf. la suite de l’article).

Pour préparer l’étalonnage SDR à partir d’un master HDR il faut être attentif à la quantification du signal. Pour simplifier, on peut dire qu’en SDR, on travaille sur 10 bits de 0 à 1 023, alors qu’en HDR c’est très différent. La courbe PQ prévoit un niveau théorique maximum de 10 000 nits, qui ne sont pour l’instant affichés par aucun écran, le BVM X300 affichant 1 000 nits maximum.

Sachant que dans le signal du HDR on travaille le signal « habituel » dans une plage entre 0 et 300 nits, et que le reste est consacré au traitement des hautes lumières, on n’utilise qu’une petite partie de la plage de quantification pour la majorité du signal utile. C’est la raison pour laquelle je prépare mes masters HDR en 12 ou 16 bits avant d’appliquer ma courbe de réduction (LUT) sur le film entier et de faire une adaptation de l’étalonnage plan par plan. Dans ce sens, l’adaptation colorimétrique se passe plutôt bien.

 

 

M. : Tu te contrains dans l’espace colorimétrique DCI P3 pour l’étalonnage en HDR, peux-tu nous en expliquer la raison ?

R. B. : J’étalonne dans l’espace colorimétrique Rec. 2020, mais je me limite à l’espace DCI P3 à l’intérieur de cet espace Rec. 2020. Le matériel grand public n’affiche pas du tout le Rec. 2020 et même si de nombreux modèles récents s’en rapprochent, tous n’affichent pas l’entièreté de l’espace DCI P3 non plus, il en résulte trop de fausses couleurs en cas de sur-saturation. Les derniers modèles Oled le font. Mais l’espace DCI P3 est déjà bien plus large que le Rec. 709. Les couleurs situées entre le Rec. 709 et le Rec. 2020 sont des couleurs extrêmes, des verts très saturés et hyper lumineux.

Moi, cette contrainte ne me gêne pas beaucoup, je n’ai jamais senti mes couleurs se « tordre » sauf en cherchant volontairement les limites. À partir d’un fond coloré, en « tirant » sur les réglages, à partir d’un certain seuil on voit des choses étranges apparaître, des couleurs qui dérivent ou qui ne peuvent pas être affichées. Mais globalement pour les images « naturalistes » on ne ressent pas l’obligation, ni même l’intérêt d’un espace encore plus large. Sauf cas extrême, lorsqu’on filme par exemple un soleil de face avec des rouges flamboyants que l’on ne peut pas observer habituellement.

J’ai passé les vingt dernières années à étalonner des images et à essayer de les contraindre dans une dynamique et un espace colorimétrique relativement faible.

 

 

M. : Ne penses-tu pas qu’en travaillant avec un espace colorimétrique plus large tel que le Rec. 2020, tes clients et les spectateurs trouvent le rendu de l’image « trop vidéo » ?

R. B. : Associer le caractère cinématographique à la désaturation est uniquement « culturel » ; en effet l’espace colorimétrique du cinéma est plus large que celui de la vidéo. Dès que mes clients demandent un rendu vraiment cinématographique, très désaturé, c’est donc vraiment une notion « culturelle ».

Au cinéma, on fait ce qu’on veut. Les blockbusters tels que « Transformers » nous montrent des couleurs éclatantes sans que l’on se dise : « Hollywood, non, ce n’est pas très cinématographique ». Mais il est vrai que c’est une demande récurrente. Je viens de finaliser l’étalonnage d’un long-métrage où on m’a demandé un rendu Agfacolor. On m’a apporté des livres d’exemples du style voulu, et si on observe bien, les images présentées ne sont pas si désaturées que ça : notre étalonnage sera lui encore plus désaturé. Les couleurs un peu pastel servent à ramener à l’époque… Mais je ne sais pas pourquoi : les gens ne voyaient pas pastel à l’époque ! C’est un rendu… on se fait des films ! On peut aussi faire des films de cinéma avec beaucoup de couleur !

 

 

M. : Travailles-tu en HDR différemment dans ton rapport avec les équipes ? As-tu une interaction particulière avec la production ou interviens-tu uniquement à la fin en récupérant ce que l’on veut bien te donner ?

R. B. : On arrive de toute façon à la fin et on récupère ce qu’on nous donne. Ça a toujours été et ce sera toujours ainsi ! La discussion peut cependant débuter en amont. Les gens sont inquiets parce qu’ils ne savent pas ce qu’il est possible de faire. Tu peux alors leur montrer les possibilités offertes par le HDR ; mais les contraintes de production restent les mêmes. Un tournage peut par exemple débuter idéalement avec deux F55. Très souvent, pour répondre à des besoins supplémentaires, les équipes sont séparées pour couvrir plusieurs actions simultanées, ou filmer plusieurs sujets. Et du coup au lieu de deux F55 pour le champ et le contrechamp, la F55 principale est complétée par un appareil photo.

Le client est alors surpris de ne pas obtenir les mêmes images. C’est simple, tu as une belle image avec de la dynamique et l’autre avec des hautes lumières explosées, des aplats sur les carnations. Les fichiers issus de ces caméras sont en H264, souvent en 8 bits, offrant des possibilités très limitées. Donc tu es contraint à « pourrir un peu » la belle image pour essayer de la raccorder avec l’image de plus belle qualité ; le contraire étant impossible.

 

 

M. : Lorsqu’on te propose un projet HDR, demandes-tu des caméras particulières ?

R. B. : Je n’ai rien à imposer : ce que je peux dire c’est qu’en 12 ou 16 bits et en log c’est bien, en 8 bits et en Rec. 709 c’est très risqué, c’est beaucoup moins bien ! Ce langage, je l’ai toujours eu, parce que c’est toujours vrai, même si c’est encore plus vrai lorsque l’on prétend étendre ses images dans une plage dynamique plus grande.

 

 

M. : Et pour le montage, y a-t-il un workflow différent ?

R. B. : Pas du tout ! Les monteurs travaillent en Rec. 709 et voient l’image telle quelle. Contrairement au SDR où l’étalonnage de documentaires ou de magazines est souvent réalisé à partir d’un mixdown du programme préalablement découpé, pour le HDR je repars systématiquement des sources.

J’étalonne souvent sur DaVinci Resolve de Blackmagic Design. Comme le logiciel est disponible à moindre coût, les productions peuvent prendre en charge la conformation en interne et me fournir un projet prêt à l’emploi. Cela leur coûte moins cher.

 

 

M. : Peux-tu nous parler de ta configuration pour l’étalonnage des programmes en HDR sur DaVinci Resolve ?

R. B. : Je travaille donc sur une station DaVinci Studio de Blackmagic Design. L’écran est le modèle BVM-X300 de Sony. La majorité des programmes que j’étalonne en HDR est en 4K DCI (4 096 x 2 160) et en 50p. Les volumes de médias à traiter sont donc importants. Pour obtenir un affichage temps réel, je ne peux pas me contenter d’un iMac, ni même d’un iMac Pro. J’ai donc dû configurer une station Linux appuyée par un boîtier hébergeant plusieurs puissantes cartes graphiques.

Avec DaVinci, on peut choisir de travailler à partir de LUT (sortes de courbes appliquées au signal vidéo). On peut également utiliser un mode plus évolué, le DaVinci YRGB color managed. C’est un « mode de management colorimétrique » qui permet de choisir les Gamma et Gamut des sources, timelines et destinations.

Après avoir testé de nombreuses solutions, notamment via la fabrication de mes propres LUT, et le travail en ACES, je trouve que la solution la plus simple et la plus efficace est celle du color management. L’intérêt de l’ACES c’est de ramener les sources dans un espace colorimétrique commun, avec des transpositions d’espaces colorimétriques que je trouve assez efficaces. Mais le fait de travailler en ACES dans le logiciel modifie la réaction des outils ; je trouve alors que l’étalonnage peut devenir plus complexe à réaliser.

Je travaille dans une timeline contrainte en DCI P3, avec un point blanc D65. Le film est ensuite encodé dans l’espace Rec. 2020 dont on n’utilise du coup qu’une partie restreinte. C’est une demande des broadcasters, dont Orange et Netflix, et, à l’origine, des fabricants de téléviseurs, de ne pas dépasser l’espace DCI P3, limite des écrans actuels. On se contraint donc dans du P3 pour des raisons de matériel en bout de chaîne.

J’avais étalonné mes premiers films HDR dans l’espace Rec. 2020 total. En fait je ne débordais pas beaucoup de l’espace DCI P3. Ce qui est intéressant à observer cependant, c’est qu’au vu de la différence entre les deux espaces, on obtient en Rec. 2020 des couleurs étonnantes qui ne peuvent être créées que dans ce mode ; et je parle là non pas d’une saturation plus élevée des couleurs mais de tonalités et nuances différentes. Notamment dans les verts, dans les forêts, j’obtenais des résultats intéressants et un rendu très particulier.

Le matériel va évoluer, mais le Rec. 2020 ne va pas être disponible rapidement sur les téléviseurs grand public ; les pics de luminosité évolueront en premier. La luminosité est actuellement plus forte sur les écrans LCD, mais le rendu dans les noirs est beaucoup plus subtil avec les écrans Oled.

 

 

M. : Le HDR et le réalisme…

R. B. : Je trouve que d’afficher les images de façon naturelle est un véritable plus. Les hautes lumières ne sont pas encore celles de la vraie vie ; mais dans la vraie vie l’œil et le cerveau font usage de différents procédés d’adaptation pour s’adapter aux différences de lumières de la scène, et on ne souhaite pas que le spectateur doive fermer son iris pour voir une partie de l’image.

Avec le HDR, lorsqu’un point brillant est présent dans l’image, lorsqu’un reflet ou un flare traverse l’écran, on peut les afficher naturellement. Bien entendu on n’étalonne pas les visages à 1 000 nits. Un visage reste éclairé de la même manière en SDR et en HDR, on arrive facilement à le rendre correctement sur un écran. C’est lorsque l’on souhaite donner une certaine luminosité à une scène, une luminosité naturelle, que le HDR nous ouvre de nouvelles possibilités en nous évitant de tout compresser dans les hautes lumières. On dispose des « densités » depuis le début ; le fait de pouvoir afficher la dynamique, c’est vraiment bien.

Concernant l’espace colorimétrique disponible, plus il sera étendu, plus on sera heureux. Après on n’est pas obligé de s’étaler dedans copieusement ! En SDR, une fois posé le niveau lumineux des carnations, on compresse le reste au-dessus et on est systématiquement obligé de bricoler l’image pour afficher un ciel, pour conserver les hautes lumières ou éviter que les fenêtres en arrière-plan soient « brûlées ».

 

 

M. : Parlons artistique. Quelle est ta technique de travail sur le HDR ? Est-ce qu’on peut dire que tu étalonnes ton image de la même manière sur 70 % de ton signal et que c’est au-dessus que tout change ? Est-ce que toute ta méthode de travail est modifiée ?

R. B. : On peut dire ça ! Je fais à peu près la même chose dans le bas de la courbe. Mais on a quand même tendance à être plus lumineux, parce qu’on a plus de place et qu’on s’étale vite dedans ! Maintenant j’essaye de faire quelque chose de joli, l’outrancier ne m’intéresse pas. Il y a quelques années, les premières démos HDR sur les salons faisaient mal aux yeux. On te présentait deux images, avant/après, sur deux moniteurs. Et finalement tu te disais presque que tu préférais le … avant ! parce que l’après était « too much ».

Le HDR réduit le carcan, mais toutes les images ne sont pas naturellement lumineuses, et ne doivent pas être étalonnées exagérément lumineuses. Par contre, tu peux avoir des images denses et d’un seul coup un point lumineux qui apparaît peut vraiment être lumineux ! On reste cependant loin de la lumière naturelle. Dans la rue, le reflet d’un soleil sur une voiture est mesuré à 20 000 nits, loin des 1 000 nits que peut afficher un écran HDR actuellement.

 

 

M. : Tu fais une véritable veille technologique sur le HDR. As-tu suivi les évolutions matérielles pour le HDR dans les salles de cinéma ?

R. B. : Pour les salles de cinéma, Eclair pousse sa solution EclairColor. Mais au cinéma, les niveaux de luminosité sont naturellement beaucoup plus faibles, du fait de la projection, comparativement aux niveaux des écrans (moniteurs ou téléviseurs). En SDR le niveau du blanc est prévu à 48 nits seulement et en HDR à 105 nits. Une nouvelle génération d’écrans est en train d’arriver sur le marché. Ils sont constitués de panneaux à technologie Microled s’assemblant par modules pour créer des écrans de tailles variables. Ils permettent de dépasser les limites inhérentes à la projection. C’est inéluctable, à terme les écrans de projection n’existeront plus. Dans une salle de cinéma, on est dans le noir, donc 48 nits c’est bien en SDR, 105 c’est bien en HDR, mais pourquoi ne pas aller plus loin, 1 000, 4 000 nits, ou plus.

 

 

M. : As-tu opéré des changements dans ta salle d’étalonnage pour le HDR ?

R. B. : Il y a longtemps que j’ai arrêté de travailler dans le noir. Quand j’avais 20 ans, je travaillais dans l’obscurité totale, et je ne voulais surtout pas de lumière qui pût se refléter sur l’écran ; il est vrai cependant que les tubes étaient très sensibles aux reflets. Aujourd’hui j’étalonne avec une petite source lumineuse modulable placée au-dessus de moi, j’utilise également deux « phares réglables » correctement calibrés à 6 500K dirigés vers une toile (un écran de projection), au fond de la salle, derrière mon moniteur. Lorsque je travaille en SDR, je les baisse et je les monte en HDR. Une journée d’étalonnage en HDR étant déjà plus fatigante, c’est bien de se sauvegarder un peu.

 

 

M. : Pour illustrer nos propos, nous avons passé en revue quelques exemples de programmes étalonnés en HDR…

R. B. : Pour cet entretien, après une demi-heure à observer des images en HDR, le retour au SDR est difficile ; il provoque une sensation de manque. On a juste du mal à revenir en arrière. La tonalité des images reste la même, mais de nombreux éléments disparaissent ; il manque une impression de relief. Comme cette image d’un hélicoptère traversant de superbes paysages : en HDR on voit nettement la petite lumière clignoter ; elle disparaît totalement en SDR.

 

 

Un grand merci à Rémi Berge qui s’est prêté avec enthousiasme à ce grand débat technologique et artistique.

 

Article paru pour la première fois dans Mediakwest #31, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 

* LISEZ NOS AUTRES ARTICLES DÉJÀ PARUS DANS LE MAGAZINE MEDIAKWEST ET DISPONIBLES EN LIGNE :

 HDR : les premières clés du high dynamic range (partie 1)

• HDR : les nouveaux termes apparus (Partie 2)

• HDR : Comment peut-on en profiter ? (Partie 3)

HDR : Du tournage à l’étalonnage – La production (Partie 4)