Post

Nouvelles contraintes colorimétriques en production

À la fin des années 90, gérer une chaîne de signal vidéo n’avait jamais été aussi simple : le digital betacam et le SDI étaient omniprésents dans le monde broadcast, plus besoin de synchroniser les phases des magnétoscopes, et souvent on pouvait même se passer du genlock. Dans les régies de postproduction, les oscilloscopes disparaissaient, les nouveaux truquistes et monteurs ne sachant plus les lire. De plus, la HD promettait de régler les derniers problèmes liés aux conversions PAL/NTSC!
iStock_000021689986Medium.jpg

 

…Dans le monde prosumer/institutionnel, c’était encore plus simple : avec les liaisons firewire, on pouvait même s’affranchir du câble de remote RS422 pour capturer les cassettes depuis le caméscope dans le logiciel de montage.

 

La « magie numérique » avait fait son effet et, pour l’utilisateur peu regardant, la chaîne était transparente, car « digitale » ! Les caméscopes enregistraient une image vidéo prête à l’emploi et, sur les projets tournés en film, l’étalonneur façonnait le look sur son télécinéma et livrait une image vidéo. Pour lire une cassette, il suffisait d’avoir le bon magnétoscope, et tous restituaient aimablement le signal tel qu’il avait été enregistré. Le tout sur un moniteur CRT qui, si on prenait la peine de le régler correctement, pouvait restituer une image relativement proche de celle du moniteur de référence de l’étalonneur ou de l’ingénieur vision. Quel chemin parcouru !

 

Une évolution silencieuse

La complexité de la gestion colorimétrique est aujourd’hui un fait. Elle comporte deux aspects : la partie artistique, qui s’est largement développée sur les dix dernières années avec une image plus sophistiquée, et la partie technique, afin que les couleurs soient traitées et reproduites correctement.

 

La captation

Les caméras numériques actuelles sont capables de performances largement supérieures aux caméras vidéo classiques. Elles sont capables de capturer une grande plage dynamique et une large palette de couleurs, laissant énormément de possibilité pour le post-traitement de l’image. De plus, avec l’arrivée de l’UHD, les fabricants ont commencé à proposer des caméras polyvalentes, comme la Sony F55, qui peuvent être utilisées à la fois en production téléfilm/cinéma et en captation événementiel/plateau.

 

Le traitement

Depuis Apple Color et Blackmagic Resolve, plus personne ne penserait à livrer des images non étalonnées. D’ailleurs, elles seraient étrangement grisâtres et désaturées, car les nouvelles caméras enregistrent un signal « log » pour capturer plus de dynamique, mais chaque caméra a sa propre version. Parfois même les images sont « raw », c’est-à-dire directement issues du capteur sans post-traitement, ce qui donne une infinité de combinaisons pour interpréter cette image dans le logiciel de traitement, mais une seule correspond à la vision choisie au tournage.

 

En live également, le look évolue vers une image plus sophistiquée, entre les concerts et certaines émissions, en particulier musicales, et les mélangeurs vidéos proposent de plus en plus d’effets colorimétriques pour égaler ce qui se fait en postproduction.

 

La gestion colorimétrique est aussi plus compliquée en raison des multiples livraisons ou flux, sRGB pour le web, Rec 709 pour la vidéo HD, parfois un DCP en espace cinéma numérique DCI-P3 pour la publicité en salle et bientôt en iTU Rec. 2020 pour l’UHD, un espace colorimétrique qu’aucune technologie ne sait encore reproduire !

 

La restitution

L’affichage des images est également devenu problématique : les téléviseurs utilisent les technologies LCD, LED, OLED, Plasma et essaient de ressembler aux CRT disparus. Ceux-ci, d’ailleurs, ne respectaient pas la recommandation ITU-Rec.709, mais c’était surtout leurs limitations technologiques qui les faisaient se ressembler. Et maintenant que l’on sait que le client achète la TV la plus colorée et lumineuse, les constructeurs proposent des couleurs toujours plus « vivantes », allant jusqu’à proposer, comme Samsung, une LED jaune en plus des traditionnelles rouge, verte et bleue pour restituer plus de couleurs, toujours plus loin d’un hypothétique standard. Sans compter les mobiles où se consomme une partie de plus en plus importante de vidéo, où qualité d’affichage n’est pas souvent en haut du cahier des charges.

 

Une partie souvent sous-estimée est le fichier informatique : non seulement on ne sait pas s’il sera regardé sur un écran convenable, mais on n’a même plus l’assurance que le logiciel de lecture restituera les bonnes couleurs et les bons niveaux !

 

En effet, les codecs utilisés pour transporter et stocker les images sont loin d’être transparents : le même fichier, lu par deux players, différents peut présenter des différences significatives dans le rendu, et deux transcodeurs peuvent interpréter les niveaux de manière différente. Le ProRes, largement répandu à la fois à la captation et en fabrication, n’est presque jamais transparent dans les transcodages, même dans les logiciels Apple !

 

Les écrans de référence

Une question cruciale est la notion d’écran de référence : en effet, alors que la majorité des foyers est équipée d’écrans LCD, la disparité entre leur rendu colorimétrique est considérable. Le standard d’affichage ITU BT1886, sorti en 2011 et qui décrit précisément comment le signal Rec.709, doit être interprété par un écran et n’est implémenté sur les nouveaux téléviseurs que depuis très récemment.

 

Aujourd’hui, le marché semble s’accorder sur un consensus autour de l’OLED : même si c’est une technologie récente, elle présente un rapport de contraste important et moins de problèmes d’angle de vision que la technologie LCD. Cependant l’absence de moniteurs de référence de plus de 25’ reste un problème quand la valeur moyenne dans les foyers est de 39’ (source Display Search press.ihs.com Le plus souvent, dans les salles d’étalonnage vidéo, il est combiné avec un téléviseur de plus grande dimension. On trouve l’écran de référence Dolby PRM 4200 qui combine taille et précision, mais à un tarif réservé au marché haut de gamme.

 

Cette question se pose également pour les écrans de référence 4K/UHD où, pour l’instant, les offres (Panasonic, Canon, Sony) sont des 30’ LCD.

 

Une proposition, ACES

Le workflow ACES, proposé par l’Academy of Motion Pictures Arts and Science, propose une ges-tion unifiée de la colorimétrie, avec une façon standard d’interpréter les signaux, pour qu’un projet puisse passer d’un prestataire à l’autre de manière transparente si la chaîne colorimétrique respecte les standards.

 

Elle fournit une palette d’outils qui permettra, à terme, d’échanger des données de modification colorimétrique de manière cohérente, quels que soient la caméra, l’outil créatif et l’affichage utilisés. En effet, aujourd’hui, chaque fabricant de caméra propose son workflow de traitement colorimétrique qui rend le mélange de sources complexe.

 

Alors qu’il vient de sortir en première version release, le workflow ACES est implémenté dans la grande majorité des outils créatifs. Une des fonctions importantes est le traitement par défaut du signal des caméras afin de générer une image équilibrée et cohérente.

 

Quel serait l’intérêt d’un workflow ACES en broadcast ? Mélanger simplement le signal de différentes caméras, profiter du supplément de dynamique et de l’espace colorimétrique étendu des nouvelles caméras et livrer de manière automatique dans les différents formats : sRGB pour le web, Rec709 pour la HD, Rec2020 pour l’UHD, DCI-P3 pour les salles de cinéma, etc.

 

La calibration

Pour la calibration colorimétrique des affichages, les outils sur le marché sont devenus très performants, permettant d’automatiser sources et sondes pour des mesures rapides et fiables. Les sondes sont également plus sensibles, stables et rapides.

 

Du temps du CRT, le réglage était relativement simple, et des solutions automatiques étaient intégrées dans les moniteurs de référence, avec une sonde se branchant directement sur le moniteur.

 

Le process s’est aussi considérablement simplifié : les logiciels sont devenus conviviaux, en déroulant un script et en expliquant à l’utilisateur quels réglages modifier sur son affichage, voire prendre le contrôle du moniteur ou du projecteur pour les modèles de plus en plus nombreux à implémenter des CMS (Colour Management System) automatiques.

 

La disparité entre les rendus des différentes technologies d’affichage est cependant un réel défi technologique. Récemment, dans des outils traditionnellement utilisés en calibration vidéo comme Spectracal CalMAN ou Chromapure, on a vu apparaître des fonctions de génération de lookup tables 3D qui étaient précédemment utilisées dans des outils orientés cinéma numérique comme Lightspace, Truelight ou Cinespace. En effet, la réaction non linéaire et complexe des technologies d’affichage exige des outils bien plus performants pour mesurer un grand nombre de couleurs ; seules les LUTs 3D permettent de corriger les non-linéarités à la fois au niveau de la courbe de contraste et de la chromaticité, mais il faut s’assurer qu’elles aient la précision suffisante et que la chaîne de signal soit cohérente.

 

On trouve également des processeurs SDI ou HDMI abordables pour traiter le signal avec une LUT3D avec, par exemple, les modèles de chez Fuji ou Eecolor. Si ce n’est pas possible directement dans le logiciel ou dans le moniteur, le processeur peut corriger le signal avec une précision maximale, certains proposant même la génération de signal pour la calibration.

 

Finalement, le plus intéressant est de voir que le monde du home cinema est très en avance sur le monde professionnel au niveau de la calibration : il n’est pas rare de voir plus de soin apporté à la calibration d’un téléviseur qu’à une chaîne de fabrication !

 

Les outils de mesure

La mise en place d’une chaîne de contrôle qualité est un vrai défi : en effet, alors qu’il était simple de regarder le signal SDI qui passait d’un mélangeur à un écran et un magnétoscope, il en est tout autre avec le fichier qui est exporté d’un logiciel ou le stream qui sort d’un encodeur. Des solutions existent, comme Baton d’Interra mais elles sont loin d’être généralisées. La validation d’une chaîne d’encodage doit se faire en vérifiant toutes les étapes, et la variabilité liée aux logiciels est considérable.

 

Conclusion

Avec des caméras et des affichages toujours plus performants, la recherche d’un impact visuel fort, la gestion colorimétrique de la chaîne, aux niveaux artistique et technique, va encore beaucoup évoluer, aussi bien en production qu’en télévision où, pour les captations, les caméras utilisées aujourd’hui ont les mêmes capacités en dynamique que celles utilisées en cinéma. D’ailleurs de nouvelles solutions d’étalonnage live, comme Pion LiveScene, proposent des fonctions de correction bien plus avancées que celles des traditionnelles télécommandes de caméra CCU.

 

Une des clefs de la réussite cependant est la formation car tous ces nouveaux concepts mettront un certain temps à être compris par l’ensemble des acteurs de la chaîne…

 

Cet article a été rédigé par Cédric Lejeune est le créateur de Workflowers, www.workflowers.net, une société de conseil et formation spécialisée dans les workflows d’images numériques et la colorimétrie. Il est membre de l’International Colorist Academy, de la CST et de la SMPTE et co-organise le séminaire itinérant Colour Freedom Now. www.colourfreedomnow.com


Articles connexes