“Un jour dans la vie de Billy Lynn” – Immersion totale !

Ang Lee a réalisé son second en film en 3D en repoussant les limites techniques puisqu'Un jour dans la vie de Billy Lynn (qui a pour titre original Billy Lynn’s Long Halftime et qui sortira en salles le 1er février) a été tourné en 3D, 4K et en HFR (120 i/s). Un défi colossal à relever en termes de volumétrie de données et d’exploitation cinématographique en salle. Les premières images du film ont été présentées à Las Vegas lors du NAB 2016 puis sur l’IBC, à Amsterdam. Nous avons suivi l’évolution de la production et de la postproduction de ce projet cinématographique, qui est sans doute l’un des plus excitants de ces dernières années...
film-billy-lynns_OK.jpg

 

Nous avons commencer par interviewer, en juillet dernier, Demetri Portelli, stéréographe de renom, et Derek Schweickart qui a aidé à la conception du laboratoire numérique présent dans les bureaux d’Ang Lee à New York. Ce un travail d’équipe n’aurait pas pu voir le jour sans l’implication des équipes techniques coordonnées par nos deux interlocuteurs, mais également Ben Gervais, responsable technique du film, qui collabore avec Demetri depuis Resident Evil 4.

 

Mediakwest : Qu’est-ce qui a donné, à votre avis, envie à Ang Lee de faire un second film en 3D après Life of Pi ?

Demetri Portelli : En tant que stéréographe, je pense qu’Ang Lee a réalisé un premier film en 3D, a compris et intégré les limites de cette technologie, et a cherché donc un moyen de produire un nouveau film en explorant plus loin les possibilités créatives de la 3D. Il avait envie de poursuivre cette aventure qui selon lui était inachevée. Il avait fait des tests d’images en HFR, et il se rendait compte qu’un taux d’image plus élevé était absolument nécessaire pour la 3D.

Nous avions auparavant de gros problèmes avec la fréquence d’images (24 i/s), qui nous pénalisait qualitativement. Nous avions des effets de « motion blur » et de « strobe ». Nous ne pouvions pas exploiter tout le potentiel de la 3D. Dès lors, tout le monde savait qu’une fréquence d’image plus élevée, de 48 ou 60 i/s, était préférable, mais pour Billy Lynn notre superviseur technique Ben Gervais a décidé de faire le tournage entièrement à 120 i/s : ce nombre est divisible par 24, ce qui nous a permis de proposer des versions à 24 et à 60 i/s. Je pense que c’est aussi une question de perception : avec deux projecteurs à 120 i/s pour chaque œil, la quantité d’informations envoyées au cerveau est très différente, et l’expérience de la 3D est donc plus immersive que celle d’un film à 48 ou 60 i/s.

Ang Lee a compris que 120 i/s était un « nombre d’or » et que c’était nettement mieux de filmer ainsi qu’en 60 i/s (simultanées ou non simultanées). Il y a plus d’images et plus d’informations pour les yeux et le cerveau. La netteté des images entre en jeu, mais également la luminosité, avec les projecteurs laser qu’utilisent actuellement les salles de cinéma.

 

Mediakwest : Quel workflow de tournage avez-vous utilisé ?

Demetri Portelli : Pour la 3D, j’ai l’habitude de travailler avec des optiques convergés en 3D que j’ajuste dynamiquement (entraxe), à côté de mon réalisateur. Ben assurait le monitoring 3D et la cohérence du workflow 3D, de la prise de vues à la postproduction. Pour de nombreux films précédents, j’ai utilisé les équipements de James Cameron et Vince Pace (solution Hardware et Software), et ce film fut le premier pour lequel nous avons utilisé Stereotec, en collaboration avec le stéréographe munichois Florian Meier, qui a conçu ces rigs. Nous avons été très satisfaits de ses rigs 3D ; c’est un très bon ingénieur qui a créé des rigs robustes. Les caméras étaient des Sony F65 avec des objectifs Master Prime, qu’Ang Lee avait déjà utilisés pour L’odyssée de Pi et que nous avions utilisés avec Ben Gervais sur le film de Jean-Pierre Jeunet, T.S. Spivet.

Une grande difficulté, avec ce film, était de comprendre comment nous allions filmer à 120 i/s alors que nous ne pouvions visionner sur le plateau qu’à 60 i/s. Nous avons donc organisé plusieurs journées de tests, et une semaine avant le début du tournage nous avons enfin reçu deux projecteurs laser Christie, ce qui nous a permis de visionner nos images à 120 i/s, en 4K et à 28 foot-lamberts [= 96 cd/m²], et c’est donc juste avant de commencer à tourner que nous avons vraiment pu voir ce que nous créions. Avant cela, le projet était seulement théorique, pour tout le monde : directeurs artistiques, maquilleurs, costumiers…

Moi-même, je savais d’après les tests de James Cameron qu’un tournage à 60 i/s produisait de bien meilleures images qu’à 48 i/s, qui était le taux utilisé pour Le Hobbit. Non pas que Le Hobbit soit à critiquer, mais à 60 i/s les résultats sont simplement meilleurs avec moins de strobe. En tout cas, ce n’est que lorsque nous avons pu utiliser les deux projecteurs Christie que j’ai pu voir des images à 120 i/s et comprendre à quel point cette technologie est incroyable : le cerveau doit faire une pause et aborder les images comme quelque chose d’entièrement nouveau.

C’était donc difficile pour nous, parce que le processus est coûteux pour un petit film – notre budget était de 50 millions de dollars –, donc il était important de faire appel à des experts et de tout faire en interne. Nous avons donc mis en place notre propre laboratoire et notre propre salle de projection, et pour la postproduction nous n’avons pas fait appel à Technicolor ou à Deluxe ; en faisant tout en interne, nous avons pu créer toutes les différentes versions, contrôler le taux d’image et mieux comprendre le Digital Intermediate.

Tout le travail a donc été fait dans le bureau d’Ang Lee à New York, ce qui était incroyable… mais également difficile, car c’était la première fois que nous faisions un film avec autant d’informations visuelles : le taux d’image est multiplié par 5, la résolution par 4 avec la 4K, et la 3D double le nombre d’images, soit au final une quantité d’informations visuelles et de données 40 fois plus importante !

Nous utilisions donc l’outil informatique de manière particulièrement intense, ce qui nous a permis de compléter le tournage en 49 jours seulement, et Ang Lee a pu réaliser sa vision du potentiel de la 3D. Ce n’est d’ailleurs pas qu’une question de 3D, mais de découverte d’un nouveau cinéma numérique.

Quand j’ai essayé de parler d’Hugo avec Ang Lee, il m’a dit : « Je ne veux pas parler d’Hugo avec toi, Demetri, parce qu’en faisant un film avec la caméra numérique Alexa tu as essayé – comme tant d’autres – de produire les mêmes images qu’avec une caméra traditionnelle ; mais nous sommes maintenant dans un cinéma numérique, et nous devons explorer ce nouveau territoire et découvrir le potentiel des images que nous pourrons créer ! »

Il souhaite vraiment expérimenter avec une nouvelle technologie et les possibilités qu’offre ce format, même s’il n’envisage pas encore d’écrire un livre à ce sujet. Il m’a dit qu’il y penserait après avoir fait trois films en 3D ! Je lui avais demandé de participer à un ouvrage, mais il attend d’avoir une meilleure compréhension du sujet. Ang Lee souhaite faire un nouveau film en 3D après Billy Lynn, et continuer de filmer à 120 i/s et en 4K pour explorer ce nouveau format, ce qui est formidable. Il a le sentiment que nous commençons tout juste à comprendre le futur du cinéma numérique 3D.

 

Mediakwest : Comment s’est déroulé le tournage ?

Demetri Portelli : Nous avons fait le tournage à Atlanta (Géorgie) et à Arfoud (Maroc). Le tournage en 3D au Maroc était éprouvant pour les caméras numériques, à cause de l’environnement très sec et du sable, mais grâce à notre technicien qui nettoyait l’équipement tous les soirs, tout s’est très bien passé. Nous avons aussi utilisé la 3D Wireless pour la première fois : les caméras étaient installées dans une voiture ou dans un Humvee ; Ang Lee et le chef opérateur, John Toll (ASC), les contrôlaient depuis un autre véhicule qui les suivait, en utilisant un moniteur de 55 pouces. Ang Lee pouvait donc contrôler directement les Rigs.

Nous avons fait un test à Atlanta avant le tournage au Maroc. Nous sommes donc très satisfaits d’avoir réussi à tout filmer de manière efficace, en 49 jours, avec la possibilité de voir les images en 3D en direct pendant le tournage, tout en produisant un résultat final de qualité. Tout le monde travaille en 3D, y compris le réalisateur : c’est également ce qu’a fait Jean-Pierre Jeunet, qui a même ajouté une mention que j’apprécie sur l’affiche de T.S. Spivet : « Réalisé en 3D ».

Le directeur photo et le réalisateur travaillent directement en utilisant ce nouveau média, ce qui n’est pas le cas pour les films tournés en 2D, puis convertis en 3D en postproduction : l’utilisation de la caméra, la réalisation et le montage ne sont pas adaptés à la 3D. Mais lorsque le tournage est effectué entièrement en 3D, la technologie est prise en compte à chaque étape du projet.

 

Mediakwest : C’est totalement bluffant de gérer autant de données, quel workflow avez-vous utilisé ?

Demetri Portelli : Je vais laisser la parole à Derek Schweickart, qui nous a aidés dans la conception de notre laboratoire et notre studio de postproduction numérique ici à New York. Il a travaillé sur L’odyssée de Pi avec Ang Lee, et il a utilisé les équipements Cameron Pace avec moi pendant plusieurs années ; nous nous connaissons très bien.

Derek Schweickart : Il n’y avait pas de workflow existant et disponible au début du projet ; nous l’avons créé de A à Z. Le premier grand obstacle à surmonter a simplement été le volume de données produit par un tournage à 120 i/s, et ensuite il y avait les variations de fréquence d’images : nous tournions à 120 i/s, puis le montage était fait à 60 i/s – ce qui nécessitait une conversion –, puis il fallait revenir à 120 i/s pour la conformation. Autant d’étapes que nous avons dû concevoir nous-mêmes, tout en conservant les informations stéréoscopiques, ce qui n’était pas nécessairement évident car les caméras n’étaient parfois pas parfaitement synchronisées. Nous avons donc mis en place une base de données avec notre directeur technique, mais il n’existait pas de modèle que nous pouvions suivre.

L’autre volet du problème est le workflow de production proprement dit, puis il y a la distribution et le DI qui doivent prévoir de nombreux formats différents : certaines salles projettent à 24 i/s en 2D et en 3D, tandis que d’autres sont capables de projeter à 60 i/s, mais les technologies ne sont pas standardisées. Il y a Imax, Dolby Vision, RealD, les projecteurs Sony… et certains procédés de postproduction sont mieux adaptés à l’une ou à l’autre plate-forme ; donc nous devions prévoir de nombreuses combinaisons.

Demetri Portelli : Je précise que nous n’avons pas fait de version Imax de Billy Lynn. Nous travaillons beaucoup avec Dolby, et nous utilisons leurs lunettes pour le DI. J’espère que nous pourrons nous rendre chez Dolby à Los Angeles en septembre, pour faire une version HDR. Notre tournage produisait en moyenne 7 To par jour, et le laboratoire de Derek au Maroc devait traiter les rushes très rapidement pour nous les montrer le lendemain. Il a fallu beaucoup d’énergie et de passion pour être en mesure d’embarquer dans un avion pour le Maroc, puis de tourner et de visionner des rushes en 3D à peine deux jours plus tard. Mais nous y sommes arrivés !

 

Mediakwest : Quels outils avez-vous utilisés ?

Derek Schweickart : Pour les rushes, le workflow faisait appel à une combinaison d’outils, notamment des produits Adobe et Colorfront ; mais de manière générale, notre partenaire le plus précieux a été Filmlight.

FilmLight nous a apporté un soutien inestimable, et nous a construit un équipement unique au monde, capable de traiter des contenus 4K en 3D à 120 IPS. Je ne pourrais pas imaginer un autre outil qui nous aurait permis d’atteindre nos objectifs, cela aurait été impossible. Je tiens vraiment à souligner à quel point l’aide de FilmLight a été exceptionnelle. Qu’il s’agisse des couleurs, de la conformation, de la flexibilité de leurs outils, des interactions avec l’équipe d’assistance… ils sont les meilleurs du marché, et j’ai beaucoup d’expérience avec les outils de pointe dans ce domaine.

Pour ce qui est du stockage, il n’y a rien de particulier à souligner, nous tâcherons de faire mieux la prochaine fois, mais ici encore la solution Baselight a été extrêmement performante. Notre équipe utilisait également un autre outil appelé Time Shaper – qui a récemment été acheté par RealD – pour fusionner les images.

C’était passionnant de découvrir le « langage » des taux d’image, qui n’avait jamais vraiment été exploré auparavant. Il y a beaucoup de possibilités, ce n’est pas simplement un choix entre 24 et 120 i/s. De nombreuses valeurs peuvent être utilisées, et Ang Lee cherche à découvrir en quoi cela change la manière de raconter une histoire et comment ce facteur influence le rapport entre le public et l’œuvre. C’est un travail en cours. À ce stade, nous n’avons pas encore tiré de conclusions définitives, mais je trouve ce processus d’exploration d’une nouvelle grammaire cinématographique vraiment passionnant.

 

* Cet article est paru pour la première fois dans Mediakwest #18, pp.22-24. Soyez parmi les premiers à lire nos articles en vous abonnant à notre magazine version papier ici


Articles connexes


Adobe et le cloud
 26 juillet 2020