L’animation se presse aux RADI

Le succès de la cinquième édition des RADI (Rencontres Animation Développement Innovation), précédant les RAF (Rencontres Animation Formation), atteste de la belle dynamique du secteur (du 20 au 22 novembre derniers à Angoulême).
1_radi2019.jpg

 

Serait-ce parce que l’animation française demeure le premier genre à l’exportation ? La Charente est devenue la seconde région en France en nombre de studios d’animation (juste derrière Paris). L’ingénierie logicielle, portée par de jeunes équipes de développeurs, connaît en Hexagone une créativité sans précédent. Pour la première fois de leur jeune histoire, les RADI, qui traitent des techniques, ont fait salle comble (360 participants) et deviennent, à l’instar des RAF qu’ils introduisent, un rendez-vous incontournable pour la profession : des directeurs techniques aux directeurs de studios ou d’écoles d’animation, sans oublier les auteurs, les diffuseurs et les représentants d’organisations professionnelles ou institutionnelles.

Si les RAF, organisées par le Pôle Image Magelis, se concentrent plutôt sur les enjeux sociaux, réglementaires et pédagogiques de l’animation, les RADI, elles, ont choisi de se pencher sur le temps réel, une « révolution » qui devrait permettre de « produire mieux, moins cher et… joyeusement ». Invités aux RADI : les premiers studios utilisateurs. Sans oublier de se conclure par un tour de table des logiciels les plus novateurs. Ces échanges enthousiastes ont été animés, cette année, par Véronique Dumont, Stéphane Singier et Patrick Eveno.

 

Unreal Engine fait la « Une »

Invitée pour la première fois aux RADI, la société Epic Games (Caroline du Nord, USA), éditrice du jeu vidéo le plus rentable au monde Fortnite, a dévoilé, devant une salle pleine à craquer, la stratégie de développement de son moteur 3D temps réel Unreal Engine 4 (UE 4) : « Depuis 2017, Epic Games investit massivement dans le développement d’outils de production pour l’animation et les VFX », rappelle Philippe Rebours, responsable technique de compte.

Au cœur de l’écosystème Unreal Engine (un millier d’entreprises dans le monde, hors du jeu vidéo, utilisent ce moteur temps réel), la plate-forme Marketplace, qui propose en téléchargement gratuit de nombreux outils ou applications pour l’animation, le film, mais aussi les expériences immersives, interactives ou en réalité virtuelle (augmentée ou mixte). L’utilisateur, qui a accès à leur code source en C++ ou peut recourir au codage visuel Blueprint, est ainsi en mesure de créer ses propres assets à partir de ceux qui lui sont proposés. Parmi les outils, des plugs-in pour télécharger des données issues de Maya (ou d’autres logiciels) ainsi que de logiciels de capture de mouvements. Viennent d’être implémentés, la librairie Mégascans d’environnements réels (surfaces, végétaux et scans 3D) créés par la société suédoise Quixel qui vient de rejoindre la communauté d’Epic Games, ainsi que l’outil d’animation 2D Iliad développé par Praxinos (en bêta test depuis décembre 2019).

La présentation très suivie ne manquait pas de rappeler quelques productions d’Unreal Engine qui ont fait date comme Hellblade : Senua’s Sacrifice (avec Vicon, 3Lateral et Cubic Motion) comportant une performance temps réel et cinématographique d’un être humain virtuel (Siggraph 2016) ou la démo Reflections en 2018 (avec ILM Lab et NVIDIA) qui introduisait pour la première fois du ray tracing en temps réel.

« Améliorer la représentation de l’être humain – avec une animation temps réel du visage et des cheveux – correspond à un axe important du développement du moteur », souligne encore Philippe Rebours qui détaillait les principaux outils natifs de UE 4 comme Datasmith qui permet d’importer facilement des données en provenance de 3ds max (Revit, SketchUp Pro, Cinema 4D, etc.), Dataprep qui simplifie automatiquement les objets ainsi que l’outil Multi-User qui favorise la collaboration.

« La collaboration correspond chez nous à une tendance forte : plusieurs artistes, portant ou non un casque de réalité virtuelle, ont la possibilité de travailler ensemble sur la même scène. Toutes leurs actions sont visibles en temps réel comme le changement de décor, le positionnement des caméras, la modification de l’éclairage, etc

Epic Games tenait également à mettre en avant les réalisations récentes de sociétés comme Digital Dimension ou émergentes comme Third World Studio. Qu’il s’agisse d’une série ou d’un long-métrage d’animation, ces productions attestent toutes d’un gain élevé de productivité (un épisode par semaine par exemple) et de la possibilité de produire un nombre important d’itérations.

Enfin, Philippe Rebours revenait sur l’Epic Mega Grants, cette dotation de 100 millions de dollars sur cinq ans afin de supporter des développements dans les secteurs du jeu vidéo, l’entreprise, les films et l’éducation : « Ces Epic Mega Grants participent au développement de la communauté Unreal Engine. Si une fonctionnalité est ainsi manquante, nous pouvons, par ce biais, envisager de combler cette lacune. » Bénéficiaire de ce programme, la Fondation Blender qui reçoit 1,2 million de dollars sur trois ans.

Parmi les partenariats recherchés par Epic Games, la société coopérative messine Praxinos : « Nous avons découvert le temps réel – à travers Unreal Engine – au moment de la création, il y a tout juste un an, de notre SCOP dédiée à l’animation 2D et au développement informatique », souligne Elodie Moog, co-fondatrice de Praxinos.

Constatant que le moteur temps réel conçu à l’origine pour le jeu vidéo ne permet pas de dessiner (ni de réaliser des textures, d’animer, etc.), l’équipe propose à Epic Games d’intégrer directement dans Unreal Engine une interface spécifique pour l’animation 2D mettant à profit toute la puissance du moteur de rendu 3D (importation de décors, positionnement des caméras…) et de son outil de compositing. Cela constitue le projet Odyssey dont la première brique, Iliad, forme un moteur de création de brosses originales. Si toutes les fonctionnalités usuelles des logiciels 2D sont présentes (Viewport, sélecteur de couleurs, calques…), Iliad ajoute la gestion de la pression du stylet. Chaque intervention, plus ou moins complexe (brosse kaléidoscope…), se découvre en temps réel en train de se fabriquer et de se mettre instantanément en place sur l’objet ou l’environnement 3D.

 

Le temps réel vu par ses utilisateurs

Comment sont abordés en condition « réelle » ces moteurs temps réel ? Pour témoigner de cette technologie dite « disruptive », les RADI ont invité trois studios d’animation hexagonaux, de tailles très différentes, ayant misé sur le moteur Unity : Miam ! Animation, Blue Spirit et Hue Dada !

Pour sa première série d’animation en 3D temps réel, Edmond et Lucy (52 fois 11 minutes), le producteur de Miam ! Animation, François Narboux, a mesuré d’emblée les différences en réalisant un pilote en 3D « traditionnel » : « Celui-ci s’avérait peu satisfaisant au vu de nos objectifs », remarque le producteur. « Nous voulions une adaptation fidèle des albums de Marc Boutavant, gérer au mieux la fourrure des personnages (mais aussi leur grande différence de taille à l’image, etc.), et surtout prouver à France Télévisions que cette série sur la nature allait vraiment la faire vivre sans surcoût. Enfin, prendre du plaisir à la produire ! » L’intégration d’Unity dès 2017 dans le pipeline du studio optimise la production en rendant plus efficaces des tâches comme le layout (réalisé directement via un exécutable, il permet aux storyboarders d’avoir accès à tous les assets de la série), la création des shaders, des VFX et des lumières… La phase du compositing n’est plus jugée nécessaire et celle du montage, qui autorise des modifications dans les plans, s’avère beaucoup plus fluide.

Pour le producteur, ce gain de temps et d’argent rendus possibles par le temps réel est toutefois à relativiser : l’argent économisé sur le rendu profitant à la création d’assets supplémentaires. « L’intérêt du temps réel est surtout d’éliminer des tâches peu gratifiantes pour les artistes et de rendre le travail beaucoup plus collaboratif. La série est aussi nativement adaptée pour le jeu vidéo et la VR. En intégrant dès le script une option de game design, le temps réel facilite la production de narrations interactives. Celles-ci sont appelées à se développer grâce aux nouveaux systèmes de streaming (Google Stadia, Xbox Cloud) qui peuvent aussi s’appliquer au dessin animé. »

Le pipe line temps réel de Miam ! Animation est loin d’être figé et de nouvelles pratiques sont à expérimenter : « Nous envisageons d’intégrer l’animatique (en dessinant les shots directement dans la timeline), la modélisation (via les rigs procéduraux qu’Unity est en train de développer), la capture faciale… Et même le son en automatisant par exemple les bruits de pas dès qu’un personnage entre en contact avec le sol, etc. »

Pour Blue Spirit, engagé dans la production de séries (Les Mystérieuses Cités d’Or) et de longs-métrages d’animation (La Balade de Yaya), l’intégration des outils temps réel doit s’inscrire dans le contexte de production. Le studio (Angoulême, Paris, Montréal), dont les productions se démarquent par un rendu graphique original (une stylisation 2D à partir d’une modélisation 3D), entend en effet retrouver ce style sur Unity. L’autre enjeu du temps réel, pour Blue Spirit, consiste à rapatrier dans ses studios la conception des décors extérieurs 2D sous-traités à l’étranger. Et, bien sûr, à faciliter les étapes du compositing et du layout au travers notamment la récupération de données 3D.

La série 3D Les Aventures de Tom Sawyer (26 fois 26 minutes), coproduite avec Cyber Group, est la première à intégrer Unity dans son pipeline basé sur 3ds max (utilisé de la conception jusqu’au rendu en passant par la création des personnages, des accessoires et des décors intérieurs). « Dans ce nouveau pipe, le setdress (mise en place des accessoires dans l’environnement 3D) est créé sur Unity tandis que les décors intérieurs et les assets restent élaborés sur 3ds max », précise Sébastien Albert, développeur pipeline chez Blue Spirit. « Comme le layout se fait à la fois sur Unity (pour le multiplan 2D) et 3ds max, nous faisons en sorte de fluidifier les échanges entre les deux logiciels en créant des ponts efficaces. »

Le développeur ne cache pas que, contrairement à une production « classique » sur 3ds max ou Maya, l’intégration du temps réel nécessite des développements d’outils dédiés avant que la production ne se lance. Chez Blue Spirit, de nombreux outils d’édition comme le BG Manager, le Layer 2D Manager (qui permet de gérer le multiplan dans la scène Unity) et d’optimisation de scènes ont dû ainsi être créés. « Le temps réel permet d’obtenir des scènes plus riches en détails. Nous notons aussi un gain de temps dans la production : le viewport étant fidèle à l’image définitive et ce, dès le layout, nous évitons bien des surprises lors du rendu. Gain de temps aussi si l’on compare avec nos moteurs de rendu habituels. »

Le développeur note toutefois que le temps d’import des fichiers FBX lors de l’intégration des assets dans Unity demeure contraignant : « Nous attendons l’arrivée prochaine de l’USD (Universal Scene Description) sur 3ds max pour améliorer ces exports. Il reste encore beaucoup à faire, dans Unity, dans le traitement post-image et même au niveau de ses shaders. »

En ouvrant à Paris le studio d’animation Hue Dada !, Quentin Auger, Jérome Mouscadet et Jean-François Ramos poursuivent la dynamique initiée chez Studio 100 Animation qui a cessé, en 2019, la fabrication de ses productions dans son studio parisien. Sur la saison 2 de la série 3D Heidi réalisée par Jérome Mouscadet, l’équipe avait expérimenté avec succès le temps réel (Unity) associé à la réalité virtuelle : « Nous avons gagné trois années homme de travail en produisant simplement une animatique de meilleure qualité et beaucoup plus rapidement, et en limitant le nombre de retakes », rappelle Quentin Auger, ex-directeur de l’innovation chez Studio 100. Ces expériences de pipeline dé-linéarisé ont été mises en production, l’été dernier, par Studio 100 Animation pour la création de la chaîne YouTube Pitchounette (contes, quizz éducatifs).

« Le temps réel, qui permet de produire des films d’animation rapidement et pour beaucoup moins cher, constitue un modèle économique très pertinent pour le streaming », poursuit Quentin Auger. Mais, pour le directeur technique, le véritable apport du temps réel (Flash l’était déjà) réside surtout dans le caractère multi user du moteur et le fait que plusieurs métiers (story boarder, opérateur VR, réalisateur…) puissent collaborer sur la même scène : « Un peu comme sur un plateau de cinéma où un acteur joue et est cadré en même temps », précise le directeur technique dont l’enthousiasme n’a pas faibli. Le pipeline 3.0 ainsi que les outils développés chez Studio 100 Animation ont valu à l’équipe le prix Autodesk Shotgun lors du Siggraph 2019.

 

Innovations en Hexagone

De même que les RAF (Rencontres Animation Formation) s’inaugurent traditionnellement par l’analyse des chiffres du secteur, les RADI se concluent par la présentation d’applications originales ou de services visant à améliorer la productivité, libérer les artistes en automatisant certaines tâches longues et coûteuses, extérioriser les calculs, etc.

Particulièrement novatrice voire inédite, la plate-forme en ligne Polywink, lancée en mars 2018 par Eisko (création de doublures 3D numériques), propose de délivrer très rapidement (sous 24 heures) les expressions faciales (blend shapes) ou les rigs d’animation (au format Maya ou FBX) en fonction de la topologie et de la morphologie de personnages 3D cartoon ou photoréalistes. Ces rigs étant compatibles avec ARKit, l’utilisateur de la plate-forme peut capturer la performance avec son iPhoneX et la retranscrire sur son modèle 3D.

La plate-forme agnostique – une alternative au pipeline en générant ces éléments en ligne – s’adresse aux studios d’animation, de postproduction et d’effets spéciaux afin d’animer des personnages secondaires, mais aussi des avatars 3D proposés sur Internet : un marché qui prend de plus en plus d’ampleur avec les emoticones et émojis.

Plusieurs clients de Polywink ont été primés au Siggraph Asia 2018 ou au Siggraph Real-Time Live 2018 comme le studio japonais Lab Gree pour son animation 3D temps réel d’un VTuber (youtuber virtuel) ou le studio américain Kite & Lightning pour son approche low cost de capture de mouvements à partir d’un iPhone X associant une combinaison Xsens pour le corps avec la solution de rigging et de vidéo tracking développée par Eisko.

La plate-forme, qui compte déjà plus de 250 clients récurrents dans le monde, envisage, pour le début de l’année, de nouveaux services comme la génération automatique de blend shapes directement à partir des expressions faciales fournies par le studio afin que celui-ci puisse les reproduire sur d’autres personnages de son film ou série en cohérence avec son rendu.

Polywink délivrera également une animation faciale synchronisée à la génération de la voix à partir d’un texte. La combinaison de ces deux services (animations à partir de vidéo tracking et de text-to-speech) offrira donc une prestation complète et efficace pour générer un flux d’animation continu.

De son côté, la société Dynamixyz (Rennes), bien connue pour son expertise en capture d’expressions faciales sans marqueur (makerless facial motion capture), travaille actuellement à la mise au point d’une capture faciale par scans. Développée en partenariat avec Pixelgun Studios spécialisé dans les scans pour le jeu vidéo, cette solution de mocap basée sur un suivi d’acteur en multi-vues (actuellement en version alpha) permet une extraction automatique des poses clés d’animation : « Comme cette capture ne recourt pas à la retouche manuelle, elle assure un très haut degré de précision », précise Maxime Thomas-Le Déoré, lead animateur et spécialiste en rigging. « Les blend shapes obtenus sont directement transférables sur les rigs Maya. » Ce module de suivi facial issu directement de scans devrait être porté dans le logiciel Performer (2 000 licences vendues dans le monde depuis 2010) et venir s’ajouter à la gestion des rigs multi-caméra et à l’approche hybride avec marqueurs (déjà présente dans la version Multi-View). Dynamixyz revenait également sur la possibilité de créer aujourd’hui un profil « générique » 3D à partir des briques d’apprentissage automatique (machine learning) implémentées dans le logiciel.

Ce service très attendu (surtout pour l’événementiel ou les parcs d’attraction) vient en complément au service de capture faciale « spécifique » (en single view ou multi view), lequel permet d’enregistrer les expressions faciales d’un acteur et de les transférer sur le visage d’un personnage 3D cartoon ou réaliste. « Ce workflow d’apprentissage automatique, qui peut s’adapter à n’importe quel pipeline et être utilisé pour le temps réel, permet à l’animateur à la fois de gagner du temps et d’augmenter la qualité de sa capture ».

Innovation également du côté des logiciels d’animation qui ne sont plus directement issus de l’industrie, mais mis au point par des animateurs ou des artistes très au fait des besoins de l’animation et des contraintes de la production. Introduit par Christophe Petit, co-fondateur de The Beast Makers (Montpellier) et venant des Gobelins, TBM 2D Texture est un plug-in original et intuitif d’animation de textures 2D pour Autodesk Maya. Il a été développé dans le cadre d’une production du studio, spécialisé dans la création de personnages 3D (de la conception à l’animation en passant par le rigging et le surfacing) : « Pour la seconde saison de la série Pirata et Capitano (production Millimages), il s’agissait d’animer très rapidement des personnages 3D au moyen d’un facial 2D », explique Christophe Petit. « Cela nous a donné l’idée de ce plug-in. En animant et déformant les courbes nurbs de Maya, des formes pleines sont générées qui peuvent être composées avec des layers. Les textures obtenues, qui ne sont pas du bitmap, peuvent alors être animées. »

La version 1.0, prévue pour le début de l’année 2020, permettra de dessiner en vectoriel et disposera d’une boîte à outils et d’une librairie de formes pré-rigées. Le rendu des images sera optimisé en fonction de la distance de la caméra, et le plug-in de textures animées sera compatible avec tous les moteurs de rendu.

Diplômé également des Gobelins et ancien animateur de jeux vidéo, Aurélien Charrier, qui a cofondé en 2014 Nukeygara (Lyon), s’est fait connaître avec Akeytsu dont une première version bêta est sortie en 2015. Depuis l’été dernier, le logiciel d’animation pour studios de jeu vidéo et indépendants (Snapshot Games, Feline Arts…) est proposé en abonnement ou sous forme de licence perpétuelle et connaît des mises à jour régulières : « Nous voulions revisiter le workflow traditionnel de l’animation 3D en optimisant à chaque étape l’expérience utilisateur afin d’aboutir à un outil simple et efficace permettant une approche plus artistique de la 3D. »

Se focalisant sur l’animation keyframe (rigging et skinning inclus), le logiciel d’animation, qui peut s’insérer dans une chaîne de production 3D (Maya, 3ds Max, MotionBuilder, Cinema4D…), procède sans jamais perdre de vue le modèle 3D et ses poses clés, quelle que soit la complexité de l’animation et le nombre de layers. En limitant les contrôles rig complexes et invasifs grâce à une boîte à outils épurée et des contrôleurs avancés, le logiciel facilite la préparation des structures et permet à l’animateur de « jouer » avec sa marionnette quasiment en temps réel. Fort du succès de son logiciel qui devrait s’ouvrir à la mocap, Nukeygara envisage la création d’une suite métier qui restera au plus proche des besoins de l’animateur.

Bien connu du public des RADI pour avoir été présenté au travers du making of de la série Mike, une vie de chien (TeamTO), Rumba est uniquement dédié à l’animation 3D : « En ne réalisant qu’une seule tâche, nous espérons faire mieux que les logiciels génériques », tient à rappeler Cyril Corvazier, cofondateur de Mercenaries Engineering. Disposant enfin d’une version bêta que les studios vont pouvoir dès à présent utiliser en production, Rumba propose, en décorrélant la manipulation du contrôle du rig, une nouvelle manière d’animer directement la marionnette avec sa géométrie. Ce qui permet à l’animateur d’organiser à sa guise son flux d’animation. Plusieurs nouveautés importantes ont été apportées, entre autres au niveau de la gestion des layers qui s’avère très puissante. Des partenariats avec des studios comme Karlab (Paris) ou des écoles comme Creative Seeds (Rennes) assurent d’autre part au logiciel, qui se présente comme une alternative à Maya, une première assise d’animateurs formés.

 

Article paru pour la première fois dans Mediakwest #35, p.100/104. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.