Workflows multimédias: principes incontournables

Dans le domaine des workflows multimédias numériques, il a toujours fallu s’efforcer de gérer d’importants volumes. Au début, l’infrastructure de stockage de l’entreprise était incapable de répondre aux exigences de la SD. Ainsi les premiers outils d’édition non linéaires étaient des solutions clés en main dotées de formats de fichiers et de systèmes de fichiers propriétaires. Au cours des dix dernières années, les solutions ont remplacé ces systèmes et désormais, les solutions ouvertes destinées au stockage partagé sont facilement disponibles à des prix abordables, même pour de petites sociétés de postproduction.
WORKflow.jpg

 

 

Après le passage de la SD numérique à la HD, on tend désormais vers une expérience de visionnage de qualité, apportée par le format 4K. Dans le même temps, de nouvelles possibilités de distribution favorisent l’accès rapide et direct via les workflows à tout le contenu pour une monétisation et une réutilisation. Pour la plupart des organisations, ce processus implique la mise en œuvre de nouvelles stratégies de stockage, en commençant par la prise en compte des quatre problématiques clés avant toute prise de décision.

 

 

– Le développement du contenu 4K et le besoin de rapidité

 

À l’occasion du NAB 2014 en avril dernier, tous les fournisseurs de stockage ou presque prétendaient proposer une solution pour les workflows 4K. Mais qu’ont-ils véritablement à offrir ? Techniquement, le format 4K n’est qu’une simple taille d’image (4 096 pixels × 2 160 lignes pour le cinéma ou 3 840 × 2 160 pour le grand public). Mais pour atteindre le niveau de qualité attendu par les utilisateurs, il faut davantage qu’une image en haute résolution. Vous avez également besoin d’une fréquence de 24 images par seconde ou plus, et d’un codec de compression capable de conserver la qualité de l’image 4K. Après tout, votre équipe de créatifs considère le format 4K comme brut, et non pas un codec basse résolution comme la plupart des fournisseurs en proposent.

 

 

Il reste un secret inavoué : le contenu 4K n’est pas facile à diffuser à cette fréquence sans rater des images sur un système de stockage partagé. Ainsi, pour prendre en charge leurs données 4K brutes, certains fournisseurs de stockage de workflows reviennent au stockage en attachement direct ou au montage en proxy. Pour y parvenir, il est nécessaire de modifier votre workflow pour un téléchargement en local du format 4K en vue du montage au lieu d’un accès direct depuis un système de stockage partagé. Ce qui implique l’abandon de l’environnement collaboratif qui a permis de raccourcir vos cycles de production pour que vous puissiez satisfaire les délais serrés imposés par ce secteur concurrentiel.

 

 

Malgré tout, il existe des solutions standard et hautes performances qui n’entraînent aucune interruption des workflows par des téléchargements fastidieux depuis et vers le stockage en attachement direct. Si vous recherchez une solution de stockage pour des workflows 4K, vous devez vous poser les questions suivantes : Quelle fréquence d’images peut-elle prendre en charge ? Avec quel codec 4K ? Est-ce que les données 4K sont brutes ? Pourrais-je bénéficier du stockage partagé ou est-ce un stockage en local uniquement ? Combien de flux simultanés peut-elle prendre en charge ?

 

 

Plus de contenu à ingérer et à distribuer, et la nécessité d’évoluer

 

Les workflows dotés d’une meilleure résolution permettent non seulement d’améliorer la performance de stockage, mais aussi d’en augmenter la capacité (3 à 4 fois plus que la HD, en fonction du codec). Et ce n’est pas la seule tendance qui favorise l’explosion du stockage. Une grande partie de la demande en stockage commence dès la capture, avec des événements en direct, filmés avec davantage de caméras, et lors de productions de longs métrages, avec des caméras moins susceptibles d’être éteintes entre les prises.

 

 

Dans les studios travaillant sur de multiples projets en parallèle, la création de fichiers à grande échelle au moment de l’ingestion de fichiers ou de la suppression de fichiers à la fin d’un projet n’est souvent pas compatible avec l’accès haute performance requis par les utilisateurs. Si le système de stockage ne peut gérer ce type d’accès, les sites sont souvent contraints de spécifier des « fenêtres de suppression » d’accès limité au système de fichiers. Face à des délais de production serrés, cette technique peut faire la différence lorsqu’il s’agit de respecter le calendrier.

 

 

La forte demande de capacité de stockage ne s’arrête pas là : les transcodeurs produisent plus de formats de distribution pour des objets connectés toujours plus nombreux et les propriétaires de contenu créent plus de contenu « second écran » destiné aux marchés du direct et du contenu à la demande. Et si vous stockez du contenu dans des formats conçus pour un fichier par image, type DPX, ou que vous générez un grand nombre de fichiers comme pour VFX, votre système de stockage devra évoluer en fonction, sans que vos performances n’en pâtissent.

 

 

Outre la question de la capacité de votre système de stockage, vous devez également réfléchir aux questions suivantes : Est-ce que je peux facilement étendre la capacité de stockage ? Quel est le nombre maximum de fichiers (pas seulement en To) que ce système de stockage peut prendre en charge ? Est-ce que la performance d’accès se dégrade à mesure que le système de stockage se remplit, que le nombre de fichiers augmente ou que les fichiers sont supprimés ?

 

 

De nouvelles possibilités de monétisation et le besoin d’un accès à long terme

 

À une époque où les opportunités de monétiser et de réutiliser du contenu n’ont jamais été aussi nombreuses, il est de plus en plus difficile de garantir l’accès des ressources numériques aux équipes de production en raison de ces exigences en termes de capacités. La stratégie la plus courante consiste à stocker autant de contenu que les budgets le permettent sur des systèmes de stockage hautes performances puis, à mesure que ceux-ci se remplissent, à transférer les données plus anciennes sur des systèmes d’archivage sur bande hors ligne. Souvent, les séquences vidéo brutes inutilisées sont tout simplement effacées lorsque le projet est terminé, peu importe le potentiel futur qu’elles peuvent recouvrir.

 

 

Dotés d’une architecture assurant un stockage de contenu sur des médias numériques moins chers mais sécurisés, les propriétaires de contenu peuvent exploiter un potentiel énorme en termes de revenus. Le tout est d’être sûr que les équipes de production peuvent toujours y accéder de manière directe et transparente. Parmi les options de stockage les plus courantes, on compte les solutions basées sur le stockage objets, qui offrent un accès à la vitesse du disque à du contenu de plusieurs pétaoctets, et les solutions LTO/LTFS sur bande numérique, un choix encore plus économique, notamment pour les propriétaires de contenu qui souhaitent stocker des copies hors site en vue d’une reprise après incident.

 

 

Vous devrez choisir une solution qui s’intègre à votre workflow et qui reste économique, même après avoir pris en compte la gestion. Principales questions à poser : Quels types de médias d’archivage le système de stockage prend-il en charge ? La migration du contenu vers l’archivage peut-elle s’effectuer automatiquement en fonction de règles ? Le contenu archivé peut-il être rapidement, facilement et directement accessible par les utilisateurs ? Quelles sont les limites d’évolution de l’archivage ?

 

 

Des équipes de plus en plus distribuées et la nécessité d’adopter le Cloud

 

La production de contenu n’a jamais été simple, mais la mobilité des différents éléments et l’évolution impliquées sont désormais considérées à l’échelle mondiale. Même un film à petit budget peut être tourné dans la forêt tropicale du Costa Rica, monté à Vancouver, envoyé en Corée pour les effets spéciaux et à Toronto pour la correction des couleurs, pour finir à Hollywood. Dans le même temps, une pression plus forte est exercée sur un transcodage et une diffusion du contenu dans le monde entier et sur davantage de plates-formes. Sans parler de la complexité supplémentaire de faire et de transmettre des copies entre les équipes à distance.

 

 

C’est pourquoi de nombreux producteurs de contenu se tournent vers le Cloud pour partager leur travail au sein des différentes équipes. Mais un problème persiste : la plupart des offres de Cloud public ont été conçues sous forme de plates-formes de développement pour que les éditeurs de logiciels puissent élaborer des applications et des services. Et leur capacité d’intégration aux workflows complexes et multi phases, très répandus dans le monde de la production multimédia, est faible voire inexistante.

 

 

Sur les Clouds publics, les utilisateurs doivent souvent adopter de nouveaux outils qui leur sont inconnus et dont l’efficacité n’est pas prouvée. Ils sont amenés à déplacer des ressources entre les phases du Cloud public sans réelle mesure de sécurité ni contrôle qualité.

 

 

La solution idéale consisterait à reprendre le même workflow utilisé par votre équipe aujourd’hui vers le Cloud pour qu’elle puisse travailler à distance, partager du contenu stocké sur des systèmes économiques et fiables, avec les capacités d’évolutivité, de flexibilité et de sécurité dont elle a besoin. Principales questions à poser : Le Cloud a-t-il été conçu spécifiquement pour les besoins des workflows multimédias ? Dans quelle mesure mon workflow ou les utilisateurs devront-ils changer leurs processus quotidiens pour accéder à du contenu dans le Cloud ? Cette solution dispose-t-elle d’outils de workflow pour l’ingestion, l’édition et le transcodage ? Pourront-ils fonctionner avec des connexions à plus faible bande passante ?

  

Sur un marché où le volume est source de rentabilité, et où l’évolution est permanente, vous devez disposer de systèmes plus performants, d’une évolutivité accrue, d’un accès plus facile à long terme et de l’accès distribué du Cloud. Vous n’avez pas le choix : il faut viser grand, sinon rien.

 

Par Laurent Fanichet, Responsable Marketing Produit – Big Data pour la zone EMEA/APAC de Quantum