En route vers l’IT avec le cloud, la vidéo sur IP et la norme ST-2110

Le cloud, la vidéo sur IP, et plus récemment les microservices, sont devenus des termes habituels dans les annonces des constructeurs ou éditeurs de logiciels. Ils recouvrent à la fois des évolutions technologiques majeures, mais sont aussi à l’origine de bouleversements dans les pratiques professionnelles. À l’occasion du prochain IBC, nous avons souhaité faire le point sur leur introduction ou leur usage avec divers acteurs engagés dans leur mise en œuvre au long de la production et de la diffusion TV.
1_MKW33_ArchiTV_CanalFact_Regie2 corr.jpg

 

La production et la diffusion TV ont vécu depuis leur origine, dans les années soixante, de multiples mutations techniques. Certaines, comme le passage du noir et blanc à la couleur ou la montée en résolution, SD puis HD et maintenant UHD, ou la conversion de signaux analogiques vers leurs équivalents numériques, constituaient de simples évolutions, certes complexes, mais ne remettaient pas en cause l’organisation des processus de fabrication des images. Le basculement des équipements dédiés vers des outils informatiques et l’abandon des supports physiques vers une dématérialisation totale des contenus en mode fichiers ont marqué une étape beaucoup plus cruciale dans les évolutions techniques des processus de production et de la diffusion des chaînes.

Nous sommes à l’aube de transformations encore plus radicales avec sans aucun doute des conséquentes majeures avec la génération des câblages en tout IP, le transfert de nombreuses tâches dans le cloud, et des évolutions essentielles dans le développement des logiciels avec l’arrivée des microservices. Tous les constructeurs spécialisés dans le hardware dédié ont déjà engagé cette mutation à des niveaux plus ou moins avancés. De nouvelles dénominations ou sigles ésotériques apparaissent dans leurs communications ou sur leurs stands dans les salons. Nous avons interrogé des acteurs impliqués dans ces innovations pour recueillir leurs avis sur le déploiement et la mise en œuvre de ces nouvelles technologies.

Dès le début de notre entretien, Pierre Maillat, responsable des études et de l’architecture à la direction technique Édition à Canal Plus, reprend les propos tenus par Brad Gilmer, directeur de l’AMWA lors d’une conférence de presse : « Si vous passez du SDI à l’IP juste pour faire une transposition de signal, ça ne sert pas à grand-chose. Il faut en profiter pour faire évoluer les workflows et “re-imaginer” nos métiers. Lors du dernier Avid Connect, c’était également le même leitmotiv à propos de la nouvelle version de Media Composer : “Re-imagine” pour améliorer la flexibilité et l’agilité dans nos process. »

Le point commun de ces évolutions techniques majeures, c’est le réseau IP. En effet, il est à la base de la transformation du câblage traditionnel SDI vers les infrastructures vidéo live sur IP, maintenant standardisées par la norme ST-2110. Mais il est également à la base de tous les services de cloud et du transfert des traitements sur machines dédiées vers des outils banalisés, soit « on premise » (sur site), dans des data centers ou dans le cloud.

La généralisation du réseau IP ouvre également les portes à la remote production. Pierre Maillat préfère employer le terme de « production distribuée ». Pour lui, avec le réseau IP, toutes les infrastructures fonctionnent en mode distribué, que ce soit localement à l’intérieur d’un même site de production, et là sans aucune contrainte de débit ni de latence, ou à distance comme on l’entend généralement. Sur un site local comme Canal Factory, une réaffectation immédiate des ressources permet de les exploiter dans des configurations adaptées à chaque production. Si elle est répartie sur deux sites distants, se pose alors la question du transport des images et des sons.

Lors du dernier Festival de Cannes, une régie de Canal Factory a été utilisée pendant dix jours pour la fabrication des émissions de Canal pour couvrir l’événement et assurer jusqu’à deux directs du canal local TV Festival. Une large part des équipements était installée à Boulogne et exploitée sur place ou depuis Cannes selon les besoins. Les deux sites étaient reliés pour cette occasion par deux fibres optiques Orange à 8 Gigabit/s. La couverture d’autres évènements sportifs internationaux est de plus en plus souvent assurée en mode remote production.

 

Les équipements ST-2110 arrivent à maturité

Romain Molari, directeur du développement du groupe 42 Consulting, constate que « le choix d’une infrastructure câblée en ST-2110 n’est plus un sujet de débat. Les offres des constructeurs sont matures. Pour l’instant en France cela reste timide et, hormis le déploiement de Canal Factory réalisé en 2016, et qui d’ailleurs fonctionne en 2022-6, il n’y a aucune autre grosse infrastructure basée sur de la vidéo non compressée sur IP. »

Par contre, ailleurs en Europe, plusieurs chaînes se sont lancées comme RTL TV à Luxembourg, en collaboration avec BCE, ou la chaîne privée portugaise SIC en partenariat avec Sony. Plusieurs cars régie ont été construits avec des réseaux vidéo sur IP, comme ceux d’Athena TV en Grande-Bretagne ou de TPC en Suisse. Dans le cadre de son déménagement, Radio Canada a également fait le choix d’une infrastructure vidéo sur IP.

Manuel Ferreira, vice-président en charge des ventes des produits orientés production et playout, sur la zone EMEA pour Harmonic, confirme de son côté la percée de la vidéo sur IP puisque sa société a déployé plus de 250 licences de diffusion en SMTPE 2110 sur ses serveurs Spectrum X, avec une prévision sur plus de 500 licences d’ici la fin de l’année.

Romain Molari poursuit : « Le choix d’une infrastructure tout IP n’apporte pas de gain économique s’il s’agit d’équiper une régie classique car la technologie reste encore chère. Les chaînes restent encore frileuses, mais je pense que cela va se décanter en 2020 ou 2021. Deux projets sont en cours actuellement chez Eurosport et Radio France. Il n’y a plus de frein technologique, même s’il est préférable de choisir un système conçu à partir d’équipements choisis chez un même constructeur. »

L’interopérabilité promise par le déploiement de la norme ST-2110 et sa généralisation sur de nombreux matériels est bien réelle. Le POC (Proof Of Concept), mené début juillet par Vidélio et l’IIFA, a démontré que globalement l’interconnexion et les échanges de signaux entre des équipements de diverses provenances fonctionnent. Il subsiste encore des domaines à normaliser, en particulier au niveau du contrôle des équipements. Les travaux de l’AMWA progressent bien et plusieurs chapitres du standard NMOS ont déjà été publiés. Ils doivent trouver leur concrétisation sur les équipements.

Les difficultés relevées lors du POC concernent plutôt la maîtrise de l’intersynchronisation avec le signal PTP, le suivi de documentation technique par les constructeurs et surtout la composition des équipes techniques qui doivent associer les compétences métier du broadcast avec celles de l’IT et d’une très bonne maîtrise des réseaux.

 

Les usages multiples du cloud

Le cloud est un thème récurrent depuis plusieurs années dans les annonces des constructeurs et des éditeurs. Les services de cloud (Amazon Web Services ou AWS, Azure de Microsoft, Google et bien d’autres) sont déjà largement utilisés pour une multitude de services liés à Internet. Concernant le broadcast, toute une série de stratégies est proposée pour offrir une plus grande souplesse pour la production, le traitement, l’archive et la diffusion.

Tous les grands constructeurs proposent une transposition de leurs outils de processing et de diffusion vers des services cloud sous forme d’une offre SaaS (Software as a Service). Manuel Ferreira détaille les avantages de la plate-forme VOS d’Harmonic, une solution SaaS (Software as a Service) déployable soit sur cloud privé, VOS SWCluster, soit sur cloud public, VOS360 Origination.

« Lancer une nouvelle chaîne de télévision nécessite en général un investissement initial conséquent, et donc un risque pour les opérateurs de télévision. Avec notre solution SaaS de diffusion, ce n’est plus un problème. Les diffuseurs peuvent lancer de nouvelles chaînes rapidement, avec un investissement initial minime, et la stopper aussi vite en fonction de l’intérêt du public. C’est un risque faible avec des bénéfices potentiellement élevés. De même le lancement d’une chaîne évènementielle ou d’une chaîne locale est extrêmement simple et demande très peu de temps avec VOS. Une fois les médias transférés sur le cloud, il suffit de composer en ligne dans l’outil VOS la play-list, puis en quelques heures de lancer sa diffusion. Il est possible de mélanger dans une même playlist des fichiers média MXF, des évènements en live. Ces outils sont tout aussi bien destinés à des chaînes premium que pour la création de chaînes temporaires », estime-t-il.

Et Manuel Ferreira de poursuivre : « Autre usage de VOS : mettre en place un système de secours de type PRA (Plan de Reprise d’Activités, ou Disaster Recovery). Au lieu de faire des investissements lourds pour du matériel qui ne tournera pratiquement jamais, il y a un coût limité en mode permanent et le service complet n’est facturé qu’en cas de diffusion réelle. Harmonic offre une réelle flexibilité avec la possibilité de recevoir une facture unique, incluant les coûts du cloud, ou uniquement ceux de la partie SaaS, dans le cas d’un client disposant d’un contrat indépendant plus avantageux avec un fournisseur de cloud. »

 

Le cloud hybride, meilleur compromis ?

Mais pour l’instant les chaînes restent circonspectes face à ces offres pour basculer intégralement dans le cloud et, selon l’adage paysan bien connu, ne souhaitent pas mettre tous leurs programmes dans le même panier (ou sur un service unique). Très souvent elles gardent la majeure partie de leurs activités sur des infrastructures internes qu’elles gèrent en direct ou via des prestataires spécialisés pour les chaînes de moindre envergure, transfèrent une partie de leurs outils ou de leurs travaux vers des data centers externes, et enfin répartissent une partie encore limitée de leurs travaux vers des clouds privés ou publics, essentiellement pour la partie streaming et pour les services de VOD ou d’OTT.

Édouard Prévost, co-fondateur et COO de Carrick-Skills, architecte de workflows médias, précise les termes de cet équilibre : « Si on garde toutes les infrastructures en local, on a moins de flexibilité et il faut en assurer la sécurisation. Avec le cloud, c’est plus souple car on lance à la volée autant de services que nécessaire. Mais effectuer 100 % du travail dans le cloud, c’est encore très cher. Pour moi, l’avenir ce sont les architectures hybrides. »

Autres limitations relevées par Romain Molari, la taille des fichiers et l’intégration d’équipements avec des entrées/sorties spécifiques. « Tant que l’on reste en mode fichiers, ça fonctionne, mais par exemple rajouter une simple mixette devient très lourd. »

Par contre, pour des travaux ou des prestations clairement identifiés, des laboratoires créés récemment ont fait le choix du cloud. Il en est ainsi pour Nomalab, qui fait le trait d’union entre des producteurs ou des ayants droit d’un côté et les chaînes et les diffuseurs de l’autre. Face à la multitude des formats de fichiers, des containers, des codecs et de la répartition des divers éléments constituant le programme (en particulier, sous-titrage et affectation des pistes audio), le laboratoire propose un archivage des contenus avec consultation via un simple navigateur, effectue un contrôle qualité et convertit le master fourni pour le producteur dans le format de PAD réclamé par la chaîne. Nomalab effectue toutes ses prestations sur une infrastructure dans le cloud.

Jean Gaillard, son président, explique : « Nous n’avons pas de machines sur place ni d’espace de stockage en interne. Cela élimine toutes les contraintes au niveau matériel. Nous effectuons toutes nos prestations sur une architecture 100 % distribuée et 100 % dans le cloud. Tous les traitements sont indépendants et nous pouvons lancer plusieurs centaines de travaux en parallèle. Tout doit être “scalable” (extensible et élastique). À titre d’exemple, l’intégralité d’un catalogue de 600 titres, cédé pour une exploitation en VOD a pu être traité, conformé et relivré en quelques jours. Un autre cas avec une série entière de plusieurs centaines d’épisodes, validée pour acquisition et livrée prête à être diffusée ou publiée en quelques heures. »

D’autres facteurs peuvent expliquer cette frilosité des chaînes. Les gains économiques sont rarement au rendez-vous et ce sont même plutôt des surcoûts non chiffrés au départ qui apparaissent au bas de la facture.

Jérôme Viéron, directeur technique de Quortex estime pour sa part que : « quand les chaînes TV ou les diffuseurs ont voulu utiliser des services de cloud, ils ont transféré directement leurs logiciels et workflows sur des machines virtuelles distantes sans profiter des avantages spécifiques apportés par le cloud. Du coup, les économies sont rarement là. »

Dans une interview qu’il nous a accordée (parue dans le magazine Mediakwest #33), il détaille toutes les innovations sur lesquelles sa société est en train de bâtir une offre innovante dans le domaine du streaming et de la diffusion de la TV par Internet.

 

Des outils de développement adaptés au cloud

La situation pourrait évoluer avec l’introduction de nouvelles fonctionnalités du cloud et de nouveaux outils pour le développement des logiciels, comme les microservices et les protocoles « stateless », le mode « serverless » et les machines préemptives chez les fournisseurs de services de cloud ou encore l’évolution des machines virtuelles vers un fonctionnement en containers avec Docker ou enfin l’orchestrateur Kubernetes. Ce ne sont pas réellement des nouveautés et sont déjà au cœur de multiples services Internet ou intégrés dans de nombreux systèmes de gestion. Tous ces outils de développement ont été conçus pour créer des applications dites « cloud native » beaucoup plus efficaces pour fonctionner dans des environnements de type cloud. Néanmoins, elles peuvent fonctionner sur des machines virtuelles sur site pour les chaînes qui n’ont pas encore sauté le pas vers le cloud.

Ces nouveaux modes de développement commencent à instiller le monde du broadcast et ces terminologies apparaissent dans la communication des constructeurs. Ainsi, Imagine Communications s’engage résolument dans cette voie avec Zenium.

Comme l’explique Darren Gallipeau, responsable produit : « Zenium n’est pas réellement un produit. C’est un framework, une collection de composants et de technologies qui permettent de construire des workflows de traitement, centrés sur la gestion de fichiers, le streaming, l’affichage multiviewer ou un serveur de diffusion. Il nous sert actuellement à créer des nouveaux produits. Avec sa structure modulaire, il peut fonctionner sur des machines virtuelles, sur site ou dans le cloud. Son architecture ouverte permet aussi au client de l’enrichir grâce à un SDK et de définir des outils sur mesure. »

Malgré ces annonces enthousiastes, des acteurs du monde du broadcast tempèrent cette excitation. Édouard Prévost, constate que « le développement d’applications basées sur les microservices concerne en priorité le domaine de la gestion. Pour le secteur du broadcast, les fonctions concernées sont donc celles liées à la manipulation de métadonnées, par exemple le MAM ou le “traffic system”. Par contre lorsqu’il s’agit de manipuler les médias eux-mêmes, pour du transcodage ou du processing, l’élément le plus limitatif, c’est d’abord le hardware. »

« Chez Carrick-Skills, nous avons repris la logique du microservice, mais nous déclinons cela sous forme de microworkflows, ce qui nous permet de contourner ces limites matérielles et donc gagner en efficacité. Le microservice nous simplifie le déploiement, mais ce n’est pas là que se trouve le gain pour le client en termes de retour sur investissement. », explique-t-il.

Tous ces nouveaux outils, microservices, docker et Kubernetes offrent plus de souplesse. Comme le développement est plus rapide, le développeur a tendance à faire évoluer son code sans cesse, mais la mise à jour des outils eux-mêmes peut l’obliger à reprendre certaines parties du code et a contrario ralentir le processus global et être contre-productif. Il y a également la difficulté à bien dimensionner la taille des microservices. S’il est trop gros, on retombe dans la complexité des applicatifs traditionnels, et s’il est trop petit on se retrouve face à une foule difficile à maîtriser. Comme le dit un ingénieur de Google, la bonne taille d’un microservice correspond à une équipe de développement qu’on peut nourrir avec deux pizzas.

Pour Romain Molari, « il ne faut pas céder aux effets de mode et mettre en place des microservices pour dire qu’on en fait. Si un logiciel classique tourne correctement sur une machine locale, et qu’il fait le travail, il vaut mieux le laisser en place. »

Il évoque également le risque de coûts mal maîtrisés. « Monter un serveur AWS ça demande trois clics. Du coup on monte un serveur pour faire un test ou une démo avec une appellation pas très explicite. Et puis on oublie de le fermer. Quand on vérifie la facture en fin de mois on découvre des lignes dont personne ne se souvient. Il faut donc prévoir une logistique pour maîtriser ce type de surcoût. »

 

Une préoccupation majeure : la sécurité

Une autre thématique qui émerge dans les préoccupations des chaînes concerne toutes les questions liées à la sécurité et à la sûreté. Ce domaine concerne à la fois la protection physique des installations déjà largement prise en compte par le passé, mais surtout les mesures indispensables pour se prémunir des cyber-attaques. À partir du moment où les chaînes exploitent des services du cloud, elles répartissent leurs installations sur des sites distants ou collaborent avec des prestataires via des réseaux, elles ouvrent des portes d’accès numériques qui pourraient être mises à profit par des pirates cherchant à récupérer des contenus, mais aussi à prendre la main sur le déroulement des programmes. Ces questions sont maintenant clairement évoquées dans les appels d’offres.

Pascal Souclier, directeur de l’institut de formation IIFA, note depuis quelques mois une réelle demande autour de ces questions. Pour lui, « la réponse ne doit pas se limiter uniquement à des outils techniques ou à des procédures qui, lorsqu’elles deviennent trop lourdes, sont contre-productives. Elles doivent prendre aussi en compte les facteurs humains et comportementaux qui restent des éléments essentiels pour maintenir la vigilance. » La SMPTE s’est emparée de ces questions et a créé un groupe de travail autour de la sécurité dans les architectures réseaux pour l’audiovisuel.

D’autres évolutions techniques, comme l’IA, la réalité augmentée ou la 5G, commencent également à occuper les réflexions des directions techniques des chaînes et des industriels.

Pierre Maillat constate : « Le basculement dans l’IT en général nous ouvre un tas d’opportunités pour réinventer la manière de travailler et de s’adapter aux contraintes économiques. Il faut être malin et imaginatif pour lancer des nouvelles propositions originales afin de séduire les spectateurs. En un mot, il faut s’adapter en permanence. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.39/42. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.


Articles connexes