
Dans un contexte où la production audiovisuelle doit conjuguer rapidité, fiabilité, agilité et maîtrise des coûts, la migration vers des architectures IP s’impose comme une révolution incontournable. Elle est devenue nécessaire pour anticiper l’arrivée de l’UHD, du HDR et pour répondre à l’omniprésence des flux multi-plates-formes. Ce mouvement s’appuie sur le standard SMPTE ST 2110 qui permet le transport sécurisé des flux vidéo, audio et métadonnées sur des réseaux IP.
Pour faire le point sur les stratégies, les défis et les bonnes pratiques, Nevion/Sony a réuni deux responsables techniques de grandes chaînes et deux intégrateurs de référence :
- Pierre Maillat, études techniques at architecture chez Canal+ ;
- Franck Martin, directeur ingénierie et support TV du groupe M6 ;
- Jonathan Légal, principal France et Benelux chez Qvest ;
- Alexandre Dubiez, directeur de l’architecture technologique chez Red Bee Media.

Le groupe Canal+ a emménagé dans son nouveau siège social à Issy-les-Moulineaux, dans le bâtiment Sways, baptisé Canal+ One, au cours de l’été 2022. Ce déménagement a permis de regrouper pour la première fois l’ensemble des équipes de Canal+ France, Canal+ International et StudioCanal sur un même site. Comment s’est opéré le passage vers le SMPTE 2110 sur le nouveau siège de Canal+ One ?
Pierre Maillat (Canal +) : Lors de notre migration vers le site One, nous avons été confrontés à de nombreuses interrogations techniques et stratégiques. Entre le déménagement, la fermeture de plusieurs sites et l’intégration dans de nouvelles infrastructures, il a fallu se poser les bonnes questions : fallait-il opter pour une architecture IP, une solution hybride ou rester sur du SDI traditionnel ? Assez rapidement, nous avons constaté que, sur une infrastructure de grande envergure comme la nôtre, la différence de coût entre le tout IP et le SDI était finalement marginale. Ce constat, nous l’avions déjà dressé lors de la mise en service de la Canal+ Factory en 2016 : à partir d’un certain volume, les surcoûts liés à l’IP sont compensés, voire absorbés, par les économies sur le câblage et la complexité du SDI.
L’un des avantages majeurs du tout IP, notamment en s’appuyant sur un maillage fibre robuste, réside dans la flexibilité des opérations. Contrairement au SDI, où les travaux sont difficilement segmentables, l’IP permet de mener des installations en parallèle. Cela a été un facteur clé dans la réussite de notre déploiement : nous avons pris possession du bâtiment en mars, et les premières émissions étaient à l’antenne dès juillet. Un délai particulièrement court, signe d’une mise en œuvre efficace.
Nous avons également répliqué et amplifié certains principes qui avaient fait le succès de la Factory, notamment la mutualisation des ressources. En SDI, une grille de commutation de grande taille devient vite une contrainte : dès le début de la Factory, avec seulement deux régies et trois studios, une matrice de 600 x 800 aurait été nécessaire, ce qui est extrêmement lourd.
Cette approche centralisée et flexible, rendue possible par l’IP, simplifie considérablement la gestion des ressources et augmente notre agilité. Enfin, One nous permet de répondre efficacement à une autre évolution majeure : celle des formats. Le passage au 1 080p et l’adoption du HDR représentent des bonds qualitatifs importants, mais aussi des défis en matière de bande passante. Notre architecture s’appuie sur deux net centers interconnectés et, pour répondre à l’explosion des débits, nous avons progressivement augmenté la capacité : de 400 Gbit/s par bâtiment à l’origine, nous sommes passés à 800 Gbit/s.
Cette montée en puissance illustre bien la nécessité d’une infrastructure IP capable de s’adapter à la croissance constante des flux liés aux nouveaux standards de production et de diffusion.

Qu’avez-vous appris de votre première expérience avec la Factory ?
Pierre Maillat (Canal +) : Ce que j’ai retenu de l’expérience de la Factory, c’est que le SMPTE ST 2022 est relativement simple. En fait, c’est quasiment du SDI encapsulé sur IP. Le ST 2110, lui, c’est une autre histoire ; il est beaucoup plus complexe à mettre en œuvre. Il faut dire aussi qu’au moment où on a commencé à l’utiliser, la norme manquait encore de maturité. On a traversé plusieurs phases, notamment avec les déménagements successifs de CNews dont le dernier a été fait en deux mois à peine, et surtout au fait qu’on pouvait gérer pas mal de choses à distance grâce à l’IP. C’est là qu’on mesure vraiment l’apport de cette technologie : elle nous a permis une flexibilité qu’on n’aurait jamais eue en SDI.
Aujourd’hui, on opère sur un réseau qui compte environ 120 switches, répartis sur cinq sites. On a une topologie un peu atypique. Mais c’est aussi ça qu’on apprend au fur et à mesure : gérer les volumes, ajuster l’infrastructure, résoudre les cas limites. C’est une montée en compétence continue, et on affine notre savoir-faire à chaque nouvelle étape.
Pourquoi avez-vous fait le choix du SMPTE ST 2110 chez M6 ?
Franck Martin (M6) : Lors du renouvellement complet du play-out, nous avons choisi d’adopter intégralement le standard ST 2110, en nous inspirant du pari réussi du groupe M6 lors du passage de la SD à la HD il y a dix ans. M6 avait pris le pari audacieux de construire des régies HD, quitte à devoir convertir ses premiers contenus. L’investissement a été rapidement rentabilisé, et la transition vers la HD sur l’ensemble des canaux s’est faite naturellement. Nous avons réitéré la démarche avec l’opportunité de renouveler l’intégralité de la régie finale à partir d’une feuille blanche. Nous avions la possibilité d’envisager une infrastructure pérenne, capable d’anticiper sereinement les évolutions futures, notamment l’arrivée progressive de l’UHD. Cette démarche nous a permis d’éviter les compromis d’une infrastructure hybride.
L’un des points qui nous a interpellés dès le départ, c’était de savoir comment nos équipes allaient réagir. Est-ce qu’il fallait désormais recruter des experts réseau ? On a donc porté une attention particulière aux choix des technologies et nous nous sommes orientés vers une solution Evertz qui permettait de rester dans un environnement très proche du SDI, tout en étant sur IP. Nos équipes ont appris, oui, mais elles ne sont pas devenues des ingénieurs réseau. Ce qui pour moi était fondamental.
Dans notre cas, la question de l’évolutivité a aussi été un véritable atout. On a pu ajouter dix chaînes supplémentaires, et ça s’est fait de manière assez fluide. Parfois, on avait encore un peu de bande passante disponible, dans d’autres cas, on en a simplement rajouté. Le système l’a absorbé sans remettre en cause l’architecture initiale.
Aujourd’hui, chez nous, le 2110 s’est banalisé. C’est simplement un nouveau moyen technique pour faire notre métier. Sur le plan financier, c’est vrai qu’au départ c’était plus cher mais je suis convaincu que les courbes — maturité, interopérabilité, rentabilité — finiront par se croiser. Et à ce moment-là, il n’y aura plus de débat. L’IP deviendra une évidence : plus souple, plus performant et même moins coûteux que le SDI.
Est-ce que le passage vers le Full IP est réservé aux grandes chaînes ?
Alexandre Dubiez (Red Bee Media) : Les premiers déploiements IP ont débuté dès 2016, mais s’appuyaient principalement sur des architectures ST 2022. Le SMPTE ST 2110, plus ambitieux et plus exigeant, s’est imposé quelques années plus tard, avec des calendriers très variables selon les structures. Les premiers acteurs à s’engager dans cette voie ont accepté de prendre des risques importants, en testant très tôt des technologies encore en cours de stabilisation.
En tant qu’intégrateur, nous absorbons une partie de ces risques liés à l’introduction d’une nouvelle technologie en apportant notre expérience, mais il est essentiel que le client en soit aussi pleinement conscient. Nous collaborons étroitement avec nos clients afin de définir la stratégie la plus adaptée à leurs besoins, tenant compte de leurs ambitions, et de leurs capacités à accompagner de tels changements.
Aujourd’hui, le ST 2110 a gagné en maturité. Mais au-delà de la norme elle-même, c’est tout l’écosystème IP qui a considérablement évolué. Plusieurs approches coexistent désormais : certains diffuseurs optent pour des solutions NDI, d’autres explorent des infrastructures cloud s’appuyant sur des protocoles comme le SRT, qui s’est largement démocratisé et que nous retrouvons de plus en plus dans les architectures que nous déployons.
Nous constatons également une montée en puissance des appels d’offres intégrant un usage flexible des ressources type cloud. L’un des critères devenus essentiels est aussi la capacité à héberger l’infrastructure à distance. Et c’est là que l’IP démontre toute sa valeur : il désolidarise le lieu d’exploitation du lieu d’hébergement technique, créant une agilité opérationnelle inédite.
Cette dissociation entre infrastructure et exploitation marque un véritable changement de paradigme. Le potentiel est immense, comme en témoigne aujourd’hui le siège One de Canal+, qui en incarne l’une des démonstrations les plus abouties. Et il ne fait aucun doute que nous ne sommes qu’au début de cette mutation.

Comment aborder sereinement la transition vers le ST 2110 ?
Jonathan Legal (QVEST) : Adopter le ST 2110 ne doit pas être un choix guidé par une simple fascination technologique. Les véritables bénéfices de cette norme résident dans sa capacité à mutualiser les ressources et à introduire une nouvelle flexibilité opérationnelle. Bien que cette flexibilité puisse sembler rigide dans les premières phases de déploiement, elle révèle toute sa puissance une fois l’écosystème correctement conçu et stabilisé.
L’un des apports majeurs du 2110 est justement cette rationalisation des opérations, qui répond aussi aux exigences croissantes en matière de responsabilité sociétale des entreprises (RSE). Même si le gain énergétique direct n’est pas toujours évident, l’optimisation des processus l’est. Ce que l’on peut optimiser, c’est le modèle opérationnel lui-même : par exemple, remplacer les systèmes de contrôle dédiés par studio par une logique mutualisée selon le nombre de sessions simultanées. C’est déjà une forme d’économie et d’efficience.
Bien sûr, il existe des alternatives techniques plus simples et moins coûteuses, comme le NDI ou le SRT, notamment dans les environnements cloud. Ces solutions peuvent parfaitement convenir pour des usages ciblés. Mais dès que l’on aborde une logique multisites ou des architectures complexes comme celles déployées chez Canal+, ces technologies montrent rapidement leurs limites. Dans ces cas-là, le 2110 s’impose quasiment comme une évidence.
Pour accompagner les montées en charge futures, il est essentiel de concevoir une infrastructure technique évolutive, capable d’absorber des changements de volumétrie et de complexité. Cela suppose d’intégrer l’interopérabilité en amont, dès la conception, et sur ce plan, les progrès sont nets : on voit émerger des écosystèmes cohérents et interopérables autour du 2110.
Cela dit, la viabilité économique reste un critère central. À ce jour, seules les organisations atteignant un volume critique peuvent véritablement tirer un avantage financier clair du ST 2110 par rapport à une architecture SDI traditionnelle. L’équation dépend fortement de l’échelle, de la maturité des technologies utilisées, mais aussi — et surtout — de la capacité des équipes à se structurer autour de ce nouveau modèle.
Mais lorsque cette culture d’ingénierie est présente, que l’organisation est prête à évoluer et à se réinventer, alors oui, il faut franchir le pas. Non pas pour répondre à une mode technologique, mais pour se préparer aux enjeux à venir : UHD, HDR, production distribuée, agilité multisite… Le 2110 n’est pas une fin en soi, c’est un levier stratégique vers l’avenir de la production audiovisuelle.
Comment s’assurer, en amont de l’interopérabilité, et comment les fabricants, justement, respectent-ils cette interopérabilité ?
Pierre Maillat (Canal +) : J’ai toujours trouvé que le SDI avait une force indéniable : celle de garantir une interopérabilité réelle et stable… simple, clair, et ça fonctionne. En fait, ce sont souvent les protocoles de contrôle qui posent le plus de difficultés. On constate que plus on bascule vers des solutions logicielles, plus l’environnement devient instable. Chaque mise à jour de firmware apporte son lot de nouveaux bugs, chaque version logicielle devrait presque faire l’objet d’un plan de test interne, simplement pour s’assurer qu’un minimum d’interopérabilité est toujours garanti. Le problème, c’est que les ressources sont limitées et malgré tout, il faut continuer à avancer.
Alors on a deux options : soit on investit en interne pour tester et sécuriser les environnements — en quelque sorte, on s’achète une assurance qualité —, soit on fait confiance… en croisant les doigts pour que tout fonctionne. Mais à force, ce choix devient stratégique.
Norbert Paquet (Sony) : Le « zéro défaut » n’existe pas – c’est une illusion – mais ce qui compte vraiment, c’est la démarche : est-ce que les acteurs impliqués s’engagent réellement à faciliter l’intégration, à assurer la continuité des opérations ? Pour moi, cette posture est clairement devenue un critère de sélection déterminant. À l’inverse, il existe encore aujourd’hui des constructeurs ou éditeurs qui ne jouent pas le jeu de l’interopérabilité. Et dans des environnements hyper-convergés, comme ceux que permet le ST 2110 ou l’IP en général, ce manque d’engagement devient difficilement acceptable. On fait face à des contraintes de production qui ne tolèrent plus l’à-peu-près.
Ce constat, on ne le fait malheureusement pas toujours en amont. Bien souvent, c’est l’expérience terrain qui nous ouvre les yeux. Et sincèrement, c’est regrettable. Mais la réalité, on la découvre souvent une fois le serveur installé, quand il faut commencer à configurer, tester, délivrer. C’est à ce moment-là qu’on voit si les compétences sont là, si les équipes sont mobilisées, si la volonté d’aller jusqu’au bout de l’interopérabilité existe réellement.
Parce que non, l’interopérabilité ne se résume pas à ajouter une carte 2110 et cocher une case. Il ne s’agit pas seulement de connecter les flux, mais de garantir que les fonctionnalités applicatives communiquent entre elles, que les workflows transitent de manière fluide et cohérente. C’est un vrai travail d’ingénierie, et cela suppose une décision stratégique de la part des fournisseurs : celle de vouloir pleinement s’intégrer dans un écosystème interopérable.
Qu’il y ait des bugs, c’est normal. On travaille dans un monde informatique, et un système sans aucun bug, ça n’existe pas. Ce qu’on attend, en revanche, c’est que le chemin critique soit testé en profondeur, et que tout soit mis en place pour en minimiser la surface d’impact. Il faut pouvoir assurer la diffusion en toute circonstance, disposer de solutions de repli, et pouvoir collaborer efficacement avec l’éditeur ou le constructeur pour corriger rapidement ce qui doit l’être.
C’est pour ça que, pour moi, l’interopérabilité n’est plus un enjeu technique secondaire, c’est un critère de choix fondamental. C’est même un élément décisif pour continuer — ou non — à collaborer avec un partenaire.
Alexandre Dubiez (Red Bee Media) : Il y a une quinzaine d’années, on travaillait avec des solutions clés en main : la responsabilité était clairement identifiée : elle incombait au fournisseur, de bout en bout. Aujourd’hui, nous sommes passés sur des architectures beaucoup plus fragmentées. Le logiciel d’un côté, le matériel de l’autre, du computing standardisé, et le stockage, parfois, encore ailleurs. Dans ce contexte, la responsabilité de l’intégrateur prend une toute autre dimension : c’est à nous de faire en sorte que tout fonctionne ensemble. Et ça implique des défis considérables, aussi bien techniques qu’humains : Il faut être capable de tester, d’assembler, de diagnostiquer avec des profils plus polyvalents et une vraie culture de l’interopérabilité. Faire cohabiter du software en évolution constante — avec des patches, des mises à jour de firmware — avec une infrastructure stable et sécurisée, c’est un exercice très complexe.
Et les exigences de sécurité, elles aussi, ne cessent d’augmenter avec des correctifs à appliquer des obligations de conformité, surveillance des vulnérabilités… qui alourdissent la gestion opérationnelle, notamment sur les systèmes critiques.
Pour nous, l’existence d’un lab est devenu indispensable, pour tester toutes les briques critiques : les éléments du chemin de diffusion, les composants de la chaîne de production, les mises à jour majeures… Tout ce qui pourrait impacter la stabilité doit passer par une phase de validation. Et comme il n’est pas toujours possible de tout tester de manière exhaustive, pour des zones non critiques ou en environnement moins sensible, on fait des essais pour observer les effets en situation. C’est une approche que l’on voit déjà dans l’univers IT depuis des années. La maîtrise du changement passe par cette ingénierie du test raisonné.
Quand on fait un déploiement ST 2110 est-ce que cela peut se faire au fur et à mesure, ou il faut tout envisager en amont ?
Franck Martin (M6) : Chez nous aussi, la construction a été progressive, mais le cœur du système a été mis en œuvre en une seule fois. La principale difficulté, c’est que la régie finale restait en fonctionnement au même endroit, aussi bien en termes d’exploitation que de salle technique. On a donc profité de la compacité des nouveaux équipements pour regagner un peu de place dans les baies, ce qui nous a permis d’avancer par étapes sur la construction. Mais une fois que tout a été prêt, le basculement s’est fait d’un bloc.
Parmi les éléments marquants de cette transition, ce qui a vraiment changé, c’est la gestion du câblage fibre optique. On parle souvent de l’IP comme d’un changement de protocole ou de signal, mais le support physique est tout aussi critique. Et là, on a rapidement compris qu’on n’avait pas toutes les compétences en interne. On est allé chercher les bonnes pratiques auprès d’opérateurs de data centers, pour comprendre comment ils organisaient leurs infrastructures. Nos anciens systèmes de patch SDI ont été remplacés par des infrastructures inspirées des télécoms, bien plus adaptées aux nouveaux volumes de fibres.
Aujourd’hui, on dispose de switchs optiques fiables, que ce soit entre les bâtiments ou au sein même de chaque site avec un gain en compacité – les fibres prennent beaucoup moins de place dans les baies – mais on peut souligner que cela ne représente pas une économie : le câblage fibre reste coûteux, même s’il est plus dense. Si j’ai un conseil à donner, c’est celui-là : traitez le câblage comme un projet d’ingénierie à part entière, avec une vraie rigueur dès la phase de conception !
Enfin, côté diffusion, on a mis une première chaîne à l’antenne, mais elle tournait déjà sur l’infrastructure cible prévue pour l’ensemble. Donc, même si ça a pu paraître progressif en apparence, le vrai basculement s’est bien fait d’un seul coup, avec une infrastructure mutualisée, pensée dès le départ pour toutes les chaînes.
Pierre Maillat (Canal+) : Aujourd’hui, avec les évolutions constantes des stratégies de groupe, les acquisitions, les partenariats, il devient de plus en plus difficile de figer les périmètres opérationnels. Les besoins changent en permanence, et il devient crucial de pouvoir absorber des variations de charge soudaines, notamment lors de grands événements comme une soirée de Ligue des Champions, où l’on peut diffuser jusqu’à dix-huit canaux simultanément.
Dans ce contexte, notre réponse repose sur le déploiement logiciel à la demande. Ce modèle nous permet de faire face à ces pics d’activité sans obliger nos clients à surinvestir dans du matériel qui resterait sous-utilisé en dehors de ces événements exceptionnels. Un serveur haut de gamme, doté de GPU et d’autres composants spécialisés, représente certes un investissement conséquent mais il s’amortit rapidement dès lors que les pics sont prévus, fréquents et exploités pleinement. Grâce à cette approche, nous parvenons à gérer des volumes massifs de diffusion sans surcharge structurelle. Et croyez-moi, les équipes éditoriales ne manquent jamais d’idées pour remplir dix-huit canaux en parallèle ! Dès lors que ces canaux sont utilisés de manière cohérente et régulière, l’investissement devient vite rentable.
En somme, la question n’est pas seulement de prédire les usages, mais d’être en mesure d’y répondre rapidement, sans rigidité, en activant les bonnes ressources au bon moment. Et c’est bien là tout l’intérêt d’un modèle basé sur l’élasticité logicielle, plutôt que sur une logique d’infrastructure figée.

Comment accompagnez-vous les évolutions des métiers ?
Pierre Maillat (Canal +) : Aujourd’hui, on se retrouve avec une nouvelle génération de professionnels qui, souvent, ne connaissent ni les fondamentaux du signal, ni encore vraiment les subtilités du ST 2110. Et ça, c’est problématique. Parce qu’ils arrivent dans des environnements où la culture du pourquoi et du comment a parfois disparu. Et pourtant, les enjeux restent bien là : le timing, la synchronisation, la compréhension de ce qu’est un flux audio ou vidéo, même s’ils sont désormais numériques, restent essentiels. On a donc un vrai sujet : comment embarquer les équipes, comment leur faire comprendre ce qui est important, pourquoi c’est important et pas seulement dans le cadre d’un fonctionnement normal, mais surtout quand ça ne fonctionne plus.
Ce manque de compréhension est souvent le reflet d’un déficit global de retour d’expérience. Et c’est un point à surveiller de près, d’autant plus que la complexité ne fait qu’augmenter. À peine commence-t-on à stabiliser le 2110, à faire comprendre ses spécificités, que déjà, on s’oriente vers des infrastructures logicielles encore plus abstraites, vers le cloud, l’infra-scale… des architectures qui demandent un nouveau niveau d’agilité, de compréhension et de rigueur.
Et là, la marche devient plus haute. Parce que le SDI, c’était plug-and-play. Le 2110, c’est plutôt plug-and-pray dans certains cas [sourire], même si ça s’améliore. Mais demain, on va encore plus loin dans l’abstraction, et il faut absolument éviter que certains profils soient laissés sur le bord du chemin, ou pire, que les problèmes, eux, finissent au milieu de la route, en plein trafic.
Il ne s’agit pas simplement d’avancer technologiquement. Il faut préparer les gens, les accompagner, leur donner les moyens de comprendre, de monter en compétence progressivement, pour que la bascule vers ces futurs environnements ne se fasse pas dans la douleur.
Il y a aussi une forme de vigilance à avoir : ne pas faire de l’over-engineering pour le plaisir de l’innovation. Oui, les technologies sont fascinantes, et oui, les concepts avancés sont séduisants. Mais il faut rester pragmatique, penser usage, opérabilité, stabilité. Et surtout, il faut garder en tête que la vraie complexité ne se révèle jamais quand tout fonctionne, mais au moment où il faut résoudre un incident. C’est là que l’expertise fait la différence. Et c’est précisément pour ça qu’il faut continuer à investir dans la transmission, la pédagogie, et la consolidation des compétences de terrain.
Franck Martin (M6) : Mon seul mot d’ordre, c’est de ne pas rater les virages importants, de rester à l’écoute, curieux, opportuniste. Et ça vaut pour les technologies, mais aussi pour la montée en compétence des équipes. On a décomplexé notre approche de la formation. On a mis en place ce qu’il fallait, au bon moment, et aujourd’hui, je pense qu’on a des équipes solides, sûres d’elles, capables de traverser les évolutions sans se sentir dépassées. Et si demain on doit prendre un tournant plus marqué vers le cloud, on le fera. Progressivement, sans précipitation. Et si cela suppose de réinternaliser certaines compétences parce que le cloud devient une expertise pérenne, alors on le fera également, sereinement.
Le terrain de jeu est vaste, notre portfolio est immense, et franchement, c’est passionnant. Mais cela reste un exercice complexe, parce que le vrai enjeu n’est plus tant technologique qu’humain. Il faut savoir orienter les efforts de formation sans se disperser, faire les bons choix en matière de ressources, éviter les effets de mode… C’est presque plus un sujet de stratégie RH que de technologie pure.
Alexandre Dubiez (Red Bee Media) : L’accompagnement des équipes — en interne comme côté client — est devenu un enjeu majeur. Il l’a toujours été, bien sûr, mais dans les projets que nous menons aujourd’hui, il est devenu absolument central. Pourquoi ? Parce qu’au-delà de la complexité technique des architectures IP, il y a souvent une transformation profonde des modes d’exploitation qui les accompagne. Dans beaucoup de projets, le bénéfice attendu ne repose pas uniquement sur la technologie, mais sur l’optimisation des process opérationnels, sur une nouvelle façon de produire, de collaborer, d’exploiter les outils. C’est là que l’accompagnement prend tout son sens.
De notre côté, nous avons dû élargir notre panel d’expertises pour répondre à ces nouveaux défis. Là où les projets relevaient autrefois essentiellement des compétences vidéo, aujourd’hui, il faut mobiliser des compétences IT, cloud, software, réseau, cybersécurité. Le périmètre s’est considérablement élargi, et la « surface à couvrir » est plus grande que jamais. Heureusement, nos équipes techniques ont cette curiosité naturelle, cette envie d’apprendre. Elles montent en compétence via des formations, bien sûr, mais aussi énormément par l’expérience terrain.
Une fois la plate-forme livrée, on n’est plus du tout dans un environnement figé. Le logiciel évolue en permanence, avec ses lots de mises à jour, de correctifs de sécurité, de nouvelles fonctionnalités. Et cela implique pour les exploitants un changement profond de culture. Le problème, c’est que ni les équipes, ni les structures, ni parfois même les budgets n’étaient prévus pour ça.
C’est là qu’intervient notre double rôle : intégrateur, bien sûr, mais aussi fournisseur de services managés. Cette expérience, on l’a vécue en interne, et on s’efforce de la partager et de la transmettre à nos clients. Parce que, pour nous, la plus grande difficulté d’accompagnement se situe justement là : dans l’exploitation à long terme, bien plus que dans les fonctions opérationnelles immédiates.
Jonathan Legal (QVEST) : C’est là que nous, sociétés de conseils spécialisés et intégrateurs, avons un rôle clé. Nous sommes là pour accompagner, pas pour remplacer. Ce n’est ni notre volonté ni notre mission de supplanter les compétences internes. Au contraire, notre objectif est de faire grandir les équipes, en fonction de leur rythme et de leurs réalités, en complétant la palette de compétences internes présente chez nos clients par la fourniture d’expertise au travers de contrats de services souples et adaptés à chacun. Parfois, notre intervention est ciblée, sur un composant ou un serveur. D’autres fois, elle s’inscrit dans des projets de transformation beaucoup plus larges. Mais dans tous les cas, le cœur de notre mission reste le même : accompagner le changement, sur le long terme.
Et pour moi, c’est très clair : un projet 2110, cloud, ou IA n’est pas un projet technologique. C’est un projet humain. La technologie, on la maîtrise. Elle continuera d’évoluer, on saura toujours former des experts pour la déployer. Le véritable défi, c’est l’appropriation. Comment fait-on pour que les exploitants comprennent ce que ces outils vont leur apporter, comment ils vont les aider, parfois même les soulager de tâches répétitives ou sans valeur ajoutée ?
Ce travail d’accompagnement prend du temps. Parfois, c’est la partie « gestion du changement » qui absorbe la majorité du budget, et s’étale sur plusieurs années. L’infrastructure, on la déploie, on l’optimise, on la fait évoluer. On y ajoute parfois de nouvelles briques, issues de technologies émergentes que personne ne connaît encore. Mais le vrai enjeu, c’est d’aider les équipes à intégrer ces évolutions dans leur quotidien. On ne va pas faire de prédictions hasardeuses, mais on sait déjà que les contraintes vont continuer à se renforcer. L’important, ce sera de garder cette capacité d’adaptation, cette agilité collective, pour rester en mouvement, sans jamais perdre de vue que ce sont les femmes et les hommes sur le terrain qui feront la réussite de ces projets.
Est-ce qu’on arrive à vendre ces évolutions en direction financière et comment on leur parle ? Est-ce qu’on leur parle de ROI ou pas ?
Pierre Maillat (Canal+) : Je vais apporter une réponse un peu moins technique, et peut-être plus stratégique qu’éditoriale. Aujourd’hui, notre véritable enjeu, c’est de comprendre comment construire un groupe international cohérent, avec une logique de synergie et de partage d’expertise.
Avec la probable acquisition de MultiChoice – un acteur majeur avec près de 7 900 collaborateurs, équivalent à la taille actuelle du groupe Canal+ en Afrique du Sud – l’extension géographique et humaine du groupe est une réalité concrète. À cela s’ajoute la montée au capital d’opérateurs comme Viu (en Asie), ou la présence croissante en Europe de l’Est et en Scandinavie, comme avec Viaplay.
Ce contexte nous amène à poser une question centrale : est-il pertinent pour le groupe de structurer une véritable offre de services mutualisés à l’échelle internationale ?
Cette réflexion commencerait par l’identification d’un réseau de ressources et d’expertises, que l’on pourrait mailler de manière structurée. L’objectif ne serait pas de tout centraliser, mais de différencier, de spécialiser certains pôles, et de créer des complémentarités claires. À partir de là, on pourrait construire des services à valeur ajoutée, en particulier sur la production live, qui reste un axe stratégique fort pour nous. Il s’agirait par exemple de mutualiser la production sur les grands événements internationaux, notamment ceux pour lesquels plusieurs entités du groupe détiennent des droits communs.
Autre exemple : proposer des services à des entités ayant moins de moyens, comme nos collègues du Myanmar ou du Vietnam. On peut imaginer des prestations à la carte : cabines speak partagées, studios d’enregistrement accessibles, ou même services de localisation linguistique (notamment en français). L’idée serait de concevoir des services qu’on teste et valide d’abord en France, puis qu’on industrialise et met à disposition des autres marchés. On pourrait aller jusqu’à proposer des modèles de production « à deux vitesses », modulables en fonction des besoins opérationnels ou budgétaires des différentes entités. Ce n’est pas une logique d’imposition, mais bien de partage. Un peu dans l’esprit de ce que Sky a su bâtir au Royaume-Uni, avec des centres d’expertise distribués. On a d’ailleurs déjà des exemples dans le groupe comme notre pôle de diffusion en Pologne ou le centre de réception satellite qui y est associé.
Les impacts de cette stratégie sont doubles, notamment avec la montée en puissance de la plate-forme Canal de distribution du groupe. D’un côté, il y a le non-linéaire, avec une augmentation massive du volume de contenus à localiser et distribuer, donc des enjeux forts de gestion du stock. De l’autre, il y a le live, qui appelle une capacité à fournir des services de production souples, mutualisables et pilotables à distance, dans une logique de rationalisation. Cela répond autant à des enjeux de valeur ajoutée qu’à des impératifs de coût : soyons clairs, il y a aussi une logique de faire « plus pour moins ».
En résumé, ce qu’on pourrait bâtir, c’est un écosystème de services et d’infrastructures distribués à l’échelle du groupe, où chaque entité peut à la fois contribuer, bénéficier, et évoluer dans une logique d’efficience collective. Et tout cela, sans forcément réinventer la roue à chaque fois.
Norbert Paquet (Sony) : Oui, il faut le dire clairement : aujourd’hui, nous sommes très largement pilotés par le retour sur investissement. Ce phénomène n’est d’ailleurs pas limité aux groupes privés. Tout le monde, quel que soit son modèle économique, est confronté à des problématiques de revenus. La multiplication des canaux, des formats et des modes de consommation pousse à produire toujours plus de contenus, mais dans un cadre économique de plus en plus contraint.
Historiquement, la publicité et l’argent public étaient les deux grandes sources de financement. Aujourd’hui, on y ajoute la souscription, mais tout cela conduit à une fragmentation des recettes, donc à une fragmentation des contenus. Les contenus « premium » restent premium, mais tout ce qui est en-dessous doit être produit à des coûts optimisés. On se retrouve avec une pyramide éditoriale : large à la base, plus étroite au sommet.
Quand je regarde en arrière, je réalise qu’on vit des cycles technologiques assez similaires. Il y a dix-sept ans, je travaillais sur les premiers projets autour du XDCAM. On sortait à peine de l’univers des cassettes pour entrer dans le monde du fichier. On parlait déjà d’interopérabilité, de formats comme le MXF OP1a, et on commençait à installer des serveurs de stockage pour la postproduction. Depuis, on n’a jamais cessé de réinventer les workflows, notamment côté postprod et gestion du stock. Et aujourd’hui, avec l’évolution du live et des plates-formes, on reconstruit en parallèle un nouvel environnement de production. Ce que je trouve fascinant, c’est que les métiers ont su évoluer naturellement, en intégrant petit à petit des compétences venues de l’IT.
Cette convergence IT/broadcast, on l’a vécue dès les premiers réseaux de postprod dans les grandes régies. Les problématiques de flux, de latence, d’interopérabilité étaient déjà là. Aujourd’hui, on y ajoute de nouvelles dimensions : sécurité, DevOps, automatisation, etc. Et pour moi, l’enjeu n’est pas dans l’opposition entre les générations, mais dans leur complémentarité. C’est cette diversité de parcours, de méthodes et de regards qui fait notre force. Tant qu’on parvient à faire dialoguer ces mondes, à les nourrir mutuellement, on reste capables de faire face aux nouvelles problématiques qui arrivent sans cesse.

Quelle réflexion stratégique sur les architectures médias de demain ?
Alexandre Dubiez (Red Bee Media) : Ce n’est jamais simple de dire avec certitude : « Voilà, c’est cette voie-là qu’il faut suivre. » Prenons par exemple un débat qui monte aujourd’hui : le concept de DMF (Dynamic Media Factory). On commence à se demander ce que ça va devenir, comment ça va s’implémenter, et surtout quels usages et quels modèles vont en découler dans trois à cinq ans.
Ce type de réflexion, c’est pour moi la continuité naturelle d’un questionnement plus large : comment organiser la production demain ? Il est toujours difficile de sortir du quotidien, de lever la tête et de se demander : où allons-nous ? Mais c’est absolument nécessaire. Même si on ne tranche pas, même si on ne choisit pas immédiatement une voie unique, on peut au moins commencer à poser les bonnes questions, à initier des conversations entre les acteurs du secteur avec un écosystème extrêmement modulaire, une sorte de boîte de Lego.
Le DMF est un cadre de pensée qui permet de digérer, d’exploiter pleinement les possibilités offertes par les technologies IP, comme le ST 2110, sans simplement reproduire les anciens modèles. On peut entrer dans une logique d’abstraction des couches techniques, avec une séparation claire entre le hardware, le réseau, et le software et son orchestration. C’est là que les plates-formes prennent toute leur importance. Elles apportent une forme de cohérence et d’universalité, qui non seulement facilite l’exploitation, mais permet aussi de réduire les risques d’interopérabilité.
C’est peut-être une question de génération, mais j’ai vraiment le sentiment que tout s’accélère. Et ce n’est pas qu’une impression : le développement logiciel va plus vite, surtout quand on le compare à ce qu’impliquait, autrefois, le prototypage matériel ou la fabrication d’une carte électronique. La technologie est devenue plus agile, moins contraignante, et donc plus rapide à déployer.
Mais en parallèle, elle s’est aussi complexifiée. C’est tout le paradoxe : on va vers le tout-IP, vers le logiciel, pour simplifier à l’usage, mais cela suppose une sophistication extrême en amont : architecture, sécurité, scalabilité… Il faut anticiper beaucoup de choses pour, in fine, offrir une solution « simple » à l’utilisateur.
Ajoutez à cela la pression économique, comme le rappelait Franck, et vous obtenez un contexte où concevoir, maintenir et faire évoluer une architecture propriétaire devient extrêmement difficile, sauf si l’on atteint une taille critique. Et c’est bien là le nœud : les grands groupes, avec des volumes suffisants, peuvent encore justifier le développement de leur propre écosystème. Ils peuvent tester, adapter, absorber les coûts. Mais pour les structures plus petites ou moins capitalisées, la dépendance aux plates-formes devient inévitable… pour le meilleur, comme pour le pire. On le voit déjà : la migration vers le cloud est en marche. Il reste des bastions (notamment sur la diffusion), mais la production elle-même commence à basculer. Cette transition n’est pas un phénomène isolé, c’est un mouvement de fond.
Chez Red Bee, nous avons lancé notre propre plate-forme de streaming cloud-native. Elle repose sur une architecture micro-services, avec des briques fonctionnelles (CDN, CRM, paiement, etc.) fournies par différents partenaires. L’intérêt, c’est que chacune de ces briques est interchangeable. Si l’une devient trop coûteuse, on peut la remplacer rapidement. Et cette souplesse est un atout considérable.
Soyons lucides : le modèle où l’on maîtrise l’intégralité de la « stack » technique est en voie de disparition pour une grande partie des acteurs. Seuls les plus gros, ou ceux qui disposent des capacités d’adaptation et de maintien nécessaires, pourront encore se le permettre. Pour tous les autres, il faudra composer avec une part croissante d’externalisation, et donc développer une capacité à orchestrer intelligemment des briques externes, à construire un système modulaire, évolutif, mais sans jamais perdre la main sur les choix clés.
Franck Martin (M6) : Je constate, de mon côté, que la transition vers ces nouveaux outils et environnements technologiques s’accélère parfois un peu trop vite. Entre nous, ici autour de la table, le vocabulaire technique semble évident : c’est notre quotidien. Mais je vous assure que, dans une salle d’exploitation au sens large – que ce soit en production, en diffusion ou en postproduction – on perd rapidement l’audience.
Il faut avoir conscience que notre métier s’est profondément complexifié. On n’en est plus à tirer un câble pour faire passer un signal jusqu’à sa diffusion le soir-même. Il existe aujourd’hui une couche de prérequis, souvent très éloignée des savoir-faire historiques, qui impose une transformation en profondeur des compétences. Le vrai sujet, c’est que nous demandons aujourd’hui à des profils qui n’ont parfois aucune culture informatique – au sens large du terme – d’appréhender des enjeux totalement nouveaux. Et parmi ces enjeux, la sécurité est devenue un pilier central, comme l’a souligné Alexandre. C’est d’ailleurs l’un des domaines où l’intelligence artificielle est la plus avancée. On ne peut plus envisager une exploitation sérieuse sans monitoring actif des menaces. C’est devenu un must have, indispensable pour répondre à des cahiers des charges toujours plus complexes, et souvent très éloignés de la réalité opérationnelle des équipes.
Alors la question, ce n’est plus de savoir si on va vers ces technologies. On y va. Point. La question, c’est comment on y va. Et surtout, comment on embarque toutes les générations, toutes les équipes – production, diffusion, postprod – dans cette transformation. Ce changement ne peut pas être uniforme. Il doit s’adapter à la maturité, au rythme, aux contraintes de chaque client. Certaines équipes, comme chez M6, sont peut-être plus autonomes. D’autres auront besoin d’un accompagnement plus poussé sur d’autres aspects. Chaque organisation a sa propre courbe d’apprentissage.
La gestion du risque : une nouvelle ingénierie imposée par l’informatique et la cybersécurité ?
Franck Martin (M6) : Aujourd’hui, on fait face à mises à jour régulières, correctifs de sécurité… des injonctions qu’on ne connaissait pas ou peu il y a encore quelques années. Et, évidemment, cela prend du temps, demande des ressources, et coûte de l’argent. Finalement, on se retrouve dans une situation proche de ce qui a été dit sur la prise de risque : on est obligés de l’accepter, en la maîtrisant au maximum. Et cela nous pousse à développer une forme d’ingénierie différente, plus agile, plus réactive. Par exemple, on va déployer une nouvelle version sur un slot de secours, mettre en place des mécanismes de rollback, organiser nos validations de façon plus itérative. Ce sont des pratiques qu’on appliquait moins dans nos environnements broadcast traditionnels, où on testait de manière plus structurée et en amont.
On prend probablement plus de risques qu’avant et cette réalité nous impose aussi une agilité organisationnelle : savoir s’adapter, se coordonner, intégrer de la résilience dans nos systèmes, non plus comme une option, mais comme une condition de fonctionnement. C’est une transformation culturelle, autant que technique.
Est-ce que vous arrivez à attirer de nouvelles générations de talent pour l’ingénierie dans les chaînes de télé, à faire s’intéresser les gens qui viennent, à se lancer dans l’univers de la télévision ?
Pierre Maillat (Canal+) : Je peux répondre à cette question avec enthousiasme, parce que nous sommes heureux d’accueillir des jeunes dans nos équipes, et encore plus heureux quand ils ont envie de rester. Mais pour ça, il faut commencer par une chose essentielle : les écouter. C’est vrai, attirer des jeunes vers nos métiers est devenu plus difficile. L’univers de la télévision linéaire peut leur sembler un peu vieillot, dépassé par rapport à ce qu’ils consomment et vivent au quotidien. Donc non, on ne sera pas spontanément perçus comme un secteur « cool ».
Ils cherchent une équipe. Ils cherchent une ambiance. Une communauté. Ils veulent pouvoir s’intégrer, partager, tisser du lien, presque comme on se fait des amis. Ils cherchent aussi un cadre de travail stimulant, et surtout du sens dans ce qu’ils font au quotidien. Ce que je trouve passionnant, c’est que les jeunes sont curieux, extrêmement curieux. Parfois même plus que nous ne l’étions. Ils aiment picorer, tester, explorer. Et parfois, ils arrivent par hasard, parce qu’ils ont été attirés par un aspect du métier ou une opportunité ponctuelle.
Et c’est là qu’on a un rôle à jouer. Même si au départ ils ne se projettent pas dans une carrière audiovisuelle, notre objectif est de leur offrir un terreau fertile, un lieu où ils vont pouvoir se développer, apprendre, s’épanouir, et peut-être, avoir envie de rester. En somme, ce n’est pas à eux de s’adapter à notre secteur, c’est à nous de faire évoluer nos environnements de travail pour leur donner envie d’y contribuer. Et c’est tout à fait possible. À condition d’avoir la volonté d’accueillir, de transmettre et d’écouter.
Franck Martin (M6) : De mon côté, j’ai mes réponses : les gens restent. Et c’est un bon indicateur. Je ne prétends pas que notre secteur soit naturellement attractif – il l’est sans doute moins qu’avant – mais nous savons nous adapter. Chez nous, l’agilité, c’est tous les jours. Si un besoin se présente, on le traite immédiatement : on identifie la compétence manquante, on construit ou on trouve la bonne formation, on va chercher la personne, la ressource, là où elle se trouve. Ce n’est pas une stratégie rigide planifiée sur trois ans, c’est de l’adaptation continue.
Et bien sûr, on s’appuie sur notre écosystème : si je sais que Qvest a l’expertise, je la mobilise. Si c’est chez Red Bee, pareil. On est opportuniste, mais dans le bon sens du terme : chercher au bon endroit, au bon moment, qu’il s’agisse d’une compétence technique… ou humaine.
Si je reviens à notre sujet du jour, l’IP joue un vrai rôle de catalyseur. C’est, à mes yeux, le « miel pour les abeilles » : ça redonne au métier une dynamique, une forme de fraîcheur technologique qui le rend plus attractif, notamment pour les jeunes profils. Ajoutez à cela un peu de « bazar logiciel », du DevOps, et vous obtenez un cocktail qui colle parfaitement à l’air du temps. Ce mélange de techniques modernes, de modularité et de rapidité d’exécution séduit, clairement. Il attire, il intrigue.
Mais il faut aussi éviter un travers : le picorage. La tentation de ne s’intéresser qu’à un fragment du métier – un outil, une brique technologique – sans en comprendre l’ensemble du système. L’objectif, c’est que les gens consomment le menu complet, pas seulement les entrées.
Enfin, je crois qu’on doit garder un lien fort entre la technologie et la finalité de notre métier : la fabrication de contenus. Si un jeune développeur n’a pas conscience que ce qu’il code en permettant à un contenu d’exister, de passer à l’antenne, on a perdu l’essentiel. C’est ça, la vraie source de motivation et de fidélisation : comprendre pourquoi on fait les choses, comment son travail s’inscrit dans une chaîne de valeur concrète, éditoriale, humaine. Si on oublie cette dimension-là – le sens, l’impact réel de ce qu’on produit – alors on risque de tout banaliser. Et de perdre ce qui rend notre secteur passionnant.
Article paru pour la première fois dans Mediakwest # 62, p. 30 – 38