Pré-IBC: Impressions et tendances en matière de broadcast: mélangeurs, serveurs et infrastructures IP

Au printemps dernier, le NAB, plus grand salon mondial consacré aux technologies pour les médias, le divertissement et la communication audiovisuelle basculait un peu plus dans l’ère de la virtualisation, du cloud et de la mise à jour. Les matériels dédiés cèdent désormais le pas aux équipements informatiques et les constructeurs ralentissent la cadence de sortie de leurs nouveautés produits pour se consacrer à l’enrichissement des fonctionnalités existantes et vers des solutions d’entrée de gamme s’adressant à de nouveaux marchés... Ce tour d'horizon permettra à d'aucuns de se (re)mettre en condition pour la rentrée !
1_INTRO_OK.jpg

 

Quand vous revenez du NAB (National Association of Broadcasters), la question rituelle est : « Alors, c’était un bon cru ? » et il est de plus en plus difficile de répondre, car les salons, de manière générale, sont une étape dans la vie des marques. Ce n’est pas, ou plus, le lieu des annonces fracassantes. Les constructeurs utilisent les réseaux sociaux, la presse, leurs moyens de communication pour présenter ces nouveautés et le salon est le moment, avant tout, de la rencontre, de la promesse entre le produit et le futur utilisateur.

L’autre point est, nous ne l’apprenons à personne, l’informatisation de nos marchés, et donc la part du hardware diminuant, virtualise de plus en plus les annonces. Il est quand même difficile de s’enthousiasmer sur une mise à jour, ce n’est pas forcément très visuel, or c’est le visuel qui s’impose le plus sur un salon.

Quand vous croisez 2 000 exposants dans les allées du NAB, il est impossible de s’arrêter partout – la marque doit communiquer en amont pour vous appâter sur son stand. Les stands, pour certains constructeurs, restent très grands, mais sont moins « show of » qu’avant. Le temps est révolu des stands avec des hôtesses par dizaines (ce n’est pas le Mondial de l’automobile !). Les exposants sont devenus un peu plus raisonnables et ne sont plus excessifs dans leur communication.

La dernière fois, c’était il y a un peu moins de 10 ans avec la 3D Relief, où n’importe quel stand de fabricant de trépied, de stockage ou d’asset management, tout le monde était « 3D Ready ». Au final, une technologie qui n’a pas décollé dans l’univers du broadcast ; et les constructeurs ont, semble-t-il, appris la leçon et se montrent plus réfléchis. Voilà pourquoi même si la VR est présente ici et là, la communication est modeste, tout comme pour l’UHD et le 4K.

Alors un bon cru ? Eh bien ce NAB était à notre sens un salon de la mise à jour. Comme évoqué précédemment, l’informatisation des outils – et le plus symbolique de notre métier, la caméra – évolue désormais au rythme des up-grade et c’est bien. Le client ne peut plus changer de produit tous les ans, les éditeurs (qui l’ont compris avant eux) deviennent des prestataires de services.

Demain les clients auront des abonnements et mettront à jour leurs équipements qui seront de plus en plus des interfaces connectées directement dans le cloud. Une société comme Blackmagic Design, habituée à faire des annonces « feu d’artifice », a annoncé peu (voire pas du tout) de nouveaux de produits, mais des mises à jour sur toutes ses gammes.

L’autre tendance est bien évidemment l’IP qui lui aussi est « en marche » et s’il y a encore deux camps, ceux qui disent que c’est là et ceux qui disent que cela arrive, le premier camp semble grossir un peu plus chaque jour, le SMPTE 2110 est au coin de la rue et va changer la donne. Le NDI se développe aussi avec des marques qui rallient ce standard simple et bon marché.

Enfin à noter, encore discret sur le salon, mais pas pour longtemps les moteurs de jeu temps réel comme Unreal et Unity qui voient leur business se développer grâce à la réalité virtuelle, deviennent incontournables dans le pipe-line de production. Ces moteurs seront de plus en plus utilisés pour de l’habillage, des studios virtuels et de l’infographie. Ils offrent des images 3D réalistes, calculées en temps réel, vraiment impressionnantes.

 

Tous les chemins mènent à l’IP, mais il y a encore des ornières sur le chemin ! Les briques de l’IP se mettent en place, et si de nombreuses fois la métaphore du Lego a été utilisée, elle prend son sens plus que jamais avec Imagine Communications. IMAGINE COMMUNICATIONS lance le programme Open Zenium dont le but est de renforcer la collaboration, en partageant le code source de la bibliothèque de microservices Zenium. Open Zenium donne aux entreprises de médias la possibilité de personnaliser, de modifier, de créer et de déployer des workflows et des services de nouvelle génération dotés d’un niveau d’efficacité, d’évolutivité et de performance ; le programme ouvre également les portes d’une communauté active, appuyée par des équipes de développeurs, d’architectes et d’ingénieurs. L’objectif principal de ce programme est de mettre à disposition les connaissances, les outils et les technologies qui donneront plus de flexibilité.

L’initiative Open Zenium représente une étape importante pour le secteur des médias et du divertissement. Pour la première fois, un fournisseur de technologies donne accès à la propriété intellectuelle sur laquelle s’appuient ses solutions en développant une communauté basée sur la transparence, l’innovation. Imagine Communications ouvre l’accès aux modes de conception et aux bonnes pratiques qu’il a développées au fil des ans, ainsi qu’à sa technologie, y compris les plates-formes Versio, Selenio One et EPIC MV. En adoptant une architecture basée sur les microservices, ces entreprises ne sont pas contraintes de revoir leurs infrastructures en profondeur : la nature modulaire de Zenium leur permet en effet d’effectuer une transition progressive vers des applications entièrement hébergées dans le cloud.

« Cette philosophie consistant à proposer le code de Zenium au marché, c’est un peu comme si Zenium était Linux et nous Red Hat. Le but est de simplifier les interactions entre constructeurs et que chacun batisse son workflow comme il le souhaite en le personnalisant. Pour le moment il y a encore de nombreux îlots SDI, mais le SMPTE-2110 va accélérer l’adoption de projets hybrides », souligne Glodina Connan-Lostanlen, CMO d’Imagine Communications.

Aux Etats-Unis le déploiement de l’ATSC 3.0 est également un élément important dans l’évolution des mentalités et du champ des possibles qu’ouvre ce nouveau standard. « Imagine Communication voit ses efforts récompensés car nous parlons depuis de nombreuses années d’une évolution de la distribution des contenus et notamment de la publicité personnalisée. Avec l’ATSC 3.0 les diffuseurs prennent conscience qu’ils vont pouvoir monétiser différemment leurs contenus ; et nos architectures, parmi les plus modernes du marché, vont dans ce sens. En Europe, nous nous développons fortement en prenant des parts de marché à nos concurrents, notamment sur la production et le play-out », poursuit-elle.

 

SAM a profité du NAB pour lancer une pléthore de nouveaux produits. SAM avec LiveTouch se frotte à l’hégémonie des serveurs de replay d’EVS, avec un ensemble de fonctions innovantes. LiveTouch offre une intégration unique avec tOG Sports Graphics de RT Software donnant accès à des outils d’analyse en direct à partir du panneau tactile et permettant aux utilisateurs d’ajouter des outils d’analyse (lignes, flèches, suivi des joueurs) aux contenus en direct ou aux ralentis sur le serveur LiveTouch.

Très intuitif, le panneau tactile est facile à prendre en main, faisant de la sélection des séquences un processus sûr, simple et robuste. L’interface utilisateur a été entièrement revue, offrant un nouvel écran tactile permettant de rechercher et de consulter rapidement des contenus. LiveTouch offre les fonctions de publications sur les médias sociaux les plus rapides sur le marché : les utilisateurs peuvent publier des clips et des ralentis directement sur les réseaux sociaux dès que les contenus sont ingérés, en cliquant simplement sur un bouton. Avec l’application LiveTouch pour tablettes, il est même possible de contrôler le playout par WiFi, à l’aide d’une interface de commande simple.

Sur la partie mélangeur, SAM lance le Masterpiece 12G-SDI. Capable de prendre en charge des contenus SD/HD/1080p et UHD, il permet ainsi aux chaînes d’effectuer une transition fluide vers des workflows UHD sans compromettre la qualité et la fonctionnalité, tout en bénéficiant d’outils graphiques pour l’incrustation et les effets visuels. Masterpiece offre une interface de commande pour la solution Morpheus d’automatisation du playout créée par SAM : ensemble, les deux systèmes permettent une diffusion fiable des contenus et une gestion flexible des appareils utilisés. Il reçoit un signal audio depuis des entrées SDI et AES et peut réaliser plusieurs fonctions de mixage audio telles que des transitions ou des voice-overs.

Pour tous les clients qui doivent produire des contenus de haute qualité avec un budget limité, SAM a créé une solution de production très économique. Le système inclut le mélangeur Kula, le routeur Vega 30, les routeurs 16MV et Vega 32MV avec une sortie pour multiviewer, la plate-forme de traitement KudosPro AV, le multiviewer MV-Flex, les outils de la gamme IQ Modular et le tout nouveau serveur vidéo SL. Cette solution économique offerte par SAM est idéale pour divers environnements de production, y compris les évènements sportifs en direct, les petits studios, les stades, les systèmes de diffusion en plein air, ou encore l’enseignement. Elle illustre la polyvalence de SAM en termes de développement de produits, et sa vision claire des workflows nécessaires à une production en direct offrant un excellent rapport qualité-prix.

 

Le sport reste important en termes de marché avec, pour le moment, des enjeux économiques importants, cela se voit à la surenchère des droits sportifs. Toutefois, pour attirer et fidéliser les téléspectateurs, il faut enrichir les contenus et CHYRON Hego l’a bien compris.

La solution Prime de Click Effects permet l’intégration transparente de CrossFire et de Blaze dans la plate-forme logicielle 64 bits de rendu et de création Prime, créée par ChyronHego. Les utilisateurs ont ainsi accès à la puissance des fonctions de Prime : rendu en temps réel d’objets dynamiques en 3D, shaders, éclairage, textures… Parmi les autres nouvelles fonctions, on citera également la possibilité de créer des transitions personnalisées en temps réel pour la vidéo et les graphismes, ainsi que des jeux de lumières et de réflexions, des mosaïques vidéo et des lectures en boucle. Grâce à des fonctions d’intégration avec le lecteur en temps réel de ChyronHego et aux technologies de suivi du ballon, les utilisateurs de Click Effects Prime peuvent créer des analyses d’actions sportives. Non seulement Click Effects Prime est capable de partager des modèles créés avec d’autres déploiements de ChyronHego Prime, mais la nouvelle plate-forme est également rétrocompatible avec les graphismes créés dans Blaze et CrossFire. Les utilisateurs qui connaissent ces interfaces n’ont donc besoin d’aucune formation supplémentaire pour commencer à utiliser Click Effects Prime.

Click Effects Prime prend en charge des vidéos 4K avec une faible latence sur ses deux entrées et sorties, et permet le playout de quatre canaux HD-SDI key/fill et huit canaux HD-SDI vidéo. Ses huit entrées vidéo HD-SDI permettent à l’appareil de prendre en charge différentes résolutions sur toutes ses entrées et sorties. Il offre également une intégration en temps réel avec les nouveaux Live Assist Panels de ChyronHego, permettant la création d’interfaces et de scripts personnalisés, ainsi qu’avec le système logiciel de commutation Video Live Compositor.

 

EVS s’est associé à AVID et, par cette collaboration, la première dans son genre, EVS a mis au point un connecteur pour les utilisateurs d’Avid MediaCentral UX donnant un accès rapide aux contenus par l’intermédiaire d’IPDirector, le système de gestion des contenus d’EVS. Cette plate-forme permet la mise en place de workflows de production en direct rapides et efficaces, ainsi qu’une intégration plus poussée entre Avid et EVS qui profitera aux clients des deux entreprises.

Avec IPLink, créé par EVS pour Avid MediaCentral UX, les utilisateurs d’Avid pourront consulter et gérer les contenus EVS et leurs métadonnées depuis un seul environnement de production intégré. Les producteurs et les monteurs peuvent rechercher des contenus de manière plus rapide et plus fiable, puis trouver et exploiter les meilleures prises, avec une interaction plus rapide entre les fonctions en direct et celles de postproduction.

Le serveur EVS XT 4K se voit mis à jour avec deux nouvelles fonctionnalités ; désormais, il peut supporter quatre canaux UHD ou jusqu’à douze canaux HD. Il est doté d’une option IP (8 x 10 Gb/s Ethernet) pour faire une production IP, avec le support SMPTE 2110 en fin d’année. EVS propose également une nouvelle génération de serveur d’entrée de gamme avec le X One (Software Defined Server) pour des productions avec six caméras maximum qui sera utilisable et gérable par un seul technicien. Le X One pourra faire du mélange vidéo, audio et des ralentis, des résumés (highlights) automatiques, de l’insertion de graphiques. Il pourra être complété par des applications supplémentaires et pourrait être lancé lors d’IBC. Sur son stand, EVS avait une démo technologie avec une caméra 360 ° pour faire notamment des ralentis plutôt bluffants en termes de qualité. L’application permet de revoir l’image à 360 ° ou au contraire de « découpe », une partie de l’image, et ainsi d’avoir plusieurs points de vue avec une seule caméra. La caméra a été testée lors d’une compétition de Nascar à Daytona.

 

Le mélangeur PANASONIC AV-HLC 1000 dispose de multiples entrées/sorties 3G SDI, HDMI et d’une connectique IP ou NDI. Le mélangeur assure directement des fonctions de streaming et il est capable d’enregistrer les contenus en interne. La solution comprend un mélangeur 1 ME, un contrôleur de caméras PTZ et des fonctions de mélangeur audio. Facilitant les opérations individuelles, ce véritable centre de production intégrée est particulièrement utile pour des prises de vue avec des caméras robotisées ou des flux streaming. Il fonctionne directement avec les caméras système ou PTZ Panasonic, les détectant automatiquement grâce à leur IP ou via SDI. Le mélangeur sortira cet automne aux États-Unis et début 2018 en Europe.

Panasonic plongeait dans la VR, doté d’une tête de caméra et d’une unité de base, le système fait appel à quatre caméras pour produire des vidéos 360 ° en résolution 4K non compressée, au ratio image 2/1 (vidéo équirectangulaire). Grâce à sa fonctionnalité d’assemblage actif en temps réel et à son temps de latence particulièrement faible, le système offre une excellente reproduction des images, équivalente à du contenu post-assemblé. Il est destiné à une utilisation lors de la diffusion en direct de manifestations sportives, de concerts ou d’événements dans des stades. Outre le contrôle automatique de l’exposition et la balance des blancs, la caméra utilise un « assemblage actif en temps réel » de haute précision, permettant de changer automatiquement le stitching. Déjà exposée à l’IBC en septembre dernier, elle sera disponible dès le mois d’août.

Enfin, Panasonic a obtenu les droits de distribution européens pour le système Arcam par AR+.

Grâce à cet accord exclusif (qui ne concerne cependant pas la France), le système de caméras robotisées pourra être couplé avec les caméras de studio Panasonic. L’entreprise entend ainsi proposer une offre groupée visant les studios dédiés à l’actualité et au sport, les concerts et les émissions de divertissement, ainsi que les spécialistes de l’animation en volume.

 

SONY, promoteur du HDR, présentait des workflows compatibles SDR et HDR, que ce soit pour de la HD ou de l’UHD. Pour le HDR, Sony propose des systèmes, workflows et formats d’enregistrement offrant une flexibilité à tous les niveaux de la production. Sony étend ses capacités HDR en intégrant deux améliorations : la diffusion en direct HD HDR et un workflow HDR instantané. De nombreux diffuseurs se tournent vers les caméras Sony 4K/HD de production Live, notamment les modèles HDC-4800, HDC-4300 et HDC-P43 avec compatibilité HDR. Afin d’enrichir encore plus son offre pour la production HDR Live, Sony a intégré un nouveau mode d’enregistrement XAVC optimisant l’encodage du format HDR dans son serveur Live 4K/HD PWS-4500. Ce mode est disponible pour les utilisateurs via une mise à jour du logiciel. Il améliore la qualité d’image HDR au format XAVC en offrant des détails plus complexes, des skin-tones lumineux, une meilleure reproduction des couleurs et bien plus encore. Il permet au PWS-4500 d’enregistrer et lire simultanément des images HDR de qualité supérieure, tout en conservant le workflow basé sur les fichiers XAVC, particulièrement fluide et déjà courant dans le secteur de la production.

Concernant l’IP, le standard est presque prêt et Sony poursuit son évangélisation avec de l’interopérabilité. « Qu’est-ce qu’on fait de la technologie ? Notre but est de faire le focus sur les applicatifs plus que sur la technologie pure et dure. Nous voulons rassurer les clients ; ils peuvent désormais investir sur l’IP avec notre Network Media Interface et ensuite évoluer vers SMPTE-2110 quand ce sera prêt », souligne Fabien Pisano, directeur des ventes Sony Europe du Sud.

Sony a également présenté XDCAM Air, service d’abonnement ENG basé sur le cloud. Cette plate-forme complète de workflow ENG relie les contenus sur le terrain à l’infrastructure de la station, pour accélérer la vitesse de mise à l’antenne. Publiée en juin, la version 1.0 offrira des fonctions intelligentes telles que la diffusion en direct, la compatibilité XDCAM mobile et le workflow basé sur les métadatas. XDCAM Pocket, l’application mobile de XDCAM Air, peut transformer un smartphone en une petite caméra ENG par la diffusion du contenu en direct via le réseau LTE de l’appareil mobile, en mode de diffusion QoS. La solution XDCAM Air sera interopérable avec la plupart des principaux systèmes fabriqués par Sony et d’autres fournisseurs. Sony continuera de développer de nouveaux workflows et fonctionnalités pour le XDCAM Air, de nouvelles versions étant prévues pour prendre en charge la gestion de contenu, améliorer le contrôle de périphériques et permettre l’intégration de montage avec les montages non linéaires.

La plate-forme Media Backbone Hive gère toutes les phases du workflow de news standard dont dépendent des milliers de diffuseurs. Les applications puissantes et intuitives assurent les fonctions de planification, de transfert, de recherche, d’édition, de publication, de diffusion, d’archivage et de gestion. Le Codec X-OCN est un format qui permet d’économiser de 60 % l’espace de stockage par rapport au Raw, tout en étant en 16 bits linéaire. Le format X-OCN (eXtended Tonal Range Original Camera Negative) a, quant à lui, été optimisé pour offrir un juste équilibre entre qualité d’image et taille des données. Il est notamment pris en charge par l’enregistreur portable AXS-R7, utilisé en association avec les caméras de cinéma PMW-F55 et F5.

Le format X-OCN conserve tout ce que le capteur perçoit, offrant une gradation des tons de 16 bits, idéale pour l’étalonnage d’images HDR. Pour favoriser l’utilisation du format X-OCN en dehors de ses propres solutions professionnelles, Sony travaille avec d’autres entreprises au développement de produits compatibles X-OCN. Le nombre d’entreprises proposant des équipements compatibles X-OCN s’élève désormais à dix (chiffres d’avril 2017) : Assimilate, Inc., Autodesk, Avid Technology, Inc., Blackmagic Design, Colorfront, Filmlight Ltd., Grass Valley, Nablet, Pomfort, SGO.

 

Depuis la dernière édition du salon NAB, ROSS a fait l’acquisition d’Abekas, un acteur de premier plan dans le secteur du broadcast. La marque Abekas sera conservée pour la gamme de serveurs vidéo de Ross, qui sont tous des produits conçus par Abekas.

Disponible avant le salon, le Tria 2 est l’un des nouveaux produits de cette gamme. Ce serveur vidéo Tria de nouvelle génération possède deux canaux de sortie et un canal d’entrée ; il permet la lecture synchronisée de vidéos et de masques ou le playout simultané de deux canaux vidéo et audio. Pour une fiabilité exceptionnelle, le Tria 2 utilise des disques SSD de pointe ; différentes options sont proposées en termes de capacité de stockage. Pour en savoir plus sur les serveurs Tria…

Le Mira peut désormais être intégré à un réseau Mira Connect Gigabit Ethernet, permettant ainsi aux systèmes Mira Production et Mira Replay de partager des contenus d’un serveur à l’autre. Il n’est pas nécessaire de stocker les fichiers en mémoire cache ou de les transférer, puisqu’ils sont diffusés à la demande sur le réseau GigE : une séquence stockée sur un Mira peut être transmise sur le canal de sortie d’un autre Mira. Les clients peuvent ainsi adapter leur activité de production en ajoutant de nouveaux serveurs Mira ou de nouveaux opérateurs, tout en garantissant que les contenus seront disponibles pour tous les systèmes.

La nouvelle version 7.0 des systèmes de graphismes animés Xpression, présentée lors du salon NAB, offre la compatibilité avec Windows 10 pour les utilisateurs qui utilisent leur propre matériel pour XPression Designer, XPression Studio GO!, XPression Prime GO! et XPression Live CG. Les nouvelles entrées et sorties IP permettent l’utilisation des formats SMPTE 2022-6 et SMPTE 2022-7 par les systèmes XPression Studio, XPression BlueBox et XPression Clips (déjà disponibles). Les workflows de vidéo sur IP pour XPression sont offerts par plusieurs distributeurs de matériel, notamment AJA et Matrox.

Le moteur de transcodage XPression INcoder conserve désormais les codes temporels originaux des séquences QuickTime qui peuvent être lus et affichés par les serveurs XPression Clips. De plus, les utilisateurs ont la possibilité d’attribuer des identifiants aux contenus pendant le processus de transcodage par INcoder, facilitant la gestion des séquences pour les clients possédant plusieurs structures de production et studios, et réduisant la confusion et les erreurs. Le nouveau moteur virtuel Frontier, créé par Ross, est basé sur l’Unreal Game Engine ; il permet un rendu photoréaliste, les simulations physiques et les systèmes de particules pour un studio virtuel, repoussant les limites de la créativité et estompant la frontière entre les environnements réels et virtuels. Présenté en démonstration lors du salon IBC, Frontier a été mis au point en partenariat avec The Future Group.

La gamme Carbonite de mélangeurs de production intermédiaires fait passer ses plates-formes logicielles à la version 12.2, qui permet l’ajout d’un panneau compact CB9 en tant que deuxième panneau de contrôle pour une opération à deux panneaux. La version 12.2 inclut également un préréglage MiniME pour une meilleure production en UHD 4K, la compatibilité avec le format de signal 1080p25, et une nouvelle fonction intuitive de miniatures pour la sélection de transitions. Tous les clients Carbonite pourront profiter de la version 12.2 gratuitement, en la téléchargeant sur le site web de Ross Video.

Le Carbonite Black Solo passe à la version 1.2 de sa plate-forme logicielle, qui simplifie les tâches complexes comme le réglage du keyer et la disposition des panneaux ; cette nouvelle version ajoute également la fonction brevetée de Ross RGB PanelGlow, qui illumine les boutons pour plus de visibilité dans un environnement à faible luminosité. La couleur des boutons peut également être personnalisée, permettant d’identifier d’un simple coup d’œil les bus et les sources. Comme pour tous les mélangeurs de production de Ross, la nouvelle version du logiciel pourra être téléchargée gratuitement sur le site web de Ross Video.

 

L’offre IP de CISCO pour les médias permet d’enrichir — voire de remplacer — le routage vidéo en bande de base pour des applications de diffusion en direct, de production de programmes d’information et de distribution de contenus sur une infrastructure IP. Associée aux outils compatibles IP de Grass Valley (caméras, serveurs, mélangeurs de production et autres équipements), l’infrastructure Cisco représente une solution fiable pour la transmission de contenus audio, vidéo et de données sur un réseau IP.

 

En tant que partenaire STI (Solutions Technology Integrator), GRASS VALLEY travaille en étroite collaboration avec Cisco pour orienter le développement de nouvelles solutions IP pour les marchés du broadcast et des médias, y compris en vue d’une compatibilité avec toutes les normes ouvertes du secteur. Dans un premier temps, cet accord permet à Grass Valley d’intégrer dans ses solutions des commutateurs IP standard, conçus spécialement pour créer des réseaux transmettant des données en multicast sans perte. En plus des commutateurs Cisco, Grass Valley proposera le Data Center Network Manager (DCNM), qui rassemble et automatise l’infrastructure Cisco Nexus pour la gestion de centres de données à l’aide de commutateurs Cisco Nexus 9000. Le serveur DCNM permet un contrôle rapproché de l’infrastructure IP et peut prendre en charge des scénarios complexes impliquant différents flux à différents débits, ainsi que des branches de réseau multiples, tout en offrant une interface au système GV Convergent pour le contrôle transparent d’un réseau hybride SDI/IP.

Le K-Frame V de Grass Valley est le dernier ajout à la gamme de mélangeurs de production K-Frame. N’occupant que 3 U, ce nouvel appareil est le compagnon idéal du panneau GV Korona, capable de tenir dans un espace restreint sans sacrifier à la fonctionnalité. Le K-Frame V peut être utilisé avec n’importe quel panneau Grass Valley et permet aux diffuseurs de diffuser simultanément plusieurs émissions à partir de la même plate-forme matérielle.

Utilisé seul, le panneau GV Korona permet l’utilisation de 15 à 20 boutons programmables sur chaque rangée de M/E ; il possède également un système de menu multi-touch intégré, ainsi qu’un écran tactile innovant dans la zone de transition. Combiné avec le K-Frame V, le GV Korona forme un duo de choc ! La modularité du K-Frame V permet une reconfiguration aisée, ce que ne permet aucun mélangeur dans cette gamme de prix. Elle permet également d’effectuer à terme une transition en douceur vers un environnement hybride SDI/IP, voire tout-IP. La matrice 36 × 18 prend en charge des flux SD, HD et UHD 4K en mode quad split et 2SI et peut gérer jusqu’à trois M/E et deux moteurs de traitement vidéo (VPE) supplémentaires pour une plus grande capacité de mixage et d’incrustation.

 

La société MEDIAPROXY propose un ensemble d’outils online pour assurer des services de monitoring, d’analyse de flux OTT et de compliance. Il s’agit d’une solution purement logicielle, mais il est possible pour ceux qui le souhaitent d’avoir une partie hardware. L’application TSAnalyser fournit une analyse du Transport Stream sur le serveur, mais les clients peuvent également accéder aux informations en mode remote. Le système est léger puisque ce sont uniquement les datas qui sont envoyées, pas le flux. Les logs d’erreurs peuvent être exportés sous forme de fichiers CSV ou PDF. En option, le logiciel peut analyser les données de close caption. Autre application, celle de monitoring qui est très puissante avec un mode multi-vue, et qui permet d’avoir l’incrustation des flux vidéo et audio. Si la bande passante le permet, il est possible d’avoir jusqu’à 40 « panels », et le système est compatible UHD. La licence peut être un dongle USB ou un hardware lock sur le serveur. Pour créer un « panel », il suffit de faire un glisser/déposer sur le modèle (canvas). Il est possible d’avoir des panels en qualité proxy ou pleine résolution. Il est possible de mixer sur un même panel des flux OTT et Broadcast.

En France, MediaProxy est distribué par la société Visionetics (Eric Hautefeuille).

 

Parmi les nouveautés de DATA VIDEO, un mélangeur vidéo d’entrée de gamme avec quatre entrées HDMI et mixage audio intégré à 1 099 dollars et dédié aux Webcasts. Par ailleurs, Data Video propose une caméra 4K (PTC 200) qui permet de se raccorder à un équipement (KMU) pour la piloter, et qui, avec ses deux entrées HDMI et ses huit sorties SDI, permet d’avoir avec deux caméras, huit images affichées et la possibilité de zoomer, se déplacer dans l’image, à partir d’un seul opérateur, donc une solution engendrant des économies d’échelle. La première console de mixage HDBaseT de production live (4 500 dollars) permet d’alimenter la caméra, faire le tally et le contrôle (HS1500). Data Video propose plusieurs kits regroupant les caméras et la console de mixage. Un kit de « Instant Replay » économique dédié aux écoles, aux collèges, aux universités, permet de relire avec, ou non, effet de ralenti.

Côté web, Data Video propose un nouveau logiciel, le TBS200 pour se construire son propre YouTube. En effet, quand on diffuse sur les réseaux sociaux, on perd la propriété intellectuelle de l’œuvre diffusée. C’est un serveur avec un logiciel Linux qui peut se connecter à un service de cloud. Il permet d’établir des canaux de diffusion et de créer des adresses RTMP dans laquelle on peut associer un encodeur, un décodeur ou un site web. Une fois ce canal de diffusion créé, il suffit de mettre le lien sur sa page web pour diffuser son contenu. Il est possible d’enregistrer automatiquement sur le serveur et créer des fichiers en VoD, puis lire directement sur le serveur ou sur la page web du client.

 

* Extrait de notre compte-rendu « NAB 2017 – Le salon des mises à jour » paru pour la première fois dans Mediakwest #22, p. 26-45Abonnez-vous à Mediakwest (5 nos/an + 1 Hors série « Guide du tournage) pour accéder, dès leur sortie, à nos articles dans leur intégralité.

 

 


Articles connexes