Les 10 commandements du saint « Cloud »

Moins d'investissement initial, des coûts en main d'oeuvre externalisés, des workflows plus automatisés et mieux optimisés, des résultats visibles plus rapidement (meilleur « time to market ») : le Cloud ne manque pas de superlatifs tellement ses attraits paraissent nombreux ! Or il convient d'être prudent pour éviter les mauvaises surprises.
La solution ? Rester vigilant tout au long d'un projet comme le détaille l'équipe d'architectes de Mesclado.
65eb99de7f31e7479a8853734ca0c7ac.jpg

 

« J’utilise le cloud, mais n’en parlez à personne ! »

Et pourquoi pas un témoignage local ? Parce qu’en 2013, bon nombre d’acteurs européens restent prudents, alors que nos confrères américains et asiatiques ont déjà intégré cette évolution. On peut invoquer de multiples raisons : crainte d’un piratage informatique, susceptibilités face à la concurrence, manque de recul sur les solutions. Un important éditeur de chaînes de télévision a, par exemple, refusé que nous évoquions publiquement ses quatre récents projets. Les exemples ne manquent pas.

 

Mon directeur financier aime le cloud… a priori

« Les professionnels des médias doivent analyser le rapport coût/bénéfices pour investir, acheter à crédit ou louer. Si l’équipement est exploité 3 ou 4 ans, un investissement (Capital Expenditure ou CapEx) s’impose quand on regarde le coût total de possession. Mais le modèle change, les plateformes, qui requièrent des évolutions majeures tous les deux ans, deviennent plus rentables sous forme de services associés à des coûts d’exploitation (Operational Experditure ou OpEx) plutôt qu’à l’achat » témoigne Jess Hartmann, PDG de Promax Systems, un important fournisseur d’équipements et de services broadcast nord-américain. Mais les économies réalisées peuvent-elles être évincées par des coûts annexes comme l’augmentation des capacités réseau ? Nous nous sommes interrogés sur l’envers du décor et les contraintes à respecter pour garantir le succès d’un tel service lorsqu’on traite du contenu audiovisuel à usage professionnel. Voici 10 commandements qui nous paraissent fondamentaux pour évaluer la qualité d’une offre de services dans le Cloud.

 

Je teste avant de signer

Un projet demande un effort 1 lorsqu’on traite les différents sujets en amont, un effort 10 lorsqu’on doit rectifier certains points au moment du déploiement et un effort 100 lorsqu’on effectue la même tâche sur le système en production. Tester un service cloud en amont permet donc de réduire les risques au niveau projet.

 

Je vérifie l’interopérabilité

Au niveau contenu, l’interopérabilité est tout d’abord une question de format. H.264 est omniprésent, en particulier sur le Web. Or chaque système utilise sa propre configuration du codec, et les environnements sont désormais multiplateformes. Codage, transcodage, décodage sont autant d’opérations gourmandes en ressources informatiques et en temps de traitement. Attention donc aux fausses économies ! D’autre part, l’interopérabilité dans l’intégration de services reste compliquée. Rappelons qu’il existe autant de protocoles de contrôle que de services logiciels à contrôler. Exceptée l’initiative FIMS qui normalise cinq types de services à ce jour (acquisition, transcodage, transfert, stockage et vérification), il n’existe pas de consensus entre fournisseurs. L’API Amazon Web Services (AWS) sera-t-elle amenée à devenir la norme de facto ?

 

J’étends mes connexions réseau

Les contenus audiovisuels sont par nature gourmands : 22,5Go l’heure de contenu XDCAM HD 50 ou AVC-I 50, plus du double en ProRes ou DNxHD. La taille du lien réseau et la nature du service conditionnent la vitesse du système. L’installation d’une connexion fibre implique un coût initial et un délai de mise en service variables géographiquement, selon l’opérateur, etc. La viabilité d’un service cloud en dépend directement, mieux vaut en valider les détails en amont. « Lors du lancement d’une application second écran pour les élections, notre client a dû augmenter sa capacité réseau. Il a fallu réaliser les tests en amont car le délai était de cinq semaines.
Sans anticipation sur ce projet, le lancement de l’appli aurait été compromis » explique l’équipe Mesclado.

 

Je valide le Service Level Agreement (SLA)

Parmi les nombreux engagements détaillés sur le contrat de service (SLA), certains sont plus pertinents pour le monde de l’audiovisuel professionnel. Si le débit conditionne un lien, la latence produit un effet dévastateur sur les temps de transfert. Lorsque la latence augmente (RTT ou Round-Trip Time), on doit s’appuyer sur des solutions d’accélération des transferts d’éditeurs comme Aspera, File Catalyst, Signiant ou Talon Data Systems. « La majorité des services réduisent la qualité du flux d’images pour permettre d’avoir une vidéo plus ou moins fluide avec un délai acceptable […], mais cette tendance changera probablement avec l’expansion de la fibre optique et l’optimisation de la technologie qui n’est actuellement qu’au stade embryonnaire », explique Thierry Cottenceau, Président de Virdys. Il en est de même pour la gestion des mises à jour logicielles chez le fournisseur. Ces opérations ne doivent en aucun cas ralentir ou freiner votre activité et se doivent d’être transparentes.
La Commission européenne a publié un rapport sur le SLA de services cloud. Ce document fournit des bases ainsi qu’une liste de paramètres qu’il convient d’imposer.

 

Je vérifie que la sécurité du service et la confidentialité des données

« Les deux craintes principales pour les maisons de post-production demeurent la sécurité et les limitations technologiques », ajoute Jess Hartmann. Lorsqu’on évoque la sécurité des contenus hébergés dans un Datacenter, il convient de se poser les questions suivantes : comment le fournisseur de service chiffre-t-il les données stockées? Avec quelle méthode de chiffrement ? Qui a accès aux clés de chiffrement? Et, enfin, comment l’accès aux données est-il géré en interne et en externe au Datacenter ? En 2011, une faille de sécurité a fait trembler le service Dropbox : l’ensemble des comptes et donc des contenus ont été accessibles pendant 3h52mn… sans mot de passe ! En 2012, nouvelle faille, due cette fois à un vol de mot de passe. Il faut donc demander à consulter les historiques des fournisseurs.
De précédents en termes de failles de sécurité ? De catastrophes naturelles (sécurité des sites) ? De problèmes de coupure ? Les réponses sont parfois difficiles à obtenir, mais même évasives, elles peuvent vous donner l’information.

 

Je vérifie où sont stockés les contenus

Où sont stockées physiquement mes données ? En Europe ? Aux États-Unis ? Le US Patriot Act et les révélations sur le programme américain Prism ont poussé certains acteurs à proscrire (à tort ou à raison) l’hébergement sur le sol américain. Cette démarche devrait contribuer à l’essor du marché bourgeonnant du cloud européen.

 

Je calcule la disponibilité garantie

Sur ce point, il convient d’être prudent. Un fournisseur annoncera très souvent que le système a une disponibilité garantie de 99 % sur un an.
Impressionnant !
Oui… mais dans les faits, un petit calcul s’impose. Le tableau ci-dessous traduit au final les correspondances temps-pourcentage. En tant que client, 5 260 minutes d’indisponibilité du service vous paraissent-elles acceptables ?

 

Garantie de disponibilité :

99% – 5260 minutes (plus de 87h)

99.9% – 526 minutes

99.99% – 53 minutes

99.999% – 5 minutes

99.9999% – 30 secondes 

 

À noter que les éléments ci-dessus n’incluent pas les indisponibilités liées à la maintenance et aux mises à jour des systèmes.

 

Je sauvegarde mes données… loin

Si on pose la question à un DSI, il vous dira que la sauvegarde d’un site doit être localisée à au moins 300 km (cette donnée vient des constations liées à des catastrophes naturelles telles que des tremblements de terre et aux impacts d’une explosion nucléaire). Pas si simple, si l’on veut coupler cette exigence avec une conservation de ses données sensibles sur son territoire ! La Belgique, par exemple, a une longueur maximale de 282 km d’est en ouest…

 

L’extensibilité

Là encore, il faut veiller à maitriser les coûts et les délais. Si on veut d’un côté raccourcir les délais de traitement, on doit augmenter des éléments tels que le réseau (bande passante), la capacité de stockage nécessaire et parfois ajouter des nouveaux services. Mais comme nous l’avons déjà indiqué, on risque d’annuler totalement les bénéfices acquis. Il est nécessaire de bien maîtriser ce que l’on externalise dans le Cloud et avec quelle profondeur on le fait, on parle ici de niveau de service.

 

Changer de fournisseur : les clauses de sortie

Comme tout contrat, il faut pouvoir le dénoncer. Mais qu’en est-il de la faisabilité réelle ? Lorsqu’on externalise des services, changer de fournisseur va engendrer des mises à jour en cascade dans les workflows (toutes les références des services et tous les paramétrages de ces derniers). Dans le cas du stockage externalisé, il faut voir comment on peut récupérer et transférer sa matière. Il s’agit ici d’un point de vigilance majeur.

 

Conclusion

Le Cloud est une solution qui doit être utilisée avec discernement. Il ne faut pas tomber dans le tout Cloud directement, il faut bien étudier les impacts sur les workflows métier, les conséquences humaines.
Et le point essentiel : être dans le Cloud signifie être connecté. Est-ce tout le temps possible dans nos métiers liés aux Médias…