Samira Pana Bakhtiar (AWS) « Le futur du divertissement est immersif, convergent et hautement personnalisé. »

Figure emblématique de la stratégie média chez Amazon Web Services (AWS), Samira Pana Bakhtiar nous a accordé un entretien exclusif. L’occasion d’explorer la manière dont AWS accompagne les mutations profondes que traversent les industries des médias, du jeu, du sport et du divertissement.
Présentation en juillet dernier lors du Symposium Media & Entertainment AWS par Samira Pana Bakhtiar. © DR

 

Intelligence artificielle, production cloud-native, durabilité, convergence des usages : un panorama ambitieux et pragmatique. L’interview qui suit s’inscrit dans une dynamique de décryptage approfondi, avec des cas d’usages concrets, des références techniques et une analyse précise des grandes tendances du secteur.

 

Lors de votre keynote, vous avez parlé de « compréhension sémantique de la vidéo ». Pouvez-vous préciser ce que cela signifie concrètement pour les professionnels des médias ?

Samira Pana Bakhtiar : C’est l’une des applications les plus transformatrices de l’IA pour nos clients dans le secteur média. Nombre d’entre eux disposent de bibliothèques de contenus qui s’étendent sur plusieurs décennies. Souvent, ils ignorent la richesse de ces archives. La compréhension sémantique leur permet de les explorer par des requêtes en langage naturel, comme « Montrer toutes les scènes d’action mettant en scène un acteur spécifique » ou « Identifier les séquences de discours politiques en extérieur ». Cela va bien au-delà des métadonnées traditionnelles.

Cette fonctionnalité repose sur nos services d’IA générative, notamment Amazon Bedrock, couplés à des architectures comme AWS Media Data Lake. Le gain est double : une meilleure valorisation du patrimoine audiovisuel, et des possibilités de création accélérée pour les réalisateurs, documentalistes ou responsables de curation.

 

Samira Pana Bakhtiar, figure emblématique chez Amazon Web Services © DR

Ce sont des outils conçus pour être simples à intégrer, même dans des environnements techniques complexes. Ils peuvent transformer une base de données linéaire en moteur narratif exploratoire. C’est, pour de nombreux diffuseurs et ayants droit, une façon de redonner vie à leur fond patrimonial. L’intelligence artificielle joue un rôle déterminant dans la modernisation des workflows médias.

Chez AWS, nous aidons les studios à intégrer cette technologie de manière fluide, éthique et adaptée à leur niveau de maturité technique. Prenez la compréhension sémantique de la vidéo, par exemple. Grâce à nos solutions d’IA générative, les clients peuvent interroger leurs bibliothèques d’archives en langage naturel. Ils redécouvrent ainsi leurs contenus et peuvent les exploiter pour créer de nouvelles séries, des documentaires ou des expériences OTT personnalisées. C’est une vraie révolution.

 

Vous évoquiez au NAB le concept d’« Artist Assist » avec Amazon Nova Canvas. De quoi s’agit-il concrètement ?

Nous avons démontré au NAB comment Nova Canvas peut accélérer la création de storyboards. En affinant le modèle à partir de contenus exclusifs – comme le film Pichu du studio Fuzzy Pixels –, les artistes peuvent générer des visuels très spécifiques à partir de simples requêtes. Par exemple : « Une jeune fille sur un porche avec sa grand-mère ». Le modèle restitue fidèlement tous les détails – coiffure, vêtements, textures – tels qu’ils apparaissent dans l’œuvre originale. Cela réduit les allers-retours et favorise une validation plus rapide des concepts artistiques. C’est un gain de temps immense en préproduction.

 

L’éthique de l’IA est au cœur des préoccupations actuelles. Comment AWS garantit-il la sécurité des données utilisées pour l’entraînement des modèles ?

La confidentialité est une priorité absolue chez AWS. Si un client affine un modèle, il le fait dans un cloud privé virtuel dédié. Les données ne sont jamais partagées avec le modèle de base. Ce cloisonnement garantit que chaque entreprise garde le contrôle de ses contenus, tout en bénéficiant de la puissance de l’IA générative. Ce cadre sécurisé est fondamental, surtout pour les industries créatives.

 

Vous parlez souvent de convergence entre médias, technologies. Pouvez-vous illustrer ce phénomène ?

La convergence est déjà une réalité. Regardez ce qui s’est passé avec Fortnite et le concert de Snoop Dogg. Ce n’était pas seulement un événement musical dans un jeu vidéo. C’était un phénomène transmédia : les fans ont assisté au concert dans le jeu, d’autres l’ont suivi en ligne, et certains étaient présents à Times Square ! La technologie AWS a rendu cette diffusion possible, en combinant nos services de jeux et de médias. On touche ici à une convergence de supports, de publics, de générations. Et c’est cette logique qui façonne l’avenir du divertissement.

 

Les data centers AWS au service des créateurs de contenus garantissent une infrastructure exigeante et le tout dopé à l’IA. © DR

Le secteur de l’e-sport semble être un axe fort pour vous…

Il est stratégique. Nous serons présents aux prochains Mondiaux d’e-sport en Arabie Saoudite. Nos solutions cloud répondent aux exigences d’ultra-basse latence et de scalabilité que requiert l’e-sport. Nous travaillons notamment avec Riot Games et la Formule 1 e-sport.

Ce qui est passionnant, c’est que l’e-sport est en train de fusionner avec la logique broadcast. Le live, les replays, les overlays graphiques temps réel… Tout cela converge avec la chaîne de production télé. Dans le cas de Riot, nous avons accompagné la migration vers une architecture cloud native pour leurs championnats régionaux et mondiaux. Cela inclut la captation, l’encodage, le transcodage et la diffusion multi-langue, en simultané sur plusieurs continents.

En 2024, un seul événement e-sport mondial sur AWS a atteint un pic de 15 millions de connexions simultanées, avec un délai de latence inférieur à 3 secondes pour 80 % des flux actifs. Ces chiffres illustrent l’efficacité de notre infrastructure.

 

De la préproduction à la postproduction, quels sont les avantages de votre infrastructure cloud pour les films, votre chaîne de télévision et l’OTT ?

Les data centers AWS. © DR

Les avantages sont multiples. L’un des atouts majeurs d’AWS, c’est notre capacité à rationaliser et optimiser l’ensemble du processus de création de contenu, depuis la prévisualisation jusqu’à la postproduction. Cela se traduit concrètement par une réduction significative des coûts, une accélération du passage de l’idée à la campagne, et donc une mise sur le marché beaucoup plus rapide.

Le travail à distance est un autre avantage décisif : nos solutions permettent une collaboration fluide entre équipes dispersées dans différentes régions du monde. À cela s’ajoutent des bénéfices essentiels comme la performance, la sécurité et un excellent rapport qualité-prix.

Sur la préproduction, nous intégrons l’IA générative pour visualiser des décors avant même qu’ils ne soient construits. Cela limite les itérations nécessaires en conception, fait gagner un temps précieux aux équipes, et facilite les choix créatifs en amont.

Côté postproduction, nous collaborons avec des partenaires comme Adobe et Avid pour offrir des environnements de travail familiers aux artistes, tout en tirant parti de la puissance du cloud. L’objectif est de préserver leur expérience, tout en fluidifiant les workflows. Nous avons aussi lancé Modular Cloud Studio, présenté au NAB, qui permet de produire du contenu de manière modulaire et flexible selon les besoins.

Sur la partie rendu, notre solution AWS Deadline Cloud permet de scaler à la demande, ce qui est crucial pour les studios et prestataires français. Elle a déjà permis de rendre des dizaines de milliers de plans pour des productions comme Avatar : The Way of Water ou Le Seigneur des anneaux, avec une efficacité impressionnante.

Enfin, notre infrastructure cloud permet à de nouvelles start-up, notamment dans le domaine de l’IA et des effets visuels, de se lancer très rapidement. Ces mêmes outils sont aujourd’hui utilisés pour accélérer, sécuriser et rendre plus rentables les flux de travail des médias traditionnels.

 

Quelles différences observez-vous entre l’Europe, l’Amérique du Nord et l’Asie concernant l’adoption du cloud ?

L’Europe est plus réglementée, notamment sur la souveraineté des données. C’est pour cela que nous avons lancé le European Sovereign Cloud, une infrastructure dédiée au respect de ces exigences. En revanche, on observe que les start-up européennes, notamment françaises, adoptent très vite l’IA générative. Regardez Hugging Face ou Mistral AI : ces pépites inspirent les grandes entreprises à franchir le pas. Je pense que 2025 sera l’année du passage à l’échelle, au-delà des expérimentations.

 

Samira Pana Bakhtiar au Symposium Media & Entertainment AWS © DR

Comment AWS répond-il aux exigences croissantes de durabilité ?

Dès 2024, nous avons atteint notre objectif de 100 % d’énergies renouvelables pour nos centres de données. Un tournage live dans le cloud évite le transport de matériel et de personnel : cela a permis à une ligue sportive récente de réduire de deux tonnes l’empreinte carbone d’un seul événement.

Au-delà de la production live, les outils de collaboration à distance – montage, étalonnage, effets visuels – évitent aussi les déplacements. Nous avons démontré des workflows entiers avec des partenaires comme Arc (montage) ou Flame (color grading).

En Europe, nous publions régulièrement des rapports environnementaux détaillés conformes aux régulations CSRD. Nos centres de données affichent un PUE (Power Usage Effectiveness) moyen de 1,12 contre 1,8 en moyenne pour les data centers privés. Et notre indice de consommation carbone (CCI) est jusqu’à cinq fois inférieur à celui d’une infrastructure on-premise classique.

 

Comment voyez-vous l’avenir pour le divertissement dans cinq ans ?

Je pense que nous allons vers un univers où chaque individu peut vivre une expérience personnalisée, en fonction de ses valeurs, pas seulement de ses données démographiques. L’interactivité, l’engagement social, l’immersion vont s’accentuer.

Le métavers tel qu’on le définissait en 2022 a peut-être évolué, mais des plates-formes comme Roblox ou Fortnite en sont déjà les briques. L’avenir sera hybride, entre le social, le jeu, la consommation de contenu et l’action en temps réel.

Les technologies de spatial computing, les lunettes connectées, les assistants contextuels en réalité augmentée, vont redéfinir notre rapport aux interfaces. Les contenus ne seront plus des objets que l’on consulte, mais des environnements dans lesquels on entre. AWS travaille déjà avec des studios immersifs pour préparer cette nouvelle grammaire narrative.

Je crois aussi que les modèles de monétisation vont changer. La publicité contextuelle basée sur les valeurs personnelles remplacera les ciblages géodémographiques classiques. Nous entrons dans l’ère de la pertinence qualitative. Et pour cela, il faut des infrastructures puissantes, flexibles, mais aussi éthiques. C’est notre mission chez AWS.

 

Article paru pour la première fois dans Mediakwest #63, p.44-46