Commission Technique : compte-rendu de la réunion du 08 octobre 2025

La réunion démarre à 17:05. Elle s’est déroulée en présence dans les locaux de la FICAM à Paris 16e, et simultanément en visioconférence, avec la participation de :
| Jean-Baptiste | BABIN | Backup Media Group | CEO |
| Jérôme | BATTISTELLI | Armada Studios | CEO / Co-Founder |
| Béatrice | BAUWENS | MPC | Directrice Post&VFX Paris |
| Maxime | BEUCHER | Neo Set | |
| Xavier | BRACHET | MediA Digital Nutty | CEO / Founder |
| Danys | BRUYÈRE | TSF | DGA-Technologies |
| Frédéric | FERMON | CST | Chargé de mission – Immersion & Temps Réel |
| Laurent | HERITIER | Transpa | Directeur d’Exploitation |
| Mathieu | HUE | NIGHTSHIFT | DG – cofondateur domaine Post Production Pub |
| Pierre | JACQUET | TITRAFILM | Directeur Technique |
| Audrey | KLEINCLAUS | M141 | Responsable des post-productions |
| Hans-Nikolas | LOCHER | CST | Directeur du Développement |
| Benoit | MAUJEAN | FICAM | Délégué Adjoint Technologies |
| Cyril | MAZOUER | Boîte à Outils Broadcast – BOB | Directeur Technique |
| Kevin | PACINI | DIGITAL DISTRICT | COO |
| Jean-Christophe | PERNEY | ex CTM Group | Directeur du Développement et du Marketing |
| Alexandre | PÉRON | Narrative Coders | CEO / Fondateur |
| Mickaël | ROUSSEAU | Lumex | Directeur Technique |
Ordre du jour
- Retour sur IBC 2025
- Présentation de Narrative Coders par Alex PÉRON
- Questions Diverses
1- Retour sur IBC 2025
(par Benoit MAUJEAN – FICAM)
Liens vers les slides de la présentation

L’IBC (International Broadcasting Convention), organisé chaque septembre depuis 1967 au RAI d’Amsterdam par un partenariat d’organismes industriels (essentiellement des associations d’ingénieurs électriciens et électroniciens du Royaume Uni et des Etats Unis), est le rendez-vous Européen incontournable des professionnels de l’audiovisuel et du divertissement. IBC réunit annuellement pendant 4 jours plus de 45.000 visiteurs et 1.300 exposants autour d’un salon, des conférences et des démonstrations techniques.
https://show.ibc.org/ibc-history
Une flopée de workflows automatisés, boostés par l’IA
L’IA s’impose progressivement comme le moteur invisible des workflows médias, optimisant l’ensemble de la chaîne de production de l’indexation à la distribution grâce à des agents intelligents capables d’analyser, indexer et recomposer les contenus. Elle métamorphose les Media Asset Managers (MAM) en véritables espaces collaboratifs et sécurisés, facilitant les échanges de fichiers, tandis que les outils dopés à l’IA dépassent la simple automatisation des processus traditionnels pour anticiper les besoins, personnaliser et enrichir les contenus tout au long de leur cycle de vie, du tournage à l’archivage. Avec des géants qui tirent dans l’ombre les ficelles : AWS, NVIDIA et les Large Language Models (OpenAI, Anthropic, Google).
Le stand AWS présentait une multitude de démonstrations d’architectures logicielles reposant sur des agents d’intelligence artificielle. Parmi les solutions présentées :

Nomalab propose une plateforme cloud dédiée à la préparation, l’approvisionnement et la livraison de contenus après analyse, transcodage et normalisation. L’architecture propose d’automatiser l’ingestion, le chapitrage et la détection des coupures publicitaires, tout en enrichissant les métadonnées grâce aux embeddings multimodaux pour accélérer la distribution vers les diffuseurs linéaires et les services de streaming.
Moments Lab développe une plateforme cloud proposant un ensemble de briques technologiques d’analyse et de valorisation des médias, destinées aux diffuseurs et agences de presse en France comme à l’international (bureaux à Paris et NYC), notamment autour de grands événements tels que les festivals. La solution s’appuie sur des partenariats avec Lucidlink et Embrace, et propose des plugins IA pour Adobe Premiere, Avid et DaVinci Resolve. Parmi ses références, l’automatisation de la plateforme Brut au Festival de Cannes totalisant 600 millions de vues.
Dalet propose des solutions complètes couvrant l’ensemble de la chaîne de production et de distribution des médias (MAM/PAM, newsroom, orchestration, diffusion antenne), destinées aux secteurs du broadcast, du sport, de l’OTT et des organisations corporate ou gouvernementales. L’éditeur présentait Dalia, un assistant rédactionnel intelligent pour salles de rédaction s’appuyant sur Claude Sonnet.
Deux approches technologiques majeures structurent l’écosystème des agents IA. D’une part, le Model Context Protocol (MCP) développé par Anthropic permet de connecter les LLM aux données, ressources et outils de l’entreprise. D’autre part, le protocole Agent-to-Agent (A2A) de Google facilite la communication inter-agents (voir aussi ici)
Un autre exemple sur le stand AWS de workflows automatisés et boosté par l’IA: l’analyse de vidéos HD en temps réel pour générer des résumés vidéo avec commentaires multilingues, reformatés et optimisés pour une diffusion multi-supports sur des réseaux sociaux (TikTok,…)
Embrace présentait un workflow collaboratif innovant en partenariat avec Codemill (éditeur logiciel suédois ayant acquis le MAM Cantemo) et Spherex (solution américaine d’analyse de médias par IA), combinant automatisation et intelligence artificielle pour optimiser la préparation des contenus.
La plateforme Embrace pilote l’ensemble du processus, de l’organisation des fichiers à la gestion des alertes, en passant par l’administration des tâches utilisateurs et le suivi en temps réel. La technologie SpherexAI identifie automatiquement les éléments non conformes (scènes violentes, nudité, propos inappropriés) et enrichit les métadonnées avec des descriptions contextuelles précises.


L’offre low-code d’Embrace comprend Automate-IT pour la génération de bandes-annonces avec AWS ainsi que le recadrage et l’habillage via Adobe Creative Cloud, et Pulse-IT pour l’approvisionnement média couvrant la préparation et la livraison.
Le partage sécurisé des données permet d’intensifier le travail collaboratif, notamment pour les structures multi-sites ou travaillant à distance avec plusieurs clients. Trois exemples ont attiré notre attention.
1 – LucidLink propose un service de fichiers partagés (appelés Filespaces, tirant parti du système de fichiers virtuel FUSE) destinés à des utilisateurs dispersés, à partir d’un repository central sur le cloud (en théorie agnostique, compatible avec tout stockage de type S3, avec une préférence d’usage pour AWS). Les fichiers sont cryptés à la volée et la lecture des données même volumineuses est rapide grâce à une mise en cache locale sur les appareils clients des données et métadonnées (File Streaming et Smart Caching). Les fichiers peuvent donc être utilisés sans téléchargement préalable pour permettre un travail collaboratif avec des outils comme Premiere Pro, Avid, Final Cut, Resolve, …
Le coût reste relativement élevé : https://www.lucidlink.com/pricing

2 – Storj présente une solution de stockage partagé différente : Production Cloud, une plateforme de stockage objet distribué, décentralisé et crypté. Grâce à ce système de fichiers décentralisé, on peut mélanger tous types de stockage de type Cloud, on-premise, hybrid ou multi-cloud. Le montage collaboratif est possible avec leur approche Object Mount qui permet de monter le stockage objet distribué comme un disque local pour bénéficier d’un accès haut débit (notamment avec Premiere Pro).




Les prix semblent plus agressifs que LucidLink : https://www.storj.io/
Une partie du code est disponible en open source (licence AGPL).
Voir leur white paper ici : https://static.storj.io/storjv3.pdf
Storj a reçu le prix Best of Show Awards IBC2025
3 – Mnemonica est une plateforme cloud tout-en-un de Media Asset Management assurant la gestion sécurisée des actifs (rushes, VFX, etc.) et proposant des salles de visionnage protégées (watermarking, contrôle d’accès). Elle intègre des outils collaboratifs (commentaires, partage de fichiers lourds) et une application mobile pour le suivi en temps réel. L’authentification avancée inclut MFA ou connexion sans mot de passe via QR code ou biométrie. Les conteneurs de transfert sécurisés (Delivery Box) permettent l’envoi de fichiers sans réplication avec date d’expiration, incluant le support des formats IMF et DCP. Le modèle par abonnement mensuel, sans limite d’utilisateurs, s’adapte à la taille des productions : 250 € par mois pour 200 GB de stockage et 6 000 minutes d’encodage (sans transfert de données), ou 600 € par mois pour 2 TB et 10 000 minutes d’encodage (avec transfert de données).


Parmi les outils d’IA Generative, Lightricks (société israélienne basée à New York, Chicago et Londres) propose LTX Studio, une solution intégrée de generative AI avec toute la gamme des approches Text to Image, Text to Video, Image to Video, Video to Video. Une interface soignée permet de contrôler les mouvements de la caméra, de définir les mouvements à l’aide d’images clés et de guider les résultats à l’aide de références visuelles.
Ils utilisent leur propre modèle d’entraînement (LTX-video : voir dessous) mais peuvent aussi recourir à Veo3 (Google) pour la video, mais aussi FLUX.1 Kontext et Gemini 2.5 Flash Image (Nano Banana) pour les images fixes.
Une intégration de leurs outils avec ComfyUI est également possible.
C’est une application en ligne et le prix varie en fonction de la durée de medias utilisée: gratuit pour 800 sec (en 1 fois), 12 $ par mois pour 8.000 sec pour utilisation non-commerciale, 28 $ par mois pour 28.000 sec, 100 $ par mois pour 110.000 sec


Le code de leur algorithme LTX-video est accessible en open source sous licence Apache et leur modèle video sous licence RAIL-M License (modèle libre de droit pour des usages commerciaux, avec des restrictions d’usage du type militaire, désinformation, ou systèmes critiques). Ils revendiquent d’avoir des données d’entrainement légales, notamment à travers un partenariat avec Shutterstocks.
On peut également demander à accéder à leur API.
Lightricks propose aussi d’autres petits outils simplifiés d’édition de visage FaceTune, un outil de montage video VideoLeap, un outil d’édition de photos PhotoLeap et un outil de traitement des medias pour les réseaux sociaux Popular Pays.
La production vidéo sur les plateaux de tournage TV s’automatise également, comme en témoignent deux exemples :

Multicam Systems combine suivi oculaire, zoom et suivi audio automatiques pour affiner cadrage et réalisation avec une intervention humaine minimale. En partenariat avec Canon, leur caméra zénithale détecte, positionne et cadre automatiquement jusqu’à 8 personnes simultanément dans un même studio.

Sony BRC-AM7 : cette caméra PTZ dopée à l’IA propose un cadrage automatique dans une zone prédéfinie avec gestion intelligente de l’espace (Lead Room), mise au point multi-personnes, mémorisation des visages et plage de suivi paramétrable.
Renforcer la découvrabilité, traçabilité et sécurité des contenus
Cette transformation des workflows par l’IA soulève de nouveaux défis, notamment celui de l’IA générative qui, bien qu’en voie d’intégration dans les processus de création, confronte le secteur à un choix crucial entre ouverture et contrôle. Au-delà de l’aspect technologique, l’enjeu est désormais culturel : comment instaurer et maintenir la confiance des créateurs qui veulent garder la maîtrise de leurs outils et des consommateurs qui exigent authenticité et éthique, dans un contexte de fragmentation des audiences et de budgets serrés ? La solution pourrait résider dans l’établissement de standards garantissant interopérabilité et traçabilité.
Dans cette dynamique de standardisation, le stand EBU suscite toujours un vif intérêt, avec une forte présence d’exposants et visiteurs français.
L’EBU (European Broadcasting Union ou UER, pour Union européenne de radio-télévision) est la principale alliance internationale de médias de service public (112 membres dans 56 pays). Fondée en 1950, elle promeut la collaboration technique, éditoriale et innovante (normes pour la télévision et la radio, gestion de l’Eurovision, R&D et échanges de contenus), avec une attention particulière portée sur la fourniture d’une information indépendante et de qualité.

La vénérable institution célébrait ses 100 en mettant en avant 2 nouveautés :
- Kamil EL FAYACHE présentait Security4Media, une association à but non lucratif visant à renforcer la cybersécurité des médias – face à des vulnérabilités touchant un tiers des système, en fédérant acteurs publics et privés autour du partage d’intelligence, de certifications (labels) et de solutions accélérées contre les cybermenaces, avec comme membres fondateurs l’EBU et des diffuseurs comme l’ORF (Autriche), ARD (Allemagne), Swedish Radio (Suède), SWISS TXT(Suisse), RTS (Suisse) et NRK (Norvège).
- l’EBUCorePlus : EBUCorePlus est une ontologie destinée aux entreprises du secteur des médias, développée par l’EBU dans le cadre d’un projet open source. Cette ontologie standardisée, héritière d’EBUCore (notamment adopté dans l’Audio Definition Model et le MXF) et de CCDM (un modèle conceptuel) offre un cadre modulaire, interopérable et indépendant des technologies, permettant aux acteurs du secteur d’unifier leurs métadonnées sans surcoût, et de transformer leurs données brutes en connaissances exploitables.
Une équipe suisse (composée de l’EBU et HEIG-VD – la Haute École d’Ingénierie et de Gestion du Canton de Vaud) a remporté le Best Technical Paper à l’IBC2025 pour EBU Neo, un chatbot multilingue basé sur l’IA utilisant une architecture RAG optimisée et des sources médiatiques publiques fiables (3,5 millions d’articles) pour offrir des réponses transparentes, précises et actualisées, tout en relevant les défis de la gestion multilingue, du traitement en temps réel des actualités et de la confiance dans l’information.
Coïncidence de calendrier (même s’il n’existe pas de lien entre les deux projets) : la Suisse vient de publier un grand modèle linguistique (LLM) open source développé sur une infrastructure publique avec 2 prestigieux laboratoires de recherche (l’ETH Zurich et l’EPFL), entraîné sur le supercalculateur “Alps” du Centre suisse de calcul scientifique (CSCS). Le modèle se distingue par une prise en charge multilingue, grâce à un entraînement initial sur un vaste corpus de textes couvrant plus de 1500 langues (60 % en anglais, 40 % dans d’autres langues), ainsi que des données de code et de mathématiques.
Une liste de projets Open Source présentés par l’EBU : https://tech.ebu.ch/events/2025/open-source-meetup-ebu-ibc-2025
- Ograf – Open HTML standard for broadcast graphics (EBU)
- Deep Linking from Broadcast Radio to Broadcaster Apps (RadioDNS)
- TAMS – Time Addressable Media Store (BBC)
- Open Media Transport (vMix)
- Open Intercom (Eyevinn Technology)
- avplumber (Amagi)
- Video.js (Mux)
- 5G-MAG Reference Tools – Open-Source Toolbox for Connected Media Applications (5G-MAG)
- Open Source Implementations for C2PA by WDR/ARD: Enabling Content Provenance and Authenticity (Westdeutscher Rundfunk)
- Omakase player (Konstrukt)
- The Media eXchange Layer (Grass Valley)
- libNDI (VideoLAN)
Très remarquée aussi la présentation de TEMS (Trusted European Media Dataspaces), projet de R&D financé par l’UE visant à créer un écosystème résilient axé sur l’échange et la valorisation des données, dans le secteur des industries Culturelles et Créatives.
Avec la présence de Marc-Antoine ARNAUD (Lum:invent), Véronique DEMILLY (France Télévisions), Régis FLAD (ISAN) et Lucille VERBAERE (EBU). Le Data Space proposé par TEMS agit comme un intermédiaire sécurisé et structuré pour fédérer des ressources entre organisations, en orchestrant la publication, la découverte, la contractualisation et l’échange de données via un catalogue central et des agents locaux. L’architecture garantit interopérabilité, confiance et conformité aux frameworks définis par des règles.




Chaque participant (A et B) possède son propre agent TEMS et son infrastructure IT interne, avec notamment le stockage de ses données. Les agents interagissent avec le cœur de TEMS pour publier ou découvrir des ressources qui vont servir aux échanges de données. TEMS fournit des services clés : on-boarding des process, bibliothèque des règles d’échanges, …, ainsi qu’un catalogue fédéré qui référence les données, les produits, les services et les infrastructures partagés entre les participants.
Quelques workflows étaient déjà en démonstration, dont notamment:
- la validation du numéro ISAN, pour garantir le matching des informations partagées entre l’INA d’un côté et la PROCIREP de l’autre;
- la valorisation d’assets présentés dans un catalogue pour faciliter la découverte, la collaboration et la réutilisation de données 3D pour la production virtuelle, en exploitant l’IA pour optimiser la recherche et la co-création d’expériences immersives (avec VRT, ARCTUR et Sound Holding).


| Xavier BRACHET et Hans-Nikolas LOCHER contributeurs au projet TEMS (qui s’inscrit dans la continuité du projet français TAMIS, piloté par la CST et avec aussi la participation de Titra Films), rappellent les fondamentaux du projet TEMS. L’objectif : déployer un écosystème de données médias sur toute la chaîne de valeur, pour valoriser les œuvres, tracer les usages en production ou également gérer les droits dérivés des œuvres (les droits musicaux par exemple). Les cas d’usage envisagés peuvent être multiples: e-sports, analyse d’audience, détection de tendances du marché, …. et dépasser ceux qui ont été cités dans les démonstrateurs, en cours de développement. Le projet repose sur des axes majeurs comme la standardisation des identités (un “single sign-on” sectoriel interopérable entre services) et la standardisation des API, garantissant une exploration unifiée des catalogues et une découverte facilitée des nouveaux services. Pour rappel, l’espace de données (Data Space) n’héberge pas nécessairement les médias eux-mêmes, mais leurs métadonnées distribuées qui référencent ces contenus. L’enjeu central est double : faciliter la recherche des bonnes données et y associer les conditions d’échange appropriées via des contrats d’accès, par exemple pour alimenter de manière sécurisée les futurs modèles d’apprentissage IA. |
Côté US, Movielabs et son framework ouvert de standardisation est également un habitué d’IBC.
Movielabs est une entité commune de R&D des studios hollywoodiens (Walt Disney Studios, Sony Pictures, Paramount Pictures, Universal Studios, Warner Bros, Lionsgate Studios, Amazon MGM Studios). Elle travaille sur les projets non concurrentiels bénéficiant à l’ensemble de l’industrie, notamment pour éviter les conflits de standards. Movielabs vient s’insérer dans un écosystème entre la SMPTE pour les standards et l’ASWF pour les projets Open Source, traitant de problématiques plus liées aux studios comme la distribution ou l’interopérabilité entre prestataires. Ils proposent une ontologie (Ontology for Media Creation : OMC), disponible en Creative Commons Attribution 4.0 et dont le code est disponible en open source sous licence Apache. Elle est destinée à être implémentée dans les outils de création et de gestion de projets et ressources d’un studio, afin d’automatiser les process, tant au sein d’une entreprise qu’entre plusieurs prestataires. Il faut différencier l’OMC des travaux précédents sur la distribution avec le Movielabs Digital Distribution Framework (MDDF), disponible en open source sous licence MIT, qui définit un ensemble de métadonnées et de workflows associés pour la distribution, donc plus proche conceptuellement de l’EBU Core.

Afin de valider les concepts, Movielabs a mis en place le démonstrateur 2030 Greenlight et le Movielabs Industry Forum, qui permet à des entreprises de participer aux tests. Les résultats sont publiés régulièrement sur le site et montrés sur les salons comme le Siggraph, NAB et IBC. Le code est mis à disposition sur Github.

Voir la video de la première expérimentation de Greenlight : https://vimeo.com/1111718253 qui traite de la modification tardive d’un scénario, avec son impact à la fois sur la planification de production et sur la préparation des plans pour les assets VFX utilisés en production virtuelle.
Le deuxième scénario porte sur un plan qui nécessite un retake, avec le recensement de l’ensemble des équipements, acteurs et équipes techniques impactés, ainsi que la planification du nouveau tournage.
HOLLI (présent sur la salon avec Cédric LEJEUNE) est à ce jour la seule société française membre du Movielabs Industry Forum; elle participe aux groupes de travail d’implémentation.
Face à la prolifération des fake news, la coalition C2PA a pour ambition de proposer un standard pour répondre à deux enjeux majeurs :
- Comment garantir aux consommateurs la fiabilité des contenus numériques, notamment ceux distribués en ligne ?
- Comment permettre aux éditeurs de médias de sécuriser leurs publications contre les détournements et les falsifications ?
La C2PA, organisation fondée en 2021, regroupe différents éditeurs de contenus, éditeurs logiciels et acteurs technologiques dont Adobe (co‑fondateur), BBC (co‑initiateur du projet d’origine), France Télévisions, Google, Intel (membre fondateur), Microsoft (co‑initiateur du projet d’origine), Meta, OpenAI, Publicis Groupe, Sony, Truepic (membre fondateur) et Amazon.
La Content Authenticity Initiative (CAI), fondée en 2019 par Adobe, le New York Times et Twitter, a œuvré pour standardiser les métadonnées de provenance (Content Credentials), aujourd’hui formalisées par le C2PA comme référence industrielle.
La C2PA propose un standard open source permettant de structurer la provenance d’un contenu grâce à des assertions (métadonnées relatives aux logiciels de création, de modification, aux appareils utilisés, etc…), regroupées en Claims (déclarations signées numériquement par l’émetteur). Le tout est encapsulé dans un Manifest C2PA, un bloc vérifiable et théoriquement infalsifiable, qui constitue la preuve d’authenticité intégrée au média.
Ces outils de traçabilité donnent aux créateurs et aux éditeurs les moyens de documenter, en toute transparence, l’origine, les modifications et l’historique d’un contenu – conservés à chaque étape, afin d’offrir aux publics des indices d’authenticité et de renforcer la confiance dans les médias numériques, car “la confiance est le fondement de notre filière”.


Les premiers équipements de capture intégrant le C2PA font leur apparition : le Samsung Galaxy S25, le Google Pixel 10 et la nouvelle caméra Sony PXW-Z300.


Les partenaires du projet d’accélération “Stamping Your Content – C2PA Provenance” ont présenté l’intégration du C2PA dans l’acquisition de contenus, illustrée par la caméra Sony PXW-Z300, capable d’embarquer des Content Credentials. Les résultats ont été intégrés par BBC Verify, soulignant la simplicité d’utilisation pour les opérateurs et le rôle clé de ces métadonnées pour vérifier l’authenticité, à travers les différents outils d’édition testés.



Les partenaires ont insisté sur l’importance d’insérer les credentials tout au long de la production, tout en alertant sur la nécessité de filtrer certaines données pour préserver la vie privée, sans compromettre la traçabilité : Il faut donc apposer le stamping au bon moment avec le bon outil dans les processus de création et de diffusion.
Cependant, la diffusion des contenus sur internet tend fréquemment à dégrader les métadonnées donc également les Manifestes C2PA, exposant ainsi les actifs numériques à la vulnérabilité et compromettant leur intégrité. La solution consiste alors à recourir à du soft binding, avec des empreintes perceptuelles ou des filigranes (watermarking) pour ré-associer un manifeste C2PA à un média dont les métadonnées ont été supprimées ou altérées, via la recherche de manifestes correspondants dans des dépôts dédiés, avec des mises en garde sur les collisions possibles, la validation de confiance et le respect de la vie privée.


L’IPTC, organisme mondial de normalisation des médias d’information, est le partenaire de confiance chargé de valider l’auteur des Manifestes C2PA (permettant d’identifier la “véritable BBC”, par exemple).
La conclusion de la conférence était : “tout le monde comprend désormais le problème, il est donc temps d’agir. Mais pour l’instant, les diffuseurs sont plus intéressés que les fournisseurs et il faut intensifier les discussions avec les grands acteurs technologiques.”
Il y avait également 2 démos C2PA sur le stand de l’EBU:
- Workflows C2PA : workflows de suivi de l’authenticité et de la provenance des contenus avec Adobe, Imatag, Teletrax et Sony.
- C2PA mis en production : une implémentation C2PA fonctionnelle, avec France Télévisions.
A noter aussi que Linkedin intègre déjà la lecture de médias avec des “pins” CR Content Credentials.
3D relief, le retour ?
La caméra URSA Cine Immersive (pour un prix de 26 k€) intègre deux capteurs 8K (8160 × 7200 par œil), un double objectif personnalisé et une plage dynamique de 16 diaphs, avec un micro stéréo hypersonic de Sennheiser.
Les données sont stockées sur le Blackmagic Media Module : 8 TB pour 1 heure utile au format Apple (à 90 im/s)


https://www.blackmagicdesign.com/fr/products/blackmagicursacineimmersive
La nouvelle version de DaVinci Resolve 20.1 intègre de nouveaux modules Apple Immersive Video permettant de monter, étalonner, ajouter des VFX et mixer de l’audio spatial les médias tournés avec l’URSA Cine Immersive. Un preview est possible en 4K, avant le rendu final en ProRes 8K. Des exports vers d’autres formats immersifs sont également disponibles.
https://sonovision.com/blackmagic-davinci-resolve-20-1/?utm_source=SV_NL
Sony montrait son rig stéréo compact à base du rig Stereotec monté avec deux Venice2 (capteur 8 K) : démo en temps réel de la sortie 3D dans des lunettes relief (et le follow focus assuré par Forest Finbow sur le stand de Sony 😉


Ateme faisait la démonstration de son encodage MV-HEVC pour Apple Vision Pro, optimisé pour la 3D/VR, pour plusieurs angles de vue en un seul flux, avec un débit réduit en préservant la qualité.
| Béatrice BAUWENS et Fred FERMONT soulignent que cette tendance renouvelée pour la 3D relief reflète davantage un attrait du marché pour l’immersivité, parfois associée à l’interactivité du spectateur, notamment dans la valorisation du patrimoine. Des expériences immersives comme la Sphère de Las Vegas, basées sur la captation 360° avec des caméras haute résolution comme celle présentée ici, en témoignent également. Laurent HÉRITIER rappelle qu’un obstacle majeur à la diffusion 3D relief traditionnelle reste la qualité médiocre des projections en salles, inchangée depuis des années (avec à Paris seulement trois salles offrant des conditions optimales). Danys BRUYÈRE observe que la 3D relief connaît surtout un essor chez les gamers, via les casques de réalité virtuelle (encore en nombre limité) ou avec les nouveaux moniteurs auto-stéréoscopiques maintenant de très bonne qualité mais de taille réduite, limitant leur usage à un petit public ou à des postes de travail. L’engouement pour la VR et l’immersif s’est quelque peu essoufflé depuis son pic sur les salons d’il y a 5 ou 6 ans. Benoit MAUJEAN signale également le regain d’intérêt actuel pour la Réalité Augmentée, porté par l’arrivée de nombreuses lunettes plus abordables et plus légères. Hans-Nikolas LOCHER note que la Réalité Virtuelle propose une nouvelle forme de spectacle, tandis que la Réalité Augmentée se positionne comme une nouvelle interface homme-machine. |
Focus sur d’autres équipements de prises de vues
RED (racheté par Nikon en avril 2024) présentait la RED V-Raptor XE, version simplifiée et plus abordable (15 k$ pour la caméra seule) de la V-Raptor X, ciblant les cinéastes indépendants et les diffuseurs en offrant l’essentiel de sa qualité d’image haut de gamme (capteur VistaVision, en global shutter) sans les fonctionnalités broadcast ou les cadences élevées, pour se positionner comme un compromis premium entre la Komodo (entrée de gamme 6K à 40 im/s pour 6 – 7 k€ ) et la V-Raptor X (pro, 50 à 60 k€ pour la XL). Cette nouvelle version XE permet de tourner en 8K jusqu’à 60 i/s, en 6K jusqu’à 80 i/s, en 4K jusqu’à 120 i/s et en 2K jusqu’à 240 i/s. Par rapport à ses aînées, il manque juste la fonction Extended Highlights (multiple exposure pour gagner environ un stop et demi de dynamique dans les hautes lumières) et le Phantom Track (pour enregistrer et monitorer les 2 flux alternatifs des écrans LED -par ex. fond vert + fond incrust, sur 2 clips séparés).

Nikon présentait le Nikon ZR son tout nouvel appareil photo numérique hybride “plein format” (format 24×36) en monture APS-C, léger et compact, le premier d’une série “Cinéma” conçue avec RED, proposée au prix public de 2.349 € TTC. Avec un nouveau codec vidéo Raw de RED (le R3D NE), en plus du format N-Raw de Nikon et du format ProRes Raw. Bien qu’il ne soit pas exactement identique au format Redcode Raw utilisé par les caméras cinéma RED, il est conçu pour être monté avec celui-ci et utilise la même courbe logarithmique et la même gamme de couleurs. En formats Raw de RED ou de Nikon, l’enregistrement 6K peut monter à 60p en 6K, et à 120p en UHD 4K. Autre caractéristique remarquée : un écran 4 pouces en 16:10 couvrant l’espace colorimétrique DCI-P3.


Mark Roberts Motion Control (MRMC) racheté par Nikon en 2016, présentait 2 nouveautés à IBC:
- le Cinebot Nano, robot compact 9 axes, charge 7 kg, portée 1 m, conçu pour les créateurs nomades (notamment pour le marché de la pub). Il se distingue par sa portabilité (3 valises, compatible avion) et son logiciel Flair Lite simplifié (keyframing Push Moco), offrant une précision professionnelle à partir de 20 k£.
- Le RPS-LT, un pedestal robotisé mobile doté d’un châssis à trois essieux, chacun équipé de deux roues motrices, associé à un bras 6 axes Studiobot LT et à un Lidar Sick pour une précision de positionnement et un évitement d’obstacles intelligent. Compatibilité téléprompteur incluse, il permet des mouvements fluides en environnement studio, sans rail de travelling


Sony mettait en avant sa nouvelle caméra 4K HDR PXW-Z300 compatible C2PA (Credentials), “première caméra vidéo au monde à intégrer des signatures numériques directement dans les fichiers vidéo”.

Sony présentait aussi la nouvelle caméra CMOS Super 35 mm 4K HDC-F5500V, destinée à la production audiovisuelle haut de gamme en direct.
A l’opposé, BlackMagic présentait son nouveau Camera ProDock pour connecter un iPhone 17 Pro ou 17 Pro Max, avec timecode externe, genlock, audio, enregistrement sur SSD, pour 295 $.

DJI présentait son Osmo 360, pour une prise de vues à 8K/30 fps, 5K/60 fps ou 4K/120 fps, avec un capteur 1 pouce carré HDR et un stockage intégré de 105 Go pour une autonomie de 100 minutes (en 8K/30 fps). Il est proposé avec 2 configurations : un Pack standard à 480 € et un Pack Aventure à 630 €, incluant perche, boîtier multifonction et accessoires supplémentaires.

| Danys BRUYÈRE nous signale aussi le lancement en grande pompe à IBC de la FUJIFILM GFX ETERNA 55, dotée d’un grand capteur (diagonale d’environ 55 mm, approximativement 1,7 fois plus grand qu’un capteur 35 mm), donc entre une RED Raptor VV et une Alexa 265 ou une Alexa 65 pour seulement 14 k€. D’où la riposte de RED, mentionnée précédemment, avec sa nouvelle V-Raptor XE, dans la même gamme de prix. La sortie de la nouvelle Eterna est couplée avec celle d’un zoom Fujinon de qualité qui couvre le grand capteur (de la taille d’un petit zoom Angénieux), offrant des focales de 32 à 90 mm, pour 4,5 k€. Donc la tendance est d’aller vers de plus grands capteurs, avec une plus grande résolution, mais aussi (mauvaise nouvelle pour les loueurs de caméras) avec des prix plus compétitifs. Les constructeurs tentent visiblement de redynamiser un marché de la caméra cinéma quelque peu morose actuellement, comme en témoigne l’absence remarquée d’Arri à IBC cette année. |
Quelques nouveautés en montage et étalonnage
Adobe Premiere Pro 25.5 intègre plus de 90 nouveaux effets, transitions et animations – issus de l’acquisition de Film Impact, tous accélérés par GPU, avec un bouton “Surprise Me” pour générer des variations créatives, et un panneau “Film Impact Dashboard” pour prévisualiser les variations sans plug-in externe. La nouvelle bibliothèque d’effets intègre des effets de lueur, de flou et d’écho, permet d’ajouter des bokeh, des rayons volumétriques, et du vignetting. On peut modifier indépendamment les canaux rouge, vert et bleu pour corriger les couleurs en cas d’éclairage fluorescent. La mise à jour améliore aussi la lecture et l’édition dans la timeline (formes d’onde audio persistantes, fondus multi‑clips), et élargit la prise en charge des formats (10‑bit 4:2:2 H.264/HEVC sur NVIDIA Blackwell, exports Canon Cinema RAW Light plus rapides, support ARRIRAW HDE).
Adobe montrait également une beta de Premiere sur iPhone, qui intégrera les imports/exports avec le standard open source OTIO (en beta également).


Adobe montrait aussi en preview un nouveau plugin UXP permettant de traiter par lots toutes les métadonnées de la timeline d’un montage (Metadata Handler) pour pouvoir les intégrer dans des workflows d’entrées/sorties du montage. Pour aller plus loin : https://www.youtube.com/watch?v=EbtndtElBUg
Avid mise de plus en plus sur le cloud, la collaboration à distance et l’automatisation. Avec un workflow proxy amélioré et plus rapide, la mise en avant du Panels SDK pour Media Composer et la plateforme Content Core qui facilite la recherche grâce à l’IA. DeepEditor de Flawless progresse dans ses outils d’édition de performances d’acteurs, assistés par IA (les Visual Dubbings, aka Vubs), permettant d’améliorer une réplique, transférer une performance, décliner en plusieurs langues. A signaler également d’autres outils comme Quickture, Acclaim Audio et Traco.ai pour renforcer le positionnement sur transcription automatisée, ainsi que la compatibilité Open Timeline IO interchage format (OTIO) de bout en bout pour permettre la passerelle avec d’autres outils de montage.

Filmlight était de retour à IBC (depuis son dernier passage en 2019) pour présenter les nouvelles versions de son outil d’étalonnage Baselight 7.0 et de son outil de gestions de fichiers Nara 2.0.
Andy MINUTH et Martin TLASKAL ont présenté Baselight 7.0, affiné grâce aux retours de leurs bêta-testeurs actuels, avec des améliorations de la gestion des keyframes, de la mise en cache sur disque, ainsi qu’un aperçu de l’usage du machine learning pour le look development en alternative aux LUT traditionnelles.
FilmLight présentait aussi FilmLight REMOTE qui permet de piloter à distance un système Baselight ou Daylight (via HP Anyware ou Amazon DCV pour l’interface multi-écrans 4K) tout en diffusant un flux vidéo haute qualité (en compression JPEG-XS ou H.265), avec prise en charge comme en local des Control Panels de type Slate ou Blackboard.
Steve BRITNELL a présenté Nara 2.0, application web pour rechercher, visualiser (vignettes/métadonnées) et organiser les fichiers des projets, avec authentification intégrée et gestion fine des droits. Grâce à un encodage GPU NVIDIA sans latence (HEVC ou H.264 10‑bit), Nara diffuse en HDR directement dans le navigateur, sans transcodage ni proxies, tout en prenant en charge 160+ codecs (RAW caméra, EXR, IMF, DCP) et en préservant fidèlement les espaces colorimétriques. Tous les médias sont indexés pour des recherches avancées, avec des tableaux de bord sur l’usage du stockage. Un cache NVMe haute performance (jusqu’à 20 h de médias) et le partage sécurisé par URL protégées, playlists et intégrations (FileMaker, Excel) optimisent les workflows. Côté déploiement: serveur dédié avec GPU NVIDIA haut de gamme (~5 000 €), licence serveur annuelle (4 000 €) et 400 € par stream utilisateur; Nara a remporté le “Best of Show” IBC 2025 décerné par TVBEurope.



https://www.filmlight.ltd.uk/pdf/datasheets/NaraDatasheet1.0.pdf
| Jean-Christophe PERNEY fait remarquer que la convergence entre les outils d’IA (assistants et génératifs), les plateformes collaboratives et l’accélération des transferts de fichiers (grâce à l’hybridation local/cloud) redistribue la valeur ajoutée entre les acteurs du secteur. Constat frappant du salon : tous les acteurs, de la captation à l’archivage en passant par la post-production, proposent désormais des outils similaires. Auparavant, chaque maillon avait son périmètre bien défini : une caméra pour filmer, un logiciel pour monter, un système pour stocker. Aujourd’hui, les outils d’IA et d’indexation se déploient à tous les niveaux de la chaîne : dès la captation, dans le montage ou l’archive. Cette mobilité des fonctionnalités redessine les frontières métiers et transforme les acteurs technologiques traditionnels en prestataires de services. La bataille se joue désormais sur le terrain des plateformes, non seulement sur le prix et la performance, mais aussi sur la crédibilité et la garantie de confidentialité des contenus. Si AWS domine le marché, une multitude de micro-plateformes spécialisées émergent (gestion de rushes, post-production et VFX à distance par exemple). Même les éditeurs historiques comme Avid ou Adobe se repositionnent en proposant des plateformes “as-a-service” avec des modèles par souscription à l’usage. Les métiers se transforment en profondeur. |
D’autres présences françaises
LumiMakr, une TPE implantée à Montpellier, présentait avec Gwendoline BRECHOT une solution de conversion SDR vers HDR – compatible HLG (Hybrid Log-Gamma) et PQ (Perceptual Quantizer), avec réduction de bruit et gestion des couleurs conforme à la norme BT.2100.
Cette technologie repose sur un premier traitement breveté des artefacts (élimination des défauts de compression et du bruit) suivi d’un tone mapping adaptatif – inspiré de Photomatix, pour une extension optimale de la plage dynamique, avec 5 presets et quelques paramètres ajustables. On peut aussi régler le nombre d’images empilées pour le traitement (entre 2 et 4).
Actuellement disponible en version allégée sous forme de plugin, elle fonctionne sous DaVinci Resolve 18 et 19 et est accessible en version d’essai sur lumimakr.com/fr/.


Demo video : https://youtu.be/MXHBPNpl6BM
Contact: Adam CRUZ <adam@lumimakr.com>, Marie-Line GRÈS <marieline.reynier@gmail.com>
L’INA présentait sa technologie de signature numérique, une empreinte basée sur l’analyse de la luminance du contenu vidéo pour en extraire un “code génétique” unique, sans modification du fichier original (contrairement au tatouage ou watermarking). Cette innovation s’inscrit dans le cadre d’un accord de co-développement avec l’ARPP (autorité de régulation publicitaire française) pour déployer la solution INA Signature, dédiée à l’identification automatique des publicités audiovisuelles sur les plateformes numériques. Un enjeu crucial à l’ère de la publicité TV segmentée et programmatique, diffusée via adservers et systèmes d’enchères, où traçabilité et conformité déontologique des créations ne sont pas toujours assurées. Dans ce contexte, l’identifiant historique PubID laisse place à un nouveau format baptisé IDcrea.
| Jean-Christophe PERNEY ajoute – à juste titre, qu’il ne faut pas oublier le son. Côté audio, les innovations se concentrent sur l’IA et le transport du signal – un domaine déjà bien avancé avec les protocoles d’échange sur réseau informatique tels que Ethersound, Dante et la normalisation progressive via le ST2110. Grâce à son poids plus léger que l’image, l’audio a connu sa révolution numérique il y a déjà 2-3 ans et affiche aujourd’hui une maturité bien supérieure. L’industrie dispose désormais de standards de transport homogènes et éprouvés. Si l’innovation continue (amélioration de la qualité, meilleure collaboration), le secteur bénéficie surtout d’une convergence des formats qui facilite les échanges et l’interopérabilité. |
IBC 2025 et l’écologie
Barbara LANGE (fondatrice de Kibo121 et de la Media Tech Sustainability Series … et ex-Directrice du SMPTE, nous rappelle Hans-Nikolas) lance le Media Climate Accord pour fédérer l’industrie autour de la mesure, le reporting et l’action climatique collective.
Deux sociétés Coréennes (SK Broadband et Pixtree) sont récompensées par le Prix Environnement & Durabilité IBC 2025 pour l’upscaling UHD sur puces IA (NPU), déployée auprès de 6,7 millions d’abonnés IPTV, permettant −80 % d’énergie et 3 728 tCO2/an évitées.
Une fracture géographique se dessine : selon Abdul Hakim (DPP), les diffuseurs européens demeurent engagés sur les enjeux de durabilité, alors qu’outre-Atlantique, les impératifs économiques priment généralement sur ces considérations environnementales.


Pour aller plus loin :
- Compte rendu de Jean Christophe PERNEY
- Captation et diffusion broadcast
- Post-Production et News
- Ingest • Orchestration • Automatisation • MAM
- Plateformes média collaboratives et solutions de remote post-production
- Archivage de production
- Audio pro : innovation, immersion et intelligence
- 83 Nouveautés de l’IBC 2025 par TRM
- Compte-rendu de CSI magazine
2- Narrative Coders
(par Alex PÉRON)
Lien vers les slides de la présentation
Ancien co-fondateur de Melusyn (à l’origine de la plateforme SetKeeper, dédiée à la gestion des tournages), Alex PÉRON s’est associé à Goulwen COURTAUX (réalisateur, développeur et producteur musical) pour créer Narrative Coders.
Narrative Coders se positionne en spécialiste de la création de plans et séquences générés intégralement par IA, combinant expertise technique et regard artistique. Leur travail s’étend du développement de projet (prévisualisation, moodboards) à la post-production, en collaboration étroite avec les membres de l’équipe de production : producteur, réalisateur, directeur de production, directeur de post-production, assistant-réalisateur, chef-opérateur, et superviseur VFX. Leur marché couvre la fiction, le documentaire, le flux et la publicité.

Narrative Coders utilise des modèles de diffusion vidéo et image (Stable Diffusion, Runway, Luma Dream Machine, etc.). Leurs solutions reposent sur des workflows IA complexes, notamment autour de ComfyUI, mis à jour régulièrement, et un ensemble de collaborateurs basés en France, au Royaume‑Uni, en Allemagne, aux États‑Unis et au Canada. Ces collaborateurs ont un parcours souvent atypique qui mêle expérience de mise en scène et d’ingénieur.
L’IA permet de générer des plans complexes, comme des foules historiques ou des survols de paysages (establishing shots par ex.), des cascades, des vols d’oiseaux, réduisant coûts et risques de production physique.



- Leurs workflows sont hybrides, combinant IA et parfois 3D et/ou un post-traitement manuel pour la précision (exemple : plaques d’immatriculation des voitures, à retoucher après les hallucinations IA).
- La bonne direction des éléments peut être gérée via des contrôleurs, pour guider la génération IA et garantir la cohérence visuelle. La création des micro-modèles personnalisés (LoRA, pour Low-Rank Adaptation Models) permet notamment de mieux maîtriser la continuité des éléments.
- Alex insiste sur la complémentarité IA/humain et sur la transparence nécessaire vis-à-vis des producteurs et diffuseurs concernant les modèles utilisés.
Les limites actuelles concernent notamment la colorimétrie, la résolution et la fidélité des jeux d’acteurs, avec un horizon d’amélioration mais sans remplacement complet du jeu d’acteur réel.
- Kevin PACINI (Digital District) souligne que les modèles actuels restent limités à une dynamique des couleurs en 8 bits et sur des formats courts, nécessitant encore de la R&D sur la continuité et l’étalonnage.
- Narrative Coders propose des solutions pour prolonger les plans par insertion de frames intermédiaires, qui permet de réaliser des plans-séquences longs.
- Les technologies d’upscale avec l’IA évoluent rapidement, les plans peuvent être générés en 4K ou dans des résolutions supérieures.
- La modélisation de voix et doublures numériques est possible, mais le jeu d’acteur complet reste hors de portée, probablement pour plusieurs années.
- Le sentiment global de Narrative Coders est que l’usage de l’IA générative connaît une croissance exponentielle, en rendant accessibles des plans qui nécessitaient auparavant de très gros budgets.
Les questions économiques et environnementales sont au cœur des débats, avec un impact carbone à évaluer face aux productions traditionnelles.
- Les modèles économiques actuels reposent sur un système de crédits, qui varie souvent et qui pose un risque de concentration des fournisseurs. L’enjeu culturel et stratégique de souveraineté est souligné, avec la nécessité de modèles puissants français et européens.
- Diffuseurs et producteurs mettent en place des chartes internes pour encadrer les frontières créatives et légales de l’IA, ce qui permet d’évaluer les bénéfices et les risques et d’en déduire un certain équilibre d’utilisation de l’IA générative.
- D’où l’importance du choix des modèles utilisés pour chaque plan et de bien conseiller les producteurs. Des échanges avec le diffuseur / producteur sont parfois requis afin de se conformer à leur politique interne.
- Béatrice BAUWENS rappelle que le producteur est souvent celui qui est tenu responsable in fine, particulièrement en cas de contrefaçon ou d’exploitation non autorisée d’une œuvre.
- Pour Narrative Coders, travailler avec l’IA nécessite un examen au cas par cas, en fonction du plan ou de la séquence fabriqués. Le risque de contrefaçon “accidentelle” est statistiquement très faible, et l’on revient à une gestion classique des droits sur les éléments volontairement intégrés à l’image.
- Béatrice rappelle que le CNC et d’autres organisations publiques mènent des réflexions pour établir un cadre juridique clair, notamment sur la transparence et le partage des droits, afin d’éviter des contentieux,et d’en finir avec cette période d’incertitude juridique et de prise de risque de certains producteurs. Et aussi éviter le rejet systématique de toute forme d’IA, même lorsqu’elle ne modifie pas la propriété intellectuelle des images, également pour l’automatisation et la fiabilisation de certaines tâches fastidieuses par exemple.
- La souveraineté culturelle et la rémunération des ayants droit sont des enjeux majeurs, à l’instar de ce qui s’est passé dans la musique avec la mise en place d’abonnement (comme Spotify) pour intégrer la rémunération des artistes dans le modèle économique.
Pour Narrative Coders, l’IA s’insère dans la chaîne de valeur entre pré-production et post-production. En outre, Alex estime que le métier de storyboarder peut être valorisé par ce nouveau travail nécessaire de pré-production, où chaque plan peut être étudié dans un contexte de production hybride entre tournage et IA. L’IA permet également, en phase de pré-production, de concevoir une pré-visualisation complète d’une production.
- Narrative Coders conseille les productions sur ce qui peut être fait en IA avant tournage pour éviter les surprises et faciliter la planification.
- Ils travaillent en parallèle avec les équipes VFX et de tournage, l’IA agissant comme un nouveau département qui s’insère dans la chaîne de production.
| Béatrice lance aussi le débat des transformations de l’organisation du travail entraînées par l’IA. L’évolution technologique modifie les rôles, la collaboration et le positionnement des acteurs du secteur. Pour l’instant, Narrative Coders organise ses équipes en structures agiles, avec des spécialistes qui intègrent les nouveaux modèles, ou qui utilisent les interfaces comme ComfyUI pour mettre en place les workflows. Pour les participants, l’enjeu culturel et juridique autour de l’IA impose une transparence accrue, afin de maintenir la confiance entre créateurs, diffuseurs et consommateurs. L’information des producteurs sur les modèles utilisés et les limites techniques est essentielle pour éviter des malentendus et les contentieux futurs. La nécessité d’une régulation claire et d’un modèle économique viable autour de l’IA est reconnue comme prioritaire par tous les intervenants. |
3 – Autres événements et informations
(par Benoit MAUJEAN)
- la Commission RSE (jeudi 9 octobre à 15:00 en visioconférence) qui traite de la démarche bilan carbone de la FICAM, la présentation de la nouvelle plateforme IT par Flying Secoya, avec les avantages pour les adhérents FICAM et le projet de guide RSE pour les industries techniques.
- Renseignements : jules.gonthier@ficam.fr
- la Commission Localisation (mardi 22 octobre à 15:00 en visioconférence) qui traite de la Négociation IA Doublage, la problématique des renouvellements de droits DADR pour certaines œuvres et l’avenir de la plateforme dépôt doublage.
- Renseignements : jules.gonthier@ficam.fr
- la Ficam sera présente au SATIS (5 et 6 novembre)
- Stand n°16 – Dock Pullman, aux côtés de France VFX
- Table ronde : “Les grandes tendances de la recherche dans le domaine de l’audiovisuel et l’IA”, mercredi 05 nov. à 16:30
Sans oublier les Newsletters hebdomadaire et mensuelle de la FICAM
La réunion s’achève à 19:15.





