La synchronicité est le socle des opérations de montage, pourtant le flux de post-production pâtit souvent de la méconnaissance de cet outil de base qu’est le « code temporel » (ou TC) par les opérateurs (voire les monteurs !) .

Avril 2012. Je suis à New-York pour une captation live en multicam et en direct, tournée avec une petite équipe, un budget correct mais « low profile », coproduction franco-américaine « indé » pour ainsi dire, avec chefs de postes français, opérateurs et techniciens américains.

Au détour d’une conversation pendant la prépa, alors que nous repartions du décor, le jeune assistant monteur new-yorkais qui travaillait sur le projet finit par me dire: « Tu parles tout le temps du timecode, mais à quoi ça sert en fait ? ». Je m’arrête, je le regarde, et je ne peux pas m’empêcher de la ramener : « Attends, tu montes du multicam à longueur de journées et tu ne sais pas à quoi sert le timecode ? ». De facto, il synchronisait ses rushes systématiquement à l’œil et à l’oreille !

Cette anecdote illustre bien pour moi l’angle mort du flux de production audiovisuelle : le code temporel, ou « timecode », puisque c’est ainsi qu’il se nomme dans la plupart de nos caméras.

Bon accessoirement je ne parle pas « tout le temps » du timecode, hein… Mais là, si !

Le timecode c’est quoi ?

Petit rappel de base : le timecode donne à chaque image tournée une « adresse » de type Heure/Minute/Seconde/Image, soit HH:MM:SS:II, par exemple 10:37:28:05. Quand on tourne à 25i/s, au bout de 25 images, les minutes s’incrémentent et le compteur d’images repart à zéro, court de nouveau de 0 à 24, et ainsi de suite…

Pour synchroniser précisément l’image et le son, la ou les caméras et les systèmes d’enregistrement sonore doivent évidemment défiler à la même cadence – et être réglés au même timecode.

Le timecode est devenu indispensable face aux exigences de précision de la vidéo professionnelle, standardisée en 1969 par la SMPTE (Society of Motion Picture and Television Engineers) pour le format NTSC (Amérique, exceptés quelques pays d’Amérique Latine et des Caraïbes, plus le Japon, en gros), puis par l’EBU en 1972 pour le format PAL. Pour rappel, cette répartition NTSC/PAL, mis à part quelques particularités régionales, dépend des fréquences électriques choisies ou léguées par l’Histoire de chaque pays, ce qui a des conséquences sur les cadences de tournage que nous utilisons pour éviter les problèmes de scintillement: 25i/s à 1/50 s – 180° d’angle d’obturation dans le monde PAL (fréquence électrique à 50Hz), vs 30i/s à 1/60 s – 180° d’angle d’obturation dans le monde NTSC (fréquence à 60Hz).

À noter qu’en adaptant la vitesse d’obturation, on peut compenser ce présupposé technique et donc tourner à 25i/s aux États-Unis ou au Japon, ou bien 24 i/s en Europe, mais c’est une autre histoire…

Ce n’est pas le seul discriminant qui permet de donner à chaque image son adresse unique : il s’y ajoute l’identifiant (lettre+numéro) du plan et l’identifiant (lettre+numéro) de la bobine/cassette/carte (reel/tape/card). Mais si les noms des plans et des cartes peuvent facilement être modifiés manuellement à l’aide d’un ordinateur, le timecode, lui, est partie intégrante du plan, au même titre que l’image et le son enregistrés au moment de la prise de vues. C’est sans doute la « métadonnée » la plus importante générée par la caméra lors de l’enregistrement.

Ainsi, chaque image tournée est dotée d’une « adresse » unique, ce qui permet en post-production d’avoir des rushes dotés d’identifiants de marquage temporel uniques, et de pouvoir s’y retrouver lors du montage, comme plus tard au moment de la conformation, c’est à dire au moment où on remplace les fichiers de qualité dégradée (compression nécessitée par la rapidité de manipulation des fichiers lors du montage) par les fichiers de pleine qualité et de pleine résolution en vue de l’assemblage final (et de l’étalonnage, notamment !).

Auparavant, en pellicule, les monteurs et monteuses procédaient au piétage de la pellicule, ce qui leur permettait, grâce aux numéros imprimés dans les manchettes du celluloïd du positif, de pouvoir conformer à l’image près le montage du négatif du film, une fois les opérations de montage terminées. Processus automatisé par la suite grâce au Keykode introduit par Kodak, encore en vigueur aujourd’hui. Lors du montage de films tournés en pellicule, chaque image est identifiée par un Keykode – et un timecode.

Il faut ici mentionner la société Aaton, société française fondée par l’ingénieur (et regretté) Jean-Pierre Beauviala, qui a beaucoup œuvré pour la synchronicité du son et de l’image, fabriquant des caméras exceptionnelles (quartz introduit par le même Beauviala, alors employé par la société Éclair, sur les caméras Éclair Coutant et ACL, dès la fin des années soixante), mais également des enregistreurs son tout aussi exceptionnels (les Cantar). Aaton avait évidemment conçu des boitiers de synchronisation image/son, et même un code spécifique pour identifier chaque photogramme exposé sur la pellicule : l’AatonCode.


Le timecode en tournage

Le timecode, donc, est un outil précieux, qui permet à nos images de voyager de nos caméras jusqu’aux dernières opérations de post-production sans se trouver égarées, au cours d’un processus qui prend parfois plusieurs années, avec les aléas toujours possibles que connaît la production d’un film.

Mais alors, si c’est si important, qui s’occupe de régler et de générer le timecode ? Le chef opérateur ? L’assistant opérateur ? Les sondiers ? Et en fonction de quelles préconisations ? Et si on tourne avec des appareils photo ? Et si on tourne avec plusieurs caméras ?

Même si les caméras peuvent générer leur propre timecode, le timecode est généralement géré par l’équipe son, dont le matériel génère des timecodes très précis, l’unité étant plutôt la microseconde que le 24e ou le 25e de seconde. Ce timecode est distribué à la caméra via des boîtiers autonomes « slave », « clockés » pour ainsi dire à un boîtier « master », soit l’horloge interne de l’enregistreur audio principal. Le temps de l’horloge défile tout naturellement, et les caméras, configurées pour recevoir ce timecode externe, enregistrent les images selon l’horaire de l’horloge, en heures/minutes/secondes/images.

Tout est absolument synchrone. C’est le meilleur des cas.

Et puis il y a les autres cas.

On peut toujours faire un clap avec les mains, qui permettra de re-caler ensemble les flux image et son, au prix d’un certain temps de manipulation par l’assistant monteur, mais enfin, tâchons autant que possible d’être un peu rigoureux.

Si on n’a pas d’équipe son et que l’on tourne à deux caméras (ou plus), si les caméras ont des entrées timecode, il faut régler le timecode en mode « Free Run » (défilement horaire continu), désigner une caméra « master » et une caméra « slave » mais tourner avec un câble reliant les deux caméras. Par exemple.

Si on ne peut pas relier les caméras avec un câble, il faudrait avoir plusieurs boitiers de timecode, l’un étant « master » et le ou les autres étant « slave », chacun relié à l’entrée timecode des caméras.

Si les caméras n’ont pas d’entrée timecode (cas typique des appareils photo), les boitiers générateurs de timecode peuvent alors être branchés sur une des entrées son de la caméra/boîtier DSLR, ce qui permet d’enregistrer le timecode en audio (ou LTC), il faut alors vérifier que le niveau de sortie du boitier de timecode est réglé correctement (en gros niveau ligne ou niveau mic ou même entre les deux !).

En dernière extrémité, il m’est même arrivé de tourner un film entier en filmant au début et/ou à la fin de chaque plan le timecode affiché par le boitier ! Ce boitier étant clocké chaque demi-journée par le chef opérateur son…

On peut aussi filmer un clap électronique présenté au début de chaque prise ou posé quelque part hors-champ, affichant le timecode synchronisé par les sondiers.

Il y a donc des solutions : Ambient, TimecodeSystems ou Tentacle conçoivent et commercialisent des boitiers adaptés aux différents usages, robustes et fiables. Parmi les moins onéreux, on trouve les boitiers Tentacle E ou les Timecode Blue, qui peuvent être clockés à distance via Bluetooth !

 

Ces petits boitiers peuvent même devenir des solutions qui dépassent la seule problématique de la synchronisation.

Le Track E audio recorder de Tentacle annoncé initialement pour mai 2020 (mais reporté à l’été 2020) intégrera un enregistreur audio, comme un boitier HF donc, mais avec enregistreur sur carte SD et timecode synchronisable à distance. Autre argument pour le Track E : l’enregistrement audio se fera à la manière du RAW en image, le volume d’enregistrement devenant une métadonnée ajustable en post-production.

Ambient propose de son côté une intégration dans la chaîne image avec le MasterLockit Plus et un système réseau propriétaire, ACN, qui permet par exemple de récupérer les métadonnées générées par les optiques Zeiss (Supreme primes et CP.3 XD) et Cooke (les optiques S4/i) les plus récentes. Il est ainsi possible d’exploiter les données liées à l’optique via Silverstack et LiveGrade Pro (Pomfort) par exemple, si toutefois le modèle de caméra utilisé est à même d’enregistrer ces données (VFX friendly non?). Ambient a aussi créé une app, LockitScript pour les besoins du rapport image.

 

Pourquoi est-ce si important d’avoir des rushes image et son synchrones dès le tournage ?

On dispose aujourd’hui de logiciels qui permettent de synchroniser des rushes sans timecode, et certains logiciels de montage ont même intégré cette fonction…

Oui mais… Ces logiciels ne sont pas infaillibles, et dans certains cas ne fonctionnent pas, ou pire, fonctionnent imparfaitement. Sans compter que cela demande aux machines de post de mouliner pendant des heures pour comparer les waveforms des fichiers. C’est sans aucun doute une chouette roue de secours, qui peut s’avérer pratique, mais certainement pas un flux de travail sérieux.

Et par la suite, le processus de post-production, comme le tournage, n’est pas pris en charge par des magiciens – mais par nos collègues de la post-prod, qui doivent se débrouiller avec le matériau que nous leur transmettons.

C’est maintenant le moment d’un petit aparté. Aujourd’hui, les monteurs doivent composer avec des délais de plus en plus ramassés, et parfois seuls, leurs assistants ayant été effacés par les économies exigées par la production. Ils se retrouvent in fine en position de devoir préconiser ou arbitrer des options de post-production, sans pour autant avoir été consultés en amont. En gros, essayer de palier l’absence d’un directeur ou d’un chargé de post-production. C’est parfois le cas en fiction, c’est quasi systématique en documentaire, où les conditions de tournage sont souvent les plus spartiates, et potentiellement plus fragiles quant au suivi technique sur toute la chaîne.

D’expérience, je dois bien constater qu’il m’arrive assez rarement, sur un projet, de rencontrer la monteuse ou le monteur dudit projet, voire même seulement d’échanger avec elle ou lui. De plus, il n’est pas rare que les directeurs de production ne soient pas très investis dans les préoccupations techniques… Dans ce contexte, les choix techniques du tournage peuvent se trouver décorrélés des problématiques de post, ou inversement, alors qu’un rendez-vous en amont, sous l’égide de l’équipe de production, et avec l’oreille attentive du monteur, du chef-opérateur, de l’ingénieur du son, du monteur son, permettrait une coordination de tous, au service du projet. Ce qui serait aussi synonyme d’économies de temps et d’argent, et éviterait parfois de s’arracher les cheveux, ensuite, quand il est trop tard !

Car si le passage du tournage au montage est critique pour les métadonnées, lorsque le montage est terminé, le film passe à la post son via divers exports OMF/AAF, XML, EDL… Et là encore, le timecode est absolument déterminant, pour que ce que voit le monteur sur sa timeline soit également vu par le monteur son dans son logiciel. Les exports sont un moment un peu stressant pour les monteurs et les assistants, car il y a toujours le risque d’un glissement, d’un rushe mal identifié, mal exporté par le logiciel de montage, et pas reconnu par le logiciel de montage son.

Là encore, lors de ce fameux rendez-vous de production en amont autour du flux de travail sur le film, il y aurait donc chef-opérateur, ingénieur du son, monteur et monteur son, n’est-ce pas ? Ce qui permettrait d’évoquer les formats, les codecs et globalement les outils utilisés par chacun pour assurer le passage technique d’une étape à la suivante.

Les métadonnées ne sont pas toujours universelles

Chaque caméra génère de nombreuses métadonnées, pas toujours les mêmes, ou pas toujours sous la même dénomination, selon les marques et les modèles. Ces métadonnées peuvent ou non être importées, parfois ou non interprétées correctement, selon le logiciel choisi pour le montage. Voire selon la version de ce logiciel.

Par la suite, chaque logiciel de montage, ou la version utilisée lors du montage, n’est pas forcément en mesure d’exporter les métadonnées dont aura besoin le monteur son.

Enfin le logiciel de montage son utilisé par le studio de post son pourra plus ou moins bien interpréter les métadonnées des exports venant du logiciel de montage image.

Prenons un cas classique, doc ou fiction, avec 2 caméras, et une dizaine de pistes audio, avec son caméra, HF, perche(s), ambiances stéréo. Ça fait quelques pistes, qu’on n’a pas nécessairement besoin de toutes convoquer au montage. On pourrait imaginer qu’un mixdown de tournage fait l’affaire, sachant que les pistes séparées réapparaitront en conformation au montage son.

En revanche, il faudrait évidemment être sûr que le lien entre le mixdown et les pistes séparées d’une part, et les pistes audio et les 2 caméras d’autre part, ne soit pas rompu. Sous peine de devoir tout retrouver « à la main » avec un beau casse-tête en perspective. Raison pour laquelle (j’insiste) nous devrions discuter ce genre de problématique avant le tournage, en connaissance de cause…

Du tournage à la post-production : parlons-nous !

Bref, avoir un timecode commun image et son dès le tournage n’a que des avantages :

  • Cela permet d’être certain de la synchronicité des rushes dans toutes les configurations, à une caméra, deux ou plus, dont bien entendu les configurations multi-caméras (cas de la captation).
  • Cela fait gagner un temps précieux à l’ensemble des acteurs de la post-production.
  • C’est simple à mettre en place, et il existe des solutions peu onéreuses, tant pour la fiction que pour le documentaire.
    J’aurais même tendance à dire que plus les projets sont fragiles financièrement, plus il faut être vigilant sur la chaîne de production technique, afin de se préserver de problèmes stressants et chronophages, pourtant faciles à éviter par une réflexion en amont.

Histoire d’être concret, et parce que les discussions sur le sujet sont récurrentes, je me suis dit que ce serait bien d’associer monteurs image et monteurs son à ma modeste contribution : un article décloisonné, pour les chefs-opérateurs et nos collègues de la post, pour dire que nous devons envisager et résoudre nos problématiques communes ensemble, dès maintenant !

J’ai donc parlé de mon projet d’article pour l’Union à Flora Alfonsi, chef monteuse, qui en a parlé à Jeanne Signé, chef monteuse et membre de l’association LMA, qui a justement participé à un groupe de travail à propos du timecode. Car la résolution des problématiques de synchronicité se pose souvent différemment selon le logiciel de montage utilisé, et sa version ! Jeanne a par la suite publié notamment sur son site personnel un article qui propose une solution pour synchroniser automatiquement des rushes par lots sous Premiere (en utilisant un timecode, on voit donc que c’est encore plus simple et rapide !), que vous pouvez retrouver ici

Workflow audio et metadonnées : un document inédit

Par ailleurs, cela fait maintenant un certain nombre d’années que je discute flux de travail avec Éric Lesachet, monteur son et mixeur au studio Yellowcab. Éric, avec beaucoup d’abnégation, a pris le taureau par les cornes et s’est lancé dans une série de tests. Adobe Premiere, FCPX, AVID Media Composer, Da Vinci Resolve, AAF, EDL, XML, Pyramix, Nuendo, Protools, tout y est !
Depuis la prise de vue et la prise de son, puis à travers les logiciels de montage les plus courants jusqu’aux logiciels de post son qu’il utilise quotidiennement, il a produit un tableau très complet et inédit, qu’il a accepté de mettre à notre disposition en exclusivité, et que vous pouvez télécharger en cliquant sur le lien suivant :

Que l’on tourne avec des enregistreurs timecodés ou non, avec des caméras ou des DSLR, il y a donc des solutions pour être synchrone de bout en bout. À lire AVANT de tourner !! Qui sait, notre initiative commune ne restera peut-être pas lettre morte…

Pour en savoir plus sur les différents équipements, voici quelques liens vers les fabricants spécialistes du timecode :

Un grand merci à Flora Alfonsi, Jeanne Signé et Éric Lesachet pour leurs observations et contributions.