étalonnage luts

Étalonnage : Comprendre les LUTs

Bonjour à tous, bonjour à toutes.

Suite à mes dernières formations, maintenant que nous avons pu apercevoir une bonne partie des options principales de réglages colorimétriques notamment dans le logiciel phare DaVinci Resolve, il est temps d’exaucer l’un de vos rêves, et, disons le, de détailler l’une des technologie de l’étalonnage très récente mais qui s’est répandue comme une trainée de poudre à travers le monde des broadcasters.

C’est je pense le domaine de l’étalonnage qui m’a été le plus demandé par mes suiveurs, cette initiation fait suite directe à mon initiation complète à l’étalonnage, et va se servir également de plusieurs références vues dans ma formation DaVinci Resolve.

J’invite ceux qui débutent encore en colorimétrie de suivre en premier lieu cette initiation et ceux qui n’ont jamais touché à Resolve de commencer par ma formation pour pouvoir reproduire mes actions dans l’atelier pratique disponible en fin de cet article.

Bonne lecture à tous.

Qu’est ce qu’une LUT ?

Vous l’avez compris au titre, nous allons parler dans cette initiation des LUTs.

Non, je ne commence pas par la fin : Si vous voulez comprendre comment utiliser les LUTs, il faut d’abord que je vous détaille de façon sommaire qu’est ce que fondamentalement une LUT, une fois que nous comprenons ce que fait une LUT et ce qu’elle est, nous pourrons savoir pourquoi et comment l’utiliser de façon optimale dans notre étalonnage.

Si vous vous souvenez bien, dans mon initiation à l’étalonnage, je vous ai parlé de plusieurs caractéristiques colorimétrique d’une vidéo.

Je vous ai notamment parlé des Gamuts*.

Pour rappel, le Gamut est la plage de couleur employée par votre codec/profil/norme/caméscope. Plus cette plage est large, plus vous pourrez avoir des nuances de couleurs variées et précises dans votre image.

Ce qui nous intéresse précisément dans notre compréhension des LUTs est le Gamut des caméscopes.

Vous vous souvenez sans doute de cette image détaillant plusieurs gamuts de caméra

* En fait, on peut distinguer la courbe de Gamma (ce qui fait le contraste/l’exposition) et le Gamut (la saturation colorimétrique), ainsi que Dynamique, espace, toutes ces caractéristiques de la colorimétrie mais dans notre cas, pour simplifier et ne pas vous perdre, je vais ramener le tout à une seule caractéristique.

Une LUT est étroitement liée aux différents gamuts.

Le terme LUT est en fait les initiales de Look-Up Table, ou table de conversion.

à savoir qu’une LUT agit comme convertisseur de gamut sur une image donnée.

Supposez par exemple que vous utilisiez un caméscope classique, capturant avec le gamut classique de la norme télévisuelle HD, le REC 709, ou 4K, le REC 2020.

Vous avec donc une image définie avec les limites du 709 (sur l’image ci contre, ces limites sont le premier triangle, le plus petit, toute la plage de couleur du semi ovale représente la sensibilité chromatique humaine, toutes les couleurs qu’on perçoit, donc).
Votre image va donc avoir son spectre chromatique (représenté dans le waveform et vecteurscope pour vos étalonnages, si vous vous souvenez) définit par rapport aux limites de ce triangle. Chaque valeur étalon de votre chrominance sera calculée par rapport à son écartement des points constituant les limites du triangle. Donc par rapport aux valeurs étalons fixes de la limite de cette norme.

La question maintenant est : Comment faire passer le spectre de mon image du gamut REC709 au REC2020 ?

Voilà très précisément le rôle d’une LUT, et son action :

Une LUT permet une conversion de table de chrominance/luminance d’une image définie vers une autre table de façon totalement non destructive.

D’où son nom Look-Up-Table, que vous avez compris.

Notez bien également que j’ai mis en gras le fait que ce soit non destructif. Notez bien cette information, cela est très important pour la suite.

Bien entendu, les LUTs ont des caractéristiques variées, on peut distinguer par exemple les LUTs 3D ou 1D, mais pour ne pas vous perdre, restons en là pour l’instant. Vous savez tout ce que vous avez besoin de savoir pour passer à la suite.

étalonnage luts
étalonnage luts

Exemple de l’application d’une LUT convertissant une image log venant d’une BlackMagic Cinema Camera vers la norme REC709.
Vous aurez tout le détail de ce processus dans l’initiation.

Le défaut de la captation en norme UIT (REC)

La plupart des caméscopes grand public, ainsi que certains professionnels capturent l’image avec l’espace colorimétrique directement défini en REC709 pour les caméras HD et REC2020 pour les caméras 4K.

Vous avez peut être déjà filmé avec votre smartphone une séquence quelconque, vous avez pu voir une certaine couleur sur votre écran de smartphone, repris sur votre PC en conservant les mêmes tons, ainsi que sur votre téléviseur, les seules légères nuances étant causées par votre écran, cela sans avoir appliqué un seul réglage colorimétrique quelconque.
Typiquement, cette vidéo a été captée et enregistrée directement en REC.

Fondamentalement, ça n’est pas une mauvaise méthode. Ca marche même très bien, la plupart des projets que je vous ai présentés ici étaient capturés dans ce mode. Non, ça ne nous empêche pas de faire un projet convenable, chromatiquement convaincant et plaisant.

Mais cette méthode pose un problème de taille, dont j’ai souligné une facette dans mon initiation à l’étalonnage.

Supposez que je capte par exemple un plan dans une zone très sombre, comme celle ci :

étalonnage luts

Vous remarquez tout de suite sur cette image qu’elle est fortement sous exposée, qu’on a perdu beaucoup d’informations notamment dans l’arrière plan, où l’on ne distingue plus la scène, les rideaux, les lumières.
Mais bien entendu, nous sommes étalonneur, à nous de corriger, ça fait partie de notre travail, c’est l’étalonnage correctif, pourrions nous dire.

Et bien allons-y, corrigeons cette image en étalonnant :

étalonnage luts

Une première correction en montant les hautes lumières et les lumières intermédiaires.

étalonnage luts

Une seconde correction dans laquelle les tons sombres ont été remontés ainsi que les tons intermédiaires

Oups…

ça se complique, vous voyez bien que la correction de gauche, si elle peut convenir, est tout de même extrêmement fort contrastée. Elle est dure, brute.
Imaginez que le réalisateur, lui, vous demande une ambiance veloutée, douce, subtile (et croyez moi qu’on se retrouve bien plus souvent dans ce genre de cas dans les étalonnages professionnels, un étalonnage doit rester subtil, modéré).

Fatalement, réaction donc : Vous remontez les basses lumières, ce qui nous amène à notre correction de droite…
Qui est encore moins utilisable. Vous voyez tout de suite que l’image est épouvantablement laiteuse, grise, vous ne pourriez jamais faire passer une image comme ça même auprès d’un spectateur lambda daltonien, sans rire.

Et pour bien illustrer le problème, inversons le, que se passe t’il dans le cadre d’une image surexposée, trop de lumière ?

Vous allez voir, c’est encore pire…

étalonnage luts

Une image surexposée.

étalonnage luts

Première correction en baissant les tons sombres et intermédiaires pour récupérer des zones.

étalonnage luts

Deuxième correction en baissant les tons clairs, pour éliminer la luminosité en excès.

Vous remarquez tout de suite que les deux corrections sont totalement inutilisable.

La correction de gauche ramène des tons sombres, ce qui donne cet aspect beaucoup trop contrasté, avec un ciel blanc uniforme et bien trop lumineux.

La correction de droite tente de ramener le ciel, qui devient gris, tout triste, en restant uniforme. Plan définitivement triste et monocorde, exclu pour la production.

Eventuellement, il existe certains outils dans DVR qui permettrait de reconstituer partiellement le ciel perdu, mais outre le caractère artificiel et le travail supplémentaire imposé par cette action, vous devinerez que si le réalisateur voulait du velouté dans son image particulièrement parce qu’il trouvait le ciel magnifique… Ben, c’est un peu mort.

Et voilà la faille de notre captation en REC :

La captation est destructive. Si vous captez une zone qui est trop sombre/trop claire et sort du gamut de votre caméscope, ce dernier ne vous restituera qu’une zone uniforme, il sera impossible de récupérer les détails de cette zone puisqu’ils n’auront pas été enregistré à la captation.

Cela est tout aussi vrai pour la saturation.
Supposez que vous ayez une saturation élevée dans par exemple des zones d’une couleur dominante rouge, vous aurez une saturation de rouge élevée qui va donc écraser les valeurs de blanc dans l’image, et empêcher la captation des autres valeurs de rouges moins saturées, éventuellement des autres couleurs présentes dans le rouge, ce qui va éliminer des différences, des subtilités dans l’image.

Les détails d’une image sont obtenus à partir de la différence entre une zone claire/sombre, désaturée/saturée.
C’est cela qui fait que vous avez des pixels de différentes couleurs qui créent au final votre image.

Capter des zones uniformes enlèvent ces détails, ces subtilités dans l’image, et dans notre cas de façon destructive. Il nous est impossible de revenir sur les détails de cette zone en post-production.

Alors bien sûr, vous pourriez être tenté de me dire
« Mais Corentin, ce sont des exemples extrêmes que tu montres, ce sont de grossières erreurs de cadrage, la faute du cadreur, il est censé savoir calibrer correctement son image ».

Vous avez entièrement raison, ces exemples étaient effectivement extrêmes, mais ils sont là pour vous illustrer le problème qui se passe à plus petite échelle lorsque l’on veut faire un étalonnage précis, rappelez vous qu’un étalonnage est aussi un travail de précision, il faut savoir être subtil, avoir accès à toutes les zones de l’image, de la plus petite à la plus grande, est donc important.

Si vous captez en REC, même avec une image correctement calibrée, vous aurez toujours des pertes, notamment avec une image 8 bits, où vous ne pourrez naviguer que dans 256 niveaux de luminances.
Comprenez bien que dès que vous aurez une zone assez contrastée/saturée, vous créerez une zone uniforme, cassant ses détails.
Plus votre image a des détails, des informations, plus votre étalonnage est précis.

C’est donc pour ça qu’est arrivé la solution que vous connaissez sans doute, mais que je vais quand même vous détailler maintenant :

La solution du RAW : Un gamut très large.

Nous perdons des informations donc du détail parce que notre plage de couleur de base n’est pas assez large ?

Ben c’est tout simple ! Elargissons la plage !

Cette phrase résume à elle seule la solution proposée en premier lieu pour les caméscopes professionnels.

Tout simplement, il s’agit de proposer des gamuts plus larges à la captation, pour capter plus de couleurs, plus de nuances de luminances, à ce moment, vous disposez de plus d’informations dans votre fichier vidéo généré par votre caméscope.

C’est là qu’est né un format dans un premier temps très prisé des photographes mais qui n’a pas trainé à suivre dans les milieux audiovisuels : le format RAW.

Une même image captée en RAW et JPEG. Source : http://www.objectif-grand-angle.net/

Ci dessus, vous pouvez tout de suite voir la différence, notamment dans le ciel, où plus de nuages sont présents sur l’image RAW, là où le JPEG n’a capté qu’une zone lumineuse.

Très facile à comprendre : la lumière était trop élevée pour le gamut du JPEG. Le RAW ayant un gamut plus large a permis de capter les nuances dans cette zone lumineuse, faisant donc apparaître plus de détails.

Mais la véritable subtilité et grande puissance des formats RAW vient du fait que le gamut est plus large que la quantité d’information que peut restituer le capteur.

Ca doit vous paraître un peu tordu. Et effectivement, c’est un brin casse tête.

Fondamentalement, ça veut dire que le gamut du RAW est tellement large qu’il enregistre plus d’informations que ce que vous pouvez restituer dans une seule image

Si je prends l’exemple de cette image ci contre, vous pouvez donc observer les requins dans leur aquarium avec un contraste et une saturation convenable.

En fait, dans cette image, il y a encore au moins 3/4 des informations de contraste et de saturation captés qui ne sont pas affichés.

(j’en profite d’ailleurs pour vous informer que ce rush provient du site officiel de RED qui propose des rushs venant de caméra RED originaux, afin que vous testiez votre machine avec ces mêmes rushs, une fantastique proposition, à voir ici : http://www.red.com/sample-r3d-files)

étalonnage luts

C’est là qu’encore une fois, on va se dire « Hein ?…. Mais quel intérêt ? »

L’intérêt est très simple, je l’avais déjà rapidement évoqué : Le format RAW permet de revenir intégralement sur les réglages du capteur en post production.

C’était le point le plus apprécié des photographes, qui a suivi en vidéo. Quand vous captez votre image, puisque votre gamut est très large, vous enregistrez l’image comme vous la captez sur le moment, mais aussi comment elle serait captée avec des réglages de capteurs différents.

Et voilà à quoi correspondent ce qu’on appelle les réglages REDRAW, pour l’exemple des caméras RED.

étalonnage luts

Réglages REDRAW dans DaVinci Resolve

étalonnage luts

Réglages REDRAW dans Final Cut Pro

Vous pouvez directement vous apercevoir que l’on peut donc intervenir sur la sensibilité du capteur, en ISO, la température de couleur, la teinte, ce qui correspond en fait au réglage fragmenté de votre balance des blancs, sur votre caméscope.

Quelques exemples, sur le même rush :

étalonnage luts

L’image légèrement surexposée, mettant en évidence les requins au premier plan, la lumière du bateau pointant sur eux.

étalonnage luts

La même image, sensibilité ISO baissée, contraste et ombres augmentées, température refroidie.

Vous pouvez directement vous apercevoir sur la deuxième image qu’avoir baissé la luminosité ne nous a fait perdre aucun détail, surtout au niveau du sol, surexposé sur la première image, lié à la sensibilité trop élevée (ISO 1600 dans ce cas), qui nous donnait beaucoup de zones uniformes blanches.

Ici, tout est de retour, les herbes, les coquillages, les détails du sable, nous n’avons perdu aucune information.

Et voilà notre défaut de captation UIT corrigé

Vous comprenez maintenant facilement que vos rushs RAW ayant enregistré une plage de couleur aussi large, même si votre caméra a capté une zone légèrement trop sombre/saturée/claire, vous pourrez sans problèmes revenir dessus en récupérant les informations.

De même que ces informations vous permettront un choix bien plus vaste et plus précis de zones colorimétriques à travailler, augmentant ce qu’on appelle la plage dynamique de vos étalonnages.

Mais… Malheureusement, il y a encore un mais, et oui, c’était trop beau. On va voir ça maintenant.

Le défaut de la captation en RAW

Le défaut de nos formats RAW en captation, il est vraiment très simple. Il est tellement simple et évident qu’il ne me faudra que quelques lignes pour vous le détailler.

Vous avez donc compris que notre image contient une quantité d’informations extrêmement élevées, liée à son Gamut, sa courbe de Gamma extrêmement large.

Donc quel est le revers de la médaille à votre avis ?

Si je vous montre les spécifications de workflow de la Sony F55, ci contre, ça va vous aider à comprendre :

En REC2020, une vidéo capturée en 25p fait 250 Mbps. Ce qui nous fait 30 minutes sur ses cartes SD normalisées en 64 Go.

En RAW, la même vidéo fait 1,2 Gbps… Ce qui nous fait 6 minutes sur 64 Go.

Sony F55 CineAlta

Et voilà : Ces formats sont lourds. Très lourds, même.

Cela n’est pas un problème uniquement pour le stockage, qui vous coûte déjà cher en matériel, cela est aussi un problème pour le calcul.

Sachant que votre machine devra IRT prendre en compte toutes ces informations, leur appliquer un traitement, les réencoder,….

Imaginez les machines qu’il vous faut pour mener un étalonnage à bien en full RAW.

C’est pour ça que les firmes ont dû trouver des compromis, que voici :

La solution de RED : Le RAW Compressé

Alors qu’encore aujourd’hui, dans la tête de nombreuses personnes, photographes surtout, est inscrite ce principe « JPEG = Compressé, RAW = Non Compressé ».
C’est là que nos camarades de chez RED sont venus littéralement torpiller cette idée reçue.

En effet, RED a cherché un compromis pour arriver à proposer des fichiers RAW conservant toute information mais en compressant le tout.

Ce qui est un fameux dilemme, et pourquoi cette solution n’avait jamais été proposée avant eux : Les algorithmes de compression se basent sur l’aspect fréquentiel d’une image pour y réduire les informations, ils divisent les hautes fréquences, auxquelles l’œil est moins sensible que les basses fréquences. *
Or, c’est justement cet aspect fréquentiel, la différence de luminance/chrominance entre chaque zone qui fait nos détails, qu’on veut conserver.
Vous comprenez donc que RED cherche un peu à conserver les informations tout en les réduisant… Un peu le serpent qui se mord la queue.

Mais pourtant, oui, RED est parvenu à trouver un compromis très convaincant en développant son propre algorithme de compression, propre aux caméras RED : Le REDCODE, basé sur la norme JPEG 2000.

Je vous invite à suivre ce lien afin de découvrir les détails du RedCode, article très intéressant (en anglais), expliquant pas à pas comment RED, grâce au JPEG 2000, a trouvé le moyen de compresser les données sans sacrifier les détails RAW.

Cela a été un succès total, vous comprenez pourquoi les caméras RED sont très connues du monde broadcast, ils ont littéralement été les premiers à proposer un excellent compromis entre un format de captation large, malléable et ouvert pour un workflow film tout en proposant des fichiers de taille convenable.

Ils ont par ailleurs été l’un des acteurs majeurs du passage au 100% numérique dans les productions cinématographiques à grand budget, alors que l’essentiel se tournait encore avant leur arrivée en pellicule 35, Super 35 ou Scope, avec les légendaires caméras film notamment de chez Arriflex ou Aaton Digital.

Bien entendu, les concurrents n’ont pas attendu pour proposer leur solution, notamment Arriflex cité précédemment avec par exemple l’Arri Alexa, et ses séquences DPX. Dont, me semble t’il, j’ai déjà parlé dans mes tutoriels.

Un exemple de workflow film RED

Ceci dit, bien entendu, le monde ne se résume pas aux productions ciné à grand budget, la solution de RED reste très onéreuse surtout pour les productions télévisions, web ou autre.

Par ailleurs, ce format/codec spécifique à RED impose également des technologies spécifiques à eux mêmes en vue d’un confort de travail optimal, vous avez peut être entendu parler des cartes REDROCKET par exemple, ou du plugin indispensable pour les gérer dans FCPX.

C’est pourquoi d’autres fabricants ont recherché d’autres compromis, moins onéreux.

*

Comme j’en ai déjà parlé, je crois que quelques formations/podcasts d’initiation à la technologie vidéo, aux codecs/formats/containers, ne serait pas de trop, laissez moi des commentaires pour me dire ce que vous en pensez.

La solution du LOG

Nous avons donc d’un côté une colorimétrie limitée mais légère, de l’autre une colo très large mais lourde.

Quel compromis autre que la compression pourrions nous trouver ?

Réfléchissons. Ce qui créé la lourdeur du fichier est ce gamut excessivement large, concentrant une quantité d’informations phénoménale.

Question : Et si nous cherchions à tirer parti de l’image elle même ? Faire une nuance de couleur plus élevée sans élargir le gamut ?

ça parait absurde, non ? Sachant que c’est justement cette plage de couleur étroite qui créé ce problème…

Et bien pourtant, c’est bien la solution du LOG.
L’image LOG tire parti de la Courbe de Gamma directement afin de proposer une gamme de nuance plus large.

LOG pour logarithmique, ceci s’explique par le fait que nos Courbes de luminance/chrominance croissent logarithmiquement, exactement comme l’intensité sonore en Décibel, que vous connaissez peut être.

Mais pas la peine de vous arracher la tête avec des théorèmes mathématiques complexes, restons purement et simplement dans la théorie simplifiée, ce sera amplement suffisant pour que vous compreniez cette méthode.

Et pour notre initiation, c’est justement cette méthode qui est à détailler, car c’est avec elle qu’interviendra le point central de ce que je vous enseigne.

Le principe de l’image LOG

Alors, je vais vous demander de réfléchir un petit instant, faites marcher vos méninges.

Nous avons une image simple, avec un gamut simple. Comment faire pour étendre le nombre d’informations dans cette image sans élargir le gamut ?
Indice : Réfléchissez à quelle caractéristique vient réduire/éliminer ces informations.

…..

Rien ? Alors, allons y :

Les caractéristiques qui viennent réduire/éliminer des informations dans notre image sont le contraste et/ou la saturation, quand cela ? Quand ils sont un peu trop prononcés.

Réciproque donc : Comment conserver un maximum de détails, de nuances dans l’image ?

Faire l’image la moins saturée et la moins contrastée possible.

étalonnage luts
etalonnage luts

Voici donc l’idée, si l’on veut avoir un maximum de détails, une plage large pour notre colorimétrie :

On fait rentrer un maximum d’informations en prenant le signal le moins large possible, pour que tout puisse rentrer dans le gamut.

Comme vous pouvez le voir sur notre image log ci dessus, fort laiteuse et fort grisâtre, on le voit d’ailleurs sur son Waveform, où il reste encore de nombreuses plages de luminance/chrominance non utilisées.

Comprenez bien, essayez vraiment d’intégrer cela : Une saturation par exemple de Jaune, si la saturation s’élève, cela veut dire que les rayons rouges et verts vont devenir de plus en plus nombreux, masquant de plus en plus les rayons bleus résiduels, qui sont une information de base de votre vidéo, apportant un rayon de couleur qui ne sort pas de nulle part, qui fait bien partie des détails ce que vous avez capturé.
Idem avec le contraste : Plus de blanc pur et de noir pur vont remplacer les rayons lumineux gris apportant de la nuance à votre image, ajoutant des détails.

Donc : On capture cette zone avec un contraste et une saturation très faible, pour en conserver tous les détails.

Attention, il ne faut pas pas de saturation/contraste du tout, sinon évidemment, vous n’aurez aucune information. Vous n’aurez qu’une image grise. C’est le contraste et la saturation qui donnent les détails de votre vidéo, mais il faut justement éviter de laisser trop de place à ces détails, sinon la plage devient trop petite, et on écrase.
(donc la solution du RAW, c’est d’élargir la place, vous avez compris 😉 )

J’espère que cela est clair pour vous.

Maintenant, j’imagine bien les réactions que vous auriez face à ce genre d’image :

Mais Corentin, cette image n’est pas utilisable. Comment un cadreur, un directeur photo peut il avoir une vue claire de son travail sur une image avec si peu de couleurs ? comment le réalisateur peut il avoir une bonne vue du résultat de son plan ? Comment nous, étalonneurs, pourrions nous avoir une bonne référence si on a pas les vraies couleurs du plan ? Comment pourrions nous arriver à un résultat attendu si nous n’avons même pas de vue finale sur quelque chose proche de ce que le réalisateur veut ?…..

Exact. Vous avez tout à fait raison. Cette image n’est pas utilisable.
Donc il faut corriger ce problème.
On cherche donc un moyen de restituer les couleurs d’origines mais en conservant ce signal.

Cela voudrait dire qu’il faudrait pouvoir passer à notre image naturelle de façon non destructive, en conservant ce signal log…

Tiens tiens… ça ne vous rappelle rien ?… Je vous conseille de remonter au début de cette initiation. Il y a une définition d’un outil qui semble méchamment convenir à notre situation… 🙂

Le rôle des LUTs

Et voilà, je pense que vous avez tous compris et fait le lien, voilà où interviennent nos LUTs.

Vous vous souvenez que leur principe de table de conversion est de convertir un signal couleur vers un autre, de façon totalement non destructive.

Nous avons donc notre outil qui permettra de visualiser des couleurs naturelles tout en conservant notre signal LOG, puisqu’il suffira de désactiver le LUT pour en revenir au signal d’origine.

Des couleurs naturelles, un signal amincit pour conserver les détails, même gamut.

étalonnage luts
etalonnage luts

Comme vous pouvez le voir sur l’image ci dessus ainsi que son waveform, une fois la LUT appliquée, cette dernière a retrouvé les couleurs d’origine, mais cela est totalement non destructif, il suffit de désactiver la LUT pour en revenir à mon image et son waveform précédent.

A l’inverse d’une image directement captée avec cette colorimétrie, où il serait impossible d’en revenir aux détails captés en LOG.

Là où les LUTs deviennent des monstres de puissance d’une utilité remarquable, c’est par leur diversité et leur malléabilité.

Si nous prenons l’exemple de leur application à la captation, comme l’image ci contre, supposez que vous vouliez faire un streaming alternatif vers télévision et web. C’est très simple, pas la peine de changer  vos réglages de cam, qui va toujours capturer en LOG, il vous suffit juste d’avoir la bonne LUT, qui va renvoyer le signal dans la bonne colo.

Les LUTs s’utilisent à la captation pour permettre une correction directe des couleurs afin que le cadreur, le chef opérateur, le réalisateur,… aient une vision du rush final.

En post production, c’est encore plus flagrant.

Supposez par exemple un monteur devant faire son montage en vue d’une double exploitation : Cinéma et télévision. Captation de son montage faite avec une caméra LOG.
C’est très simple, il lui suffit de disposer des LUTs du fabricant de la caméra (la plupart des LUTs les plus utilisés des fabricants de caméscopes sont par défaut installés dans des logiciels comme Resolve), et de faire deux timeline, une où il appliquera la sortie vers le REC709, pour la télévision, l’autre où il appliquera la LUT de sortie vers le cinéma. Le tour est joué.

Même le RAW ne dispose pas d’une aussi grande diversité de formules.

Même si, disons le tout de suite, bien que le LOG propose une alternative convaincante au RAW, il n’est pas aussi efficace au niveau de la précision des couleurs sur son signal, et ne permet pas un travail aussi pointu.

Ensuite, nous, ce qui nous intéresse est bien entendu l’utilisation de nos luts en étalonnage.

Alors ça, c’est complexe, pour tout dire, il n’y a pas deux façons identiques d’utiliser les luts dans deux étalonnages différents. Toutefois, on peut distinguer plusieurs workflows de base, que je vais vous détailler ici.

Et ça, c’est du 100% made in CorVans Prod, vous ne trouverez pas d’explications de ce genre sur d’autres guides d’étalonnages (désolé mais oui, je suis fier de moi sur ce coup là 😛 )

Les workflows LUTs

Alors donc pour essayer d’avoir une bonne vue, j’ai donc décomposé l’utilisation des LUTs dans vos étalonnages en 3 workflows simples.

Workflows qui peuvent bien entendu se combiner, s’alterner, se diversifier.

Mais fondamentalement, nous pouvons distinguer le workflow LUT Précédant, LUT Suivant et LUT Parallèle.

  • LUT Précédant : très simple, la LUT est appliquée avant vos corrections colorimétriques, votre LUT précède votre étalonnage.
    Un Workflow utile si par exemple vous avez besoin de partir de rushs d’une colorimétrie de caméra, de style,… particulière pour votre étalonnage.
  • LUT Suivant : La LUT s’applique après votre étalonnage. Très utile si vous voulez sécuriser votre colorimétrie vers une sortie précise.
  • LUT Parallèle : Plus subtil, l’application de la LUT se mixe en parallèle avec votre étalonnage. Très utile si vous désirez appliquer un étalonnage prenant en considération la finesse de votre image LOG tout en ayant une vue exacte sur le produit final.

Mais tout ça est théorique.

Pour bien comprendre et détailler ces trois méthodes, rien ne vaut la pratique, non ?

Et rien ne vaut donc une vidéo vous rassemblant le tout en pratique. 😉

Atelier Pratique

Je vous propose donc de revoir l’application de nos LUTs et leur détail en vidéo, vous avez suffisamment lu pour aujourd’hui, bonne vision.

Et voilà qui conclut donc notre initiation à l’utilisation des LUTs en colorimétrie.

J’espère que cet article vous a plu et vous a bien servi.

N’hésitez pas à liker, à partager sur les réseaux sociaux, à vous abonner à la chaîne et à transmettre à vos camarades ayant besoin d’un peu d’instruction.

 

Merci à tous, et à très bientôt, sur CorVans Prod.

commentaire

google+

linkedin

10 Comments

  1. Bonjour

    Sur la camera, que représente alors l’histogramme ? Est-ce La sortie en direct du capteur ?

    En filmant en Raw, on a plus besoin de faire une exposition ? Le capteur enregistre tout, et on fait l’exposition en post prod ?

    Merci

    • L’histogramme est la répartition du nombre de pixels en fonction de la luminance, et de la chrominance puisqu’on indique chaque canaux RVB.

      Concernant votre image RAW, ne pas oublier que vous pouvez revenir sur les réglages du capteur en post-production mais pas sur les réglages de l’objectif.
      Pour correctement exposer une image, il vaut certainement mieux utiliser le diaphragme que la sensibilité du capteur, sachant que monter cette dernière amène du bruit. De plus, le directeur photo et le réalisateur doivent avoir une vue correcte de leur travail sur le tournage, donc il faut régler l’image le plus possible en tournage.

      • Supposons que l’on prenne une photo en RAW avec un temps d’obturation de 30 sec en plein journée, on peut en post prod retrouvé toutes les couleurs , alors que c’est censé être cramé ?

        En tout chapeau pour vos explications, car je suis en train de lire un autre de vos articles, et tout est tellement clair !!

        • Je n’ai jamais tenté cette expérience mais je ne pense pas que cela fonctionnera.
          Ce sur quoi vous pourrez revenir en post-prod, ce sont les réglages internes du capteur, dont sa sensibilité.
          Vous pourriez à ce moment baisser la sensibilité ISO du capteur pour compenser le temps d’exposition, mais à mon avis, ça ne suffira pas. Même avec les ISO au plus bas, vous n’auriez qu’une image cramée.

          Bon, ceci dit, à prendre avec des pincettes, je n’ai pas tenté l’expérience et je ne suis pas cadreur, vous l’avez compris, je suis étalonneur, je ne connais pas toutes les subtilités de la captation.

  2. Si on surexpose de 5 diaphs, on peut récupérer grâce au raw la même image que si on avait bien exposé ?

    • Ça dépend.
      Comme je vous l’ai expliqué, vous pouvez revenir sur les réglages du capteur, pas sur les réglages de l’objectif.
      Il ne sera donc pas possible de revenir sur les 5 diaf en trop.

      Mais par contre, vous pourrez revenir sur la sensibilité.

      Imaginons que vous ayez cramé votre image avec vos 5 diaf de trop a 500 ISO. Vous pourrez par exemple redescendre a 100 ISO avec vos paramètres RAW. Si cela permet de compenser vos diaf en trop, alors vous avez gagné.
      Mais il faut tester la situation en pratique, ce que je n’ai pas fait donc je ne sais pas vous fournir des précisions réalistes.

      • Un raw récupère l’information du capteur et de tous ses photosites. Que l’on éclaire faiblement ou très fortement, le ratio entre le photosite le plus faiblement éclairé et le photosite le plus fortement éclairé est identique dans les 2 expositions non ?
        A moins que ça ne marche pas du tout comme ça. Pour moi on mesure un courant electrique à la sortie de chaque photosite. Donc qu’on soit super éclairé ou non, ça ne changerait rien. Mais je dois me tromper.

        • Ou c’est vous qui vous trompez ou c’est moi…
          Sincèrement, vous me mettez un doute.

          Je ne suis pas cadreur comme vous le savez, j’ai toujours manipulé des rushes RAW en revenant sur les réglages du capteur, j’ai ensuite appliqué la logique scientifique du fait qu’on pouvait modifier comment le capteur reçoit et interprète les données mais qu’on ne changeait pas le flux lumineux qui entrait.

          Mais si vous me dites qu’en réalité, le capteur enregistre un ratio, une différence de lumière moyenne entre chaque pixels et que donc quel que soit le flux lumineux de départ, on dispose toujours du ratio pour pouvoir reafficher des données exactes, ça me semble tout à fait cohérent et possible.

          De fait, je vais faire des recherches, mais je peux déjà vous remercier d’avoir amené ces informations et élevé le débat.

          Comme quoi vous voyez, ce ne sont pas toujours les suiveurs qui apprennent du formateur mais parfois le formateur qui apprends des suiveurs.

          Je vous tiens au courant.

          • Merci pour votre recherche. J’avoue ne pas arriver à trouver l’information…. Je devrais peut-être regarder du coté des sites anglosaxos.

  3. Tout à passionnant.
    Quels seraient vos conseils en matière de captation pour diffuser sur écran Led avec le maximum de fidélité.

Leave a Reply

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.