BT2020 PQ - Zebra-Einstellungen

  • Liebe Farbraum-Spezialisten ;),

    bisher habe ich beim Thema Urlaubsfilm immer mit der Canon XF 400 im Farbraum REC 709 gefilmt, geschnitten, gegraded und ausgegeben.

    Mit der neuen Canon R5C habe ich mich testweise an die neuen Farbräume gemacht und mit Aufnahmen in PQ (10 Bit 4:2:2) sowie Projekteinstellung in PQ sozusagen schon "out of the box" sehr stimmige Bilder bekommen, einschließlich der sehr guten Wiedergabe über h265 auf einem großen OLED-TV.

    Beim ersten Graden habe ich aber das Problem, dass nun die bisherige Zebra-Einstellung ( Benutzereinstellungen - Vorschau - Overlay) von über 99% und unter 1% nicht mehr passen, da im Histogramm zur Unter- bzw. Überbelichtungskontrolle bei der Projekteinstellung BT 2020 PQ 100% gar nicht mehr erreicht werden können und gefühlt bei ca. 75% starkes Clipping einsetzt.

    Meine Frage nun: Hat jemand mit einer durchgängigen Bearbeitung in PQ Erfahrung, wie die Zebrawerte sinnvoll stehen, um Absaufen und Ausfressen sicher zu verhindern, auch wenn es im HDR-fähigen Vorschaubild (bmd 12G auf HDR-fähigem Monitor) manchmal noch gar nicht sofort sichtbar ist?

  • Hi,


    ich schneide auch nach Projekteinstellung Bt.2020/Bt.2100 PQ, Quellmaterial ist bei mir BRAW.

    Vorschau erfolgt über BMD UltraStudio 4K Mini auf einen Sony HDR-TV.


    Zebra bin ich auf 95% und 0%. Das funktioniert soweit gut.

    Allerdings richte ich mich da auch weniger danach, sondern arbeite mit den Anzeigen des Videoskops.


    Wie weit Historgamm und RGB-Wellenform "reichen", bzw. "hochgezogen" werden können hängt sehr stark von der (richtigen) Belichtung des Quellmaterials an. Bei den von Dir genannten 75% liegt die 1.000 nits Marke. Die meisten heutigen TV-Geräte und Displays erreichen das meist nicht. Insoweit sind 75%, bzw. 1.000 nits auch eine gute Richtmarke. Aber man muss sich da wirklich mit seinem Material erstmal langsam herantasten.


    Aus meiner Sicht ist es halt wichtig das Material möglicht gleich richtig zu belichten.

    Jetzt weiß ich nicht welche Möglichgkeiten Dir da Deine Kamera bietet. Aber möglichst sollte eine HDR PQ Display-LUT zur Anzeige kommen (!!!aber nicht in die Datei "eingebrannt" werden!!) um das Bild besser zu beurteilen zu können. Das Histogramm der Kamera (sollte ja auf alle Fälle Vorganden sein) hilft leider nicht ganz so viel bei der Belichtungseinstellung.


    Meine Kamera verfügt über eine sog. Falschfarbendarstellung, also die Umsetzung von Helligkeitswerte in Farben. Die R6 hat das m.E. auch, ob die R5 das ebenfalls kann ist mir nicht bekannt. Aber damit lässt sich die Belichtung wirklich sehr gut beurteilen. Wenn die R5 das hat unbedingt mal ausprobieren. Ist aber zunächst gewöhnungsbedürftig und braucht auch etwas Zeit.


    Deine Vorschau sollte ja nach dem was Du schreibst auch stimmig sein. Das ist nämlich für das Graden von HDR unbedingt notwendig.


    Alles andere ist Übungssache.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo Peter,

    ganz herzlichen Dank für Deinen "Selbst-Erfahrungsbericht" und wie so oft für Dein fachliches Wissen. Die R5C kann ebenfalls Falschfarbendarstellung - werde mich dann dort einüben. Auf den ersten Blick ist diese Darstellung schon sehr gewöhnungsbedürftig. Aber mit der Zeit wächst man da dann sicher hinein.

    eine Anzeige-LUT ist auch möglich, da muss ich mich noch tiefer einlesen, damit auf dem Display sozusagen der spezielle Gradientenverlauf wieder gegenkompensiert wird und man das "richtige" Ergebnis schon vor der Aufnahme sieht bzw. entsprechend beurteilen kann.

    OK; dann bin ich auf dem richtigen Weg und werde hoffentlich mit der Zeit immer mehr mit diesem Farbraum "verwachsen"... :nick:


    Grüße,

    Otfried

  • Hi Otfried,


    also von den technischen Voraussetzungen her sollte dann ja eigentlich alles bestens vorhanden sein.


    Bei den Falschfarben gibt es einige unterschiedliche Modelle. Also muss man da zunächst sehen wie welche Bereiche dargestellt werden.

    Wenn man dann verinnerlicht hat was welche Farbe bedeutet, ist es eigentlich recht einfach. Aber Übung braucht man natürlich halt.


    Bei meiner Kamera habe ich mir die Einblendung auf eine Funktionstaste gelegt. Das macht den Arbeitsablauf viel einfacher. Geht bei der R5C sicherlich auch irgendwie.


    Am besten orientiert man sich dann bei der Belichtungseinstellung an Hauttönen (wenn vorhanden). Wobei helle Haut etwa eine Blendenstufe oberhalb von Neutralgrau liegen sollte.


    HDR ist auch wirklich eine schöne Sache und hat auch nichts mit "quitschbunt" zu tun. Dieser falsche Eindruck ist bei einigen nur durch die Vorführvideos in den Elektronikmärkten entstanden.

    Aber man braucht halt doch nochmal einige Einarbeitung und vor allem Verständnis wie denn HDR eigentlich funktioniert und welche Zusammenhänge es da gibt. Wobei der eigentliche Workflow in Edius mit dem Filter Primäre Farbkorrektur m.E. gut zu handlen ist.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • HDR ist auch wirklich eine schöne Sache und hat auch nichts mit "quitschbunt" zu tun


    Der allseits vergötterte Alister Chapman sagt zu HDR folgendes:


    "Beim Filmen in HDR ist keine andere Belichtung erforderlich als bei SDR (Standard Dynamic
    Range). Ich glaube, viele Menschen denken, dass sie für HDR heller belichten müssten,
    aber in der Regel ist das nicht so. Sie müssen bedenken, dass HDR einen hohen Dynamikbereich
    bedeutet. Es geht um den Bereich, den Sie erfassen, nicht nur um die Helligkeit. Gesichter,
    Menschen, Pflanzen und Gebäude sollen in HDR nicht heller sein als in SDR, sie sollten gleich
    aussehen und gleich belichtet werden. Ein HDR-Fernseher kann jedoch Highlights wie Reflexionen
    von glänzenden Oberflächen oder einen sehr hellen Himmel anzeigen und gleichzeitig
    Details und Texturen in den dunklen Schatten darstellen, die normalerweise auf einem SDR-Bildschirm
    verloren gehen. Der Schlüssel liegt also darin, den mittleren Bildbereich korrekt zu belichten,
    und dann sollten die sehr hellen und sehr dunklen Bereiche sich von selbst ergeben.
    "


    Der HDR-Grading Kolorist Alexis Van Hurkman schreibt in seinem Buch:


    "Es gibt keinen einheitlichen Ansatz für die Bewertung von HDR, und es
    gibt keine festen Regeln für die Zuordnung verschiedener Lichter zu
    verschiedenen Ebenen, genauso wie es keine Regeln für die Auswahl der
    Werte gibt, bei denen verschiedene Schattenebenen angezeigt werden
    sollen.
    Die Bewertung von HDR ist eine Frage der kreativen Entscheidungsfindung,
    die für jeden, der die Kontrolle über narrative Bilder ausübt, unglaublich spannend ist.

    Das heißt nicht, dass es keine technologischen Einschränkungen gibt, die es
    zu beachten gilt, wie viel Prozent des Bildes auf
    HDR-Hervorhebungsstufen eingestuft

    und auf Verbraucherdisplays genau wiedergegeben werden können."


    Letztendlich gibt es HDR-TVs mit unterschiedlichen Eigenschaften, z,B. die OLED-TV
    von LG, die echtes "Schwarz" darstellen können und nicht nur einen "grauen Brei",

    deshalb kommen diese TVs besonders gut damit zurecht schöne HDR-Glanzlichter
    darzustellen mit weniger Nits...


    Ich arbeite persönlich mit HDR(HLG), weil es für mich einfacher zu handhaben ist
    per DaVinci Resolve Studio.






    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

    5 Mal editiert, zuletzt von Pee ()

  • Ich hatte ja auch nicht gesagt, dass HDR „anders“ zu belichten wäre, sondern halt „richtig“.


    Deshalb auch mein obiger Hinweis auf die Lage der Hauttöne, die eben genau in dem auch von Chapman genannten „mittleren Bildbereich“ liegen.



    Nun werden aber halt für Aufnahmen, die dann nach HDR gegradet werden sollen meist „flache“ (log) Profile verwendet. Und diese sind auf einem Kameradisplay/-sucher ohne weitere Korrekturen nur sehr schwer zu beurteilen, insbesondere was die Belichtung betrifft.


    Daher ist entweder eine kameraeigene Displaykorrektur oder die Verwendung einer DisplayLUT angebracht. Eine (passende) Display-LUT hat dabei den Vorteil, dass sie gleich den gewünschten Farbraum, hier also HDR PQ, berücksichtig.

    Wobei eben eine Display-LUT nur die Anzeige der Kamera beeinflusst, nicht aber auf die gespeicherte Datei wirkt.


    Die von mir genannte Falschfarbendarstellung ist ein in teureren Kameras und Fieldmonitoren vorhandenes „Werkzeug“ für die Überprüfung der Belichtung. Sie geht dabei weit über die Möglichkeit von einfachem „Zebra“ hinaus.


    Falschfarbendarstellung hat also auch nicht direkt mit HDR zu tun, sondern wird durchaus auch bei normalen SDR-Aufnahmen verwendet. Aber grade für Aufnahmen in „flachen“ Profilen ist Falschfarbe ein sehr wichtiges und für mich fast unverzichtbares Tool.




    Und letztlich braucht es dann halt beim Grading im NLE auch noch etwas Übung um das zu erreichen, was in Deinem Hurkman-Zitat ausgesagt wird.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Was die Beurteilung der Videoaufnahme auf dem Kamerabildschirm angeht ist ganz ganz wichtig.
    Die HDR-Bildkontrolle auf dem Kamera-Monitor erfolgt in meinem Fall mit dem aktiven Gamma Display
    Assistenten. Ich sehe auf dem Kameradisplay die Farben und Luminanz genauso wie auf meinem
    32" HDR-TV über die Blackmagic Intensity Pro Video- I/O Steckkarte im PC als Vorschau vom
    Videoschnittprogram aus - egal ob per EDIUS oder DaVinci Resolve. Ich muss bei dem HDR-HLG-Format nicht
    erst die mir genehme Farbe und Luminanz per LUT oder mit mehreren Farkorrekturwerkzeugen suchen.


    Alles passt also, ich muss lediglich u.U. eine Anpassung der benachbarten Szenen vornehmen die
    möglicherweise bei unterschiedlichen Tageslichtverhältnissen entstanden sind, der Aufwand dafür ist gering.
    Ich habe mir genau überlegt wie ich bei HDR-Video vorgehe angefangen von der Aufnahme bis zu der
    Nachbearbeitung mit dem Ziel den Arbeitsaufwand nicht ausufern zu lassen.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

    Einmal editiert, zuletzt von Pee ()

  • Alles passt also, ich muss lediglich u.U. eine Anpassung der benachbarten Szenen vornehmen...

    Klar, denn Du filmst ja eben auch in einem direkten HDR-HLG-Format (wenn bei Deiner Kamera auch nur in einem 8bit Pseudo-HDR). Du befindest Dich damit halt schon von Anfang an im richtigen Farbraum und HLG Gamma. Das ist dann genauso wie bei jeder Kamera die SDR als Rec.709 aufnimmt. Auch da braucht es ja keine weiteren Anpassungen.


    Bisher können aber nur sehr wenige Kameras direkt in einem HDR-Format aufnehmen. Und in PQ nochmal weniger.

    Deshalb muss dann halt in aller Regel das als Log aufgenommen Material zunächst in den passenden Farbraum und die gewünschte Gammakurve (HLG oder PQ) gebracht werden. Das ist jetzt auch wirklich nicht übermäßig kompliziert, aber braucht halt etwas Übungung.

    Da Edius das Quellmaterial i.d.R. richtig erkennt und zuordnet, muss eigentlich nur der Filter Primäre Farbkorrektur aufgelegt werden. Dieser wandelt das dann in den durch die Projekteinstellungen vorgegeben Projektfarbraum, also z.B. Bt.2020/Bt.2100 PQ. Alles andere ist dann Feinarbeit.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Deiner Kamera auch nur in einem 8bit Pseudo-HDR).

    8 bit Pseudo-HDR gibt es nicht, 8bit-HDR(HLG 1,2 oder 3) dagegen schon.


    Es wird ja auf dem HDR-TV auch so angezeigt:



    "nur"...., meine Familie ist von der HDR-Darstellung sehr zufrieden.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Ach Bruno, das ist Dir doch nun schon u.a. von Wolfgang an anderer Stelle mehrfach erklart worden -

    • HDR benötigt per Definition mindesten 10 bit, unter Dolby Vision sind sogar 12bit möglich =. s.hier 1. Absatz

    Mit nur 8bit lässt sich der höhere Dynamikumfang von HDR nicht darstellen.

    Und auch der größere Bt.2020 Farbraum kann mit 8bit nicht so fein abgedeckt werden, wie mit 10bit.



    Sony quetscht halt alles in nur 8bit hinein. Aber dadurch geht eben die höhere Vielfalt, die ja HDR grade ausmacht im Verhältnis 1:4 verloren.

    Nur weil Sony jetzt für seine Kameras ein 8bit HLG "erfindet" wird daraus halt noch kein echtes HDR.


    Aber (und das wurde Dir ja auch schon gesagt) wenn Dir das Ergebnis des Sony HLG gefällt, ist es doch völlig in Ordnung dies auch zu nutzen. Da spricht absolut nichts dagegen.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Deshalb muss dann halt in aller Regel das als Log aufgenommen Material zunächst in den passenden Farbraum und die gewünschte Gammakurve (HLG oder PQ) gebracht werden. Das ist jetzt auch wirklich nicht übermäßig kompliziert, aber braucht halt etwas Übungung.

    Bei mir wird direkt von der Kamera HDR(HLG) im erweiterten Farbraum produziert und dann im NLE zu ProRes 10bit transformier.

    Du musst Dein Fake-Videomaterial zu HLG oder PQ sowie dem erweiterten Farbraum transformieren.


    Wenn Du damit zufrieden bist, dann ist es doch OK für Dich, da spricht nichts dagegen. Schön für Dich, dass Du 4x bessere Qualität
    hast, schließlich kostet Deine Kamera auch mindestens 4x mehr.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Habe nun einige Stunden mit der Kamera und Edius verbracht:

    Die Falschfarbendarstellung ist wirklich nicht mehr mit Zebra zu vergleichen. Man kann super gut auf die Mitten belichten und gleichzeitig ein Auge auf die Spitzen oder Dunklen Absaufer haben - um viele Male besser und präziser als beim Zebra. Ich habe die Darstellung wie Peter auf einen Direktknopf gelegt.

    Nach dieser Erkenntnis und Einprägen der Farbcodierung der Falschfarben habe ich dann gleichmäßige Flächen mit der Kamera aufgenommen und so in Kombination mit Blende, Iso, Belichtungszeiten für jede Falschfarbe flächendeckend gleichmäßig eingefärbte Clips erstellt und benannt.

    Diese habe ich nun im BT2020 PQ-Projekt eingelesen und nach diesen Farbclips mein Zebra in Edius gem. meinem gewohnten Workflow eingestellt. Für die dunklen Flächen steht Zebra jetzt auf 1%, für die hellen Flächen steht Zebra auf 78% - also in dem Bereich, wie Peter es gestern schon vermutet hat. Damit kann ich im Schnitt sichergehen, dass ich "technisch" nicht in Clipping-Sphären komme bzw. sie bewußt akzeptieren, z.B. im Zentrum einer Kerzenflamme. Im Histogramm habe ich die "Curser" entsprechend gesetzt, um auf einen Blick erkennen zu können, ob man sich belichtungstechnisch im sauber darstellbaren Bereich bewegt - wie gut man also bei der Aufnahme diesbezüglich gearbeitet hat.

    Dazu kommt, dass ich in der Kamera die PQ-Kompensation im Sucher / Display dauerhaft eingeschaltet habe und so schon bei der Aufnahme sehe, was ich hinterher auf dem HDR-fähigen Vorschaumonitor zu sehen bekomme.

    Es ist wirklich so, dass bei diesem Workflow, der eine korrekte PQ-Aufnahme voraussetzt, gut belichtete Aufnahmen zunächst im Grunde keine weitere Bearbeitung mehr brauchen und die CC dann ganz nach künstlerischen Gesichtspunkten erfolgen kann. Ein wirklich tolles Arbeiten, auf das ich mich freue, wenn die Kamera nun mehr und mehr ins Tagesgeschäft integriert wird.

    Der Gesamteindruck der gesamten PQ-Aufnahmekette in 10 Bit kommt sehr nah an das, was man mit dem Auge subjektiv wahrnimmt. Im direkten Vergleich mit den vorherigen Aufnahmen in RC 709 ist einfach die mögliche Spreitzung souveräner und muss nicht in der CC "mit Gewalt" hingetrimmt werden.

    Allerdings muss man sich angewöhnen - und da haben meine Vorredner völlig recht - schon bei der Aufnahme sehr sorgfältig zu arbeiten; run and gun ist hierbei schwierig. Mal sehen, wie fit man im Alltag wird, die Schritte zügig abzuwickeln...

    Grüße,

    Otfried

  • Hi Otfried,


    das hört sich doch alles sehr gut an.

    Genau der von Dir beschriebene Gesamteindruck ist halt das, was HDR letztlich ausmacht.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Die Falschfarbendarstellung ist wirklich nicht mehr mit Zebra zu vergleichen.

    Das klingt ja gut für Deine Kamera, welche ist es denn?

    In meinem Fall liefert die Kamera bei Aufnahmen z.B. in HDR(HLG3) keine Falschfarben

    sondern gleich finale Richtigfarben die sofort auf dem HDR-TV mit Glanzlichtern ausgegeben werden können.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Hallo Pee,

    die Canon R5C liefert BT2020 PQ in 10 BIT direkt auf die cfexpress-Karte. Ich nehme den XF-AVC-Codec als all-intra. Dieser Codec lässt sich in Edius fast so gut handeln wie HQX, in die ich mein bisheriges Material immer vor dem Schnitt gewandelt habe.

    Die Falschfarben werden auf Knopfdruck nur im Sucher / Display / oder auf dem an die Kamera angeschlossenem Monitor gezeigt, werden nicht z.B. als Metadaten auf die Datei geschrieben. So kann ich die Falschfarbendarstellung bei der Aufnahme nutzen, habe aber ein (flaches) PQ-Bild auf der Karte.

    Dieses wird nun in Edius eingelesen. Wenn ich die Projekteinstellung aber auf BT 2020 PQ gestellt habe, macht Edius aus der "flachen" PQ-Kurve automatisch wieder die Darstellung, die ich bei eingeschalteter Aufnahmehilfe in der R5C sehe, um das Bild hinsichtlich Farben und Belichtung besser beurteilen zu können. Ich verstehe es so, dass durh diese Konstellation der "PQ"-Weg im Hintergrund abläuft, ich aber am Anfang im Kamerasucher und am Ende auf dem an den über Decklink 12G angeschlossenen HDR-Monitor ein "fertiges" Bild habe, welches ich dann klassisch weiterbearbeiten kann.

    Mit frühem Morgengruß,

    Otfried

  • Hallo Pee,

    die Canon R5C liefert BT2020 PQ in 10 BIT direkt auf die cfexpress-Karte.

    Die R5C ist eine gute Kamera. Dein Workflow zum vorführfertigen HDR-Video ist auch aus meiner Sicht OK.
    Ich nehme in HDR(HLG3) auf, ich nehme an sonnigen Tagen mit einer Belichtungskorrektur von +0,3 bis 0,7 auf
    was den Vorteil hat, dass diese Datei ohne Korrektur wegen der zum Teil schon passenden Kennlinie auch eine
    Wiedergabe auf SDR-Bildschirm ermöglicht, die Aufnahme erscheint dann dort nicht zu dunkel.
    Bei dem Zielformat HDR(HLG) muss ich lediglich eine kleine Lumimanzkorrektur machen, dann passt es auch
    für die HDR-Bildschirme.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • die Canon R5C liefert BT2020 PQ in 10 BIT direkt auf die cfexpress-Karte.

    Dieses wird nun in Edius eingelesen. Wenn ich die Projekteinstellung aber auf BT 2020 PQ gestellt habe, macht Edius aus der "flachen" PQ-Kurve automatisch wieder die Darstellung, die ich bei eingeschalteter Aufnahmehilfe in der R5C sehe, um das Bild hinsichtlich Farben und Belichtung besser beurteilen zu können. Ich verstehe es so, dass durh diese Konstellation der "PQ"-Weg im Hintergrund abläuft, ich aber am Anfang im Kamerasucher und am Ende auf dem an den über Decklink 12G angeschlossenen HDR-Monitor ein "fertiges" Bild habe, welches ich dann klassisch weiterbearbeiten kann.

    Ah ja,


    Canon hat einige Kameras, die schon direkt in Bt.2020/Bt.2100 PQ aufnehmen können. Schön, dass Deine R5C auch dazu gehört.


    Das macht die Bearbeitung für Dich natürlich noch einmal einfacher, denn Du bist dann ja schon mit dem Quellmaterial im gewünschten Zielfarbraum.


    Prinzipiell funktioniert das dann genauso, als wenn Du eine „normale“ SDR-Aufnahme in einem Rec.709-Projekt bearbeitest. Deshalb ist Dein Bild in Edius dann auch sofort stimmig, wenn es ein PQ-Projekt ist.


    Ich verarbeitete halt 12bit BRAW- Material aus der BMD Pocket 6K, welches mit „flachem“ Profil in einem BMD-WideGamut-Farbraum vorliegt. Dieses muss dann erst mit dem Filter Primäre Farbkorrektur in den gewünschten Zielfarbraum überführt werden. Ist halt ein Arbeitsschritt mehr, aber jetzt auch nicht viel schwieriger.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Viele Wege führen nach Rom, nicht nur die Einbahnstrarsse 12bit BRAW. :bgdev:

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • :?::?::?:

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Geh mal runter von der Leitung. :cool:

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro