Workflow zum Anpassen von Farbräumen

  • Hallo,
    ich scheitere an der Anpassung von HEVC-Clips vom iPhone, die im BT.2020/2100 HLG Farbprofil vorliegen und nun aber an sRGB-Monitor/Beamer usw ausgegeben werden sollen.
    Dazu kann ich natürlich in EDIUS den Farbraum auf BT.709 einstellen, aber weil der ehemals große Farbraum damit zur Darstellung auf den kleineren Farbbereich geschrumpft wird, erscheinen die Farben extrem flau. Peter hatte mir das in diesem Thread (siehe die Beispielfotos dort) schon mal erklärt und auf die primäre Farbkorrektur verwiesen.


    Die Einstellungen von Aufhellen/Gamma/Verstärkung sind aber sehr subjektiv und ich habe ewig gefummelt, bis ich mir ein Preset dafür zusammengebastelt habe, das dem Original halbwegs entsprach. Aber eben nicht ganz. Dann habe ich haufenweise LUT´s ausprobiert, die alle irgendein Ergebnis brachten, aber kein LUT entsprach der Originalaufnahme.


    Das Original in Rec.2020 wird aber auf einfache Weise auch vom iPhone selbst erstellt! Über "Fotos/importieren" können nämlich die 10 bit HEVC-Dateien durch Windows in normale AVC-codierte MPEG4-Dateien im BT.709 Farbraum umgewandelt werden, allerdings mit nur 8 bit Farbtiefe und ohne Dolby Audio. Na gut. Das Verfahren ist aber umständlich und fehlerbehaftet, weil der Import ständig stockt, abgebrochen wird usw. Das ist hier im Forum schon beschrieben worden.


    Einfacher ist der Download von der iCloud, weil die H265-codierten Videos dort in Originalgröße vorliegen und überdies chronologisch und übersichtlich präsentiert werden.


    Es muß nach dem Download doch möglich sein, die Umwandlung der Farbräume von Rec.2020 in Rec.709 auch mit einfacheren Mitteln zu bewerkstelligen, oder? Das iPhone kann das doch auch!


    Gibt es einen "automatischen Weg", die hohe Farbtiefe der HEVC-Videos auf Rec.709 bzw. sRGB zu reduzieren? Oder hat jemand eine dafür erprobte Einstellung für die primäre Farbkorrektur? Oder eine gute LUT entdeckt?

  • Hi,


    interessant wären mal ein Screenshot der MediaInfo von Deinen iPhone-Dateien.




    Sonst gibt es leider keinen einfacheren Weg den Farbraum zu ändern.
    Du machst Du es eigentlich schon ganz richtig und bei dem HLG-Material (wenn es denn wirklich dern Norm entspricht), sollte das auch nicht ganz so problematisch und mit einigen wenigen Einstellungen erledigt sein.


    Insgesamt muss sich da leider etwas einarbeiten.

    • Edius Projekt mit Farbraum Rec. 709 anlegen und das HEVC-Material dort auf die TL;
    • Filter Primäre Farbkorrektur auf den Clip - dabei sollte Edius eigentlich automatisch als
    • Farbraum > Quelle dann BT.2020/Bt.2100 HLG erkennen
      - es gibt auch noch einen Farbraum Apple - Display P3 HLG, aber da weiß ich nicht wofür dieser ist und ob er evtl. besser passen würde, ggf. mal ausprobieren;
    • als Farbraum > Ziel/LUT müsste dann Projektfarbbereich (BT.709), bzw. direkt Bt. 709 eingestellt werden.


    Wie Du schon festgestellt hast, muss das dann aber i.d.R. trotzdem noch leicht nachkorregiert werden.


    Hierzu auf alle Fälle in Edius das Videoskop öffnen und insbes. die Wellenform Y Farbe und das Histogram beachten.
    Stark vereinfacht gesagt sollten da die Werte zwischen 0 und 100 liegen, die Linien also nicht über-/unterschreiten.


    Vermutlich musst Du da bei Deinem Material Aufhellen und Verstärkung noch ertwas herunterregeln und dafür Gamma nur ganz leicht nach oben ziehen. Aber da kommt es eben auf das vorliegende Material an...
    Statt Gamma macht es sich meist besser in der daunterliegenden Kurve den mittleren Punkt für Y etwas nach links oder oben links zu verschieben.


    Hierbei ist halt eine passende Vorschau Bt. 709 notwendig um das Bild auch wirklich beurteilen zu können. Normale Monitore arbeiten ja meist in anderen Farbräumen.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Zum besseren Verständnis nur schnell noch als Nachtrag...


    ...aber weil der ehemals große Farbraum damit zur Darstellung auf den kleineren Farbbereich geschrumpft wird, erscheinen die Farben extrem flau.


    Das liegt nicht am veränderten Farbraum (Bt.2020), die Farben werden richtig angepasst.


    Das Problem sind die unterschiedlichen Gamma-Kurven (bei HDR Bt.2100), also die Helligkeitswerte.
    Diese müssen leider meist manuell nachgeregelt werden, obwohl dies bei HLG eigentlich nicht notwendig sein sollte.


    Gammakurven und die Grundlagen von HDR wurden hier gut erklärt.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Mal vorausgesetzt, die von Peter unter 1. - 4. aufgezeigten Einstellungen sind vorgenommen worden: ein HEVC-Video sieht in EDIUS offenbar immer flau aus (weil der Farbraum sich von Rec.2020 zu Rec.709 ändert) und muß deshalb nachbearbeitet werden.

    interessant wären mal ein Screenshot der MediaInfo von Deinen iPhone-Dateien.

    Einen Screenshot hatte ich hier (Screenshot) schon mal gepostet. Ich habe aber jetzt noch mal diese Frage gestellt, weil das Thema Farbmanagement gar nicht zur Überschrift des damaligen Threads paßte. Ich glaube nämlich, daß Anwender künftig immer häufiger Videos in moderneren Formaten wie H.265 auf aktuellen Geräten produzieren und in EDIUS bearbeiten wollen, aber die entsprechende teure Wiedergabekette noch gar nicht vorhanden ist. Also müssten ersatzweise die HEVC-10 bit-Clips (Mediainfo links) in AVCHD-8 bit-Clips (Mediainfo rechts) umgewandelt werden.



    Das macht z.B. ein iPhone automatisch. Man kann nämlich beim Übertragen auf Mac oder PC die entsprechende Option auswählen. Dann entscheidet iOS je nach angeschlossenem Gerät, in welchem Format es die Dateien anbietet. Bei einem angeschlossenen PC und einem Mac, der noch kein High Sierra verwendet, werden die Dateien eben automatisch in das H.264-Format konvertiert, bei anderen Geräten werden die Dateien als HEVC ausgeliefert. Letzteres bedeutet zwar mehr Rechenleistung für das Encodieren, aber trotzdem kleinere Dateien bei größeren Farbraum, Dolby Vision etc.


    Man kann sich die Clips aber auch im H.264 Format ausgeben lassen. Die liegen dann bereits im Rec.709 Farbraum vor, sind wie das Original auf jedem sRGB-Monitor darstellbar und man benötigt keine kostenintensive neue Hardware.


    Leider ist das Herumsuchen in der Ordnerstruktur eines iPhones unübersichtlich, die Clips lassen sich nicht vorab ansehen/auswählen und die Übertragung auf einen Windows-PC ist für die Apple-Welt offenbar eine Zumutung und wird mit Abbrüchen usw. quittiert. Deshalb mein Bestreben, die originalen H.265 Clips von der iCloud zu laden.


    Die anschließende primäre Farbkorrektur ist mir bisher jedoch mit keiner der vielen ausprobierten LUTs perfekt gelungen: entweder waren die Hauttöne rötlich oder die Spitzen weg usw.
    Die Nutzung des Videoskops wiederum verlangt einen exakt kalibrierten Monitor, viel Erfahrung und eine erhebliche Tüftelei.
    Aber eine automatische Konvertierung und Farbraumanpassung, wie sie das iPhone vornimmt, scheint es also in EDIUS nicht zu geben...

  • Hi,


    Dein Screenshot ist insoweit interessant, als dass das iPhone als Verfahren HDR Dolby Vision nutzt - s. dazu hier.
    Das ändert jetzt aber nichts an der eigentlichen Problematik.



    Du musst bitte mal einige Dinge gedanklich trennen, sonst geht das zu sehr durcheinander.



    Ich glaube nämlich, daß Anwender künftig immer häufiger Videos in moderneren Formaten wie H.265 auf aktuellen Geräten produzieren und in EDIUS bearbeiten wollen, aber die entsprechende teure Wiedergabekette noch gar nicht vorhanden ist. Also müssten ersatzweise die HEVC-10 bit-Clips (Mediainfo links) in AVCHD-8 bit-Clips (Mediainfo rechts) umgewandelt werden.


    H.264/AVC und H.256/HEVC sind zunächst einmal lediglich Standards zur Videocompression. Hierbei ist H.265/HEVC der modernere Codec, der bei gleicher "Qualität" eine höhere Kompression = kleinere Dateien erzielt.
    Dies sagt aber nicht das geringste über den "Inhalt" = das Video aus.


    Beide Codecs können sowohl 8 bit, wie auch 10 bit Inhalte (H.264/AVC ab dem Profil High 10) und/oder auch unterschiedliche Farbräume (z.B. Bt.2020/Bt.2100 HLG) enthalten.



    Nur tritt halt bei H.264/AVC meist das Problem auf, dass viele Wiedergabegeräte/Player nicht fähig sind 10 AVC abzuspielen. Das liegt aber nicht am Codec/ der Datei, sondern an dem jeweiligen Gerät/Player.
    Außerdem erkennen moderne Geräte bei H.264/AVC i.d.R. nicht, dass es ein HDR-Inhalt ist und schalten deshalb nicht um. Deshalb ist halt H.264/AVC für HDR eigentlich sinnlos, auch wenn es das vom Codec her könnte.


    H.265/HEVC wiederum übergibt normalerweise zuverlässig die Information auf HDR, so dass das Wiedergabegerät umschaltet. Deshalb ist dies auch der für HDR-Inhalte gebräuchliche Codec.
    Aber man kann ebensogut SDR-Inhalte (also z.B. Farbraum Bt. 709), sogar auch nur mit 8 bit, als H.265/HEVC ausgeben.



    Solange das Wiedergabegerät H.265 wiedergeben kann, kannst Du also auch völlig unabhängig vom Farbraum H.265 verwenden.
    Ab ungefähr Baujahr 2018 sollten TV-Geräte eigentlich H.265 wiedergeben können. Abgesehen vielleicht von den Billiggeräten.



    Und zumindest die Markengeräte sind auch schon seit Jahren HDR-fähig. Insoweit ist doch inzwischen sehr oft schon eine HDR-Wiedergabe möglich.



    Beim Schnitt von HDR-Material ist halt nur das Problem, dass Du dafür eine durchgängige Vorschau Kette benötigst. Ein "Blindflug" ohne HDR Vorschau ist nervig und bringt einen nicht zum Ziel.
    Die dafür benötigten Geräte sind halt leider noch teuer. Bei HLG kann am aber auch versuchen aus der GraKa auf ein HDR-TV-Gerät auszugeben. Hier muss dann aber über Windows der TV als HDR angesprochen werden können und das Siganl aus Edius erkennen. Das klappt leider nicht immer, bzw. mit jedem Gerät.


    Deshalb bleiben halt viele noch beim SDR, also Rec. 709.




    Das macht z.B. ein iPhone automatisch. Man kann nämlich beim Übertragen auf Mac oder PC die entsprechende Option auswählen

    M.E. ist es so, dass das iPhone die Aufnahme gleich in beiden Varianten speichert. Zumindest bei den Fotos war das so. Insoweit findet da m.E. keine Konvertierung mehr statt.
    Da ich aber nicht mit dem iPhone filme, kann ich nicht mit Bestimmtheit sagen, was dort intern genau passiert. Aber das ist etwas anderes, als wenn Du mit einem NLE den Farbraum änderst.




    Die anschließende primäre Farbkorrektur ist mir bisher jedoch mit keiner der vielen ausprobierten LUTs perfekt gelungen: entweder waren die Hauttöne rötlich oder die Spitzen weg usw.
    Die Nutzung des Videoskops wiederum verlangt einen exakt kalibrierten Monitor, viel Erfahrung und eine erhebliche Tüftelei.
    Aber eine automatische Konvertierung und Farbraumanpassung, wie sie das iPhone vornimmt, scheint es also in EDIUS nicht zu geben...

    Die Farbraumanpassung in Edius erfolgt über die Primäre Farbkorrektur. Und normalerweise werden die Farbräume des Quell- und Zielformates da auch automatisch richtig erkannt.
    Ob evtl. ein spezielles Dolby Vision, oder Apple iPhone Profil als Quellformat eine leichtere Anpassung ergeben könnte, weiß ich nicht. Aber selbst wenn, bin ich mir nicht sicher, ob das kommen würde.


    Dass man sich in die Farbkorrektur einarbeiten muss ist leider eine feststehende Tatsache. Hierfür gibt es aber auch käufliche Lernvideos, oder Tutuorials auf YouTube.


    Das Videoskop selbst verlangt nicht nach einem exakt kalibrieten Monitor. Denn es zeigt ja die Werteverteilung an. Nach dem kannst Du Dich also richten.
    Aber natürlich wäre für SDR ein auf Rec. 709 kalibrierter Monitor insoweit gut, da dann das ausgegebene Bild auch wirklich zu 100% stimmig ist. Doch Du könntest auch da ein TV-Gerät nutzen. Und grob bekommt man das bei Rec. 709 sogar auf einem sRGB-Monitor hin.




    Du kannst ja gern auch mal ein paar Screenshots einstellen. Evtl. sieht man da ja auch schon was, was Dir dann noch weiterhilft.


    Interessant wären da

    • die Clip-Eigenschaften > Video mit dem von Edius erkannten Farbraum;
    • das Videoskop mit allen 4 Darstellungen;
    • die Primäre Farbkorrektur mit den Einstellungen;
    • und natürlich auch das Vorschaubild.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Vielen Dank für die ausführliche Antwort. Du hattest mir in einem früheren Thread das Thema Primäre Farbkorrektur bereits nahegebracht. Ganz offenbar löst sich mein "Problem" nur über diesen Weg und nicht über irgendeinen Automatismus.


    Und klar, der Farbraum des Quellmaterials wird von EDIUS automatisch erkannt und in einem BT.709-Projekt stimmt dann auch das Ziel. Aber das Zielmaterial hat dann eben diese ausgewaschenen Farben.


    Die Primäre Farbkorrektur hatte ich zunächst anhand der Hauttöne versucht. In EDIUS 9 gibt es im Vektorskop ja noch keine vorgegebene Hauttonlinie, aber man kann sich die mit Hilfe eines durchsichtigen Lineals auf dem Monitorbild des Vektorskops ganz gut darstellen. Dann einen Hautbereich maskieren und das Farbrad entsprechend verändern. Na ja, das Ergebnis mag für den ausgewählten Clip gehen, aber schon im nächsten paßt es nicht, da die Hauttöne sich abhängig von Belichtung, Tageszeit usw. ändern. Logisch. Selbst ausgetüftele Farbkorrekturen waren untauglich oder ich habe mich bescheuert angestellt.


    Nach Ausprobieren von geschätzt 30 LUTs fand ich nun die LUT DWD_Rec2020_Linear_to_Rec709_Linear.cube von Nick Driftwood noch am besten, weil sie auf fast allen Clips anwendbar war. Damit ist mein Problem eigentlich keines mehr.


    Einmal editiert, zuletzt von Ede ()

  • Aber das Zielmaterial hat dann eben diese ausgewaschenen Farben.

    Dies liegt wie gesagt an den unterschiedlichen Kuven der Helligkeitswerte.
    Meist hilft es da in der Primären Farbkorrektur die Y-Kurve im mittleren Wert etwas nach links oder links oben zu verschieben. Das ist aber halt Materialabhängig und muss man probieren.



    Wenn ich aber die beiden Screenshots mit Deinen Bildvergleichen betrachte, sind die rechten Bilder (die ich als Rec.709 verstehe) doch nicht ausgewaschen, sondern im Gegenteil sehr kräftig.
    Oder ist das dann erst nach Deiner manuellen Korrektur?




    Na ja, das Ergebnis mag für den ausgewählten Clip gehen, aber schon im nächsten paßt es nicht, da die Hauttöne sich abhängig von Belichtung, Tageszeit usw. ändern. Logisch.

    Richtig, das ist immer abhängig von der Belichtung.
    Deshalb sollte man möglichst bei der Aufnahme schon auf die Belichtung achten. Bei HDR ist das sogar noch etwas wichtiger.





    Was mir in Deinem Screenshot Videoskop aufgefallen ist, Du nutzt da (rehts oben im Bild) die weitere Wellenformdarstellung YCbCr.
    Wenn Du damit vertraut sein solltest, dann ist das natürlich völlig ok.


    Aber ich denke, Du würdest es Dir etwas leichter machen mit der Darstellungsform RGB (oder gab es die bei E9 noch nicht??).
    Damit siehst Du die einzelnen Farbkanäle und erkennst so leichter Abweichungen.




    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro