HLG gut gegen Überbelichtung?

  • Mal wieder eine Frage von mir: Wenn man eine Person gefilmt hat, die vor einem Fenster sitzt, dann ist im Video der Hintergrund oft weiß, auch wenn die Sonne nicht ins Zimmer scheint. Bekommt man bei der Nachbearbeitung solcher Szenen mehr Gestaltungsfreiheit beim Austarieren des Hintergrunds, wenn man mit HLG filmt (was Edius sofort erkennt)? Oder ist HLG nur etwas für den Rundfunkbetrieb? Danke für Kommentare und Grüße CC

  • Das ist eher etwas für Log Formate. Wobei man da nicht unbedingt einen solch großen Kontrastumfang ausgebügelt bekommt.
    Besser ist vorne gut belichten und Hintergrund abdunkeln. Dazu in Log drehen und noch ein gutes Grading.
    Mit der Primären Farbkorr. kann man teilweise auch gut die Höhen runter ziehen.
    Oft verblasst dann aber auch das Gesicht. Da kann man mir Kontrast wieder gut gegensteuern.

    Bei schwierigen Fällen baue ich mir eine Maske um die Person und grade die getrennt vom Hintergrund. Dann ist man flexibel.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Mal vereinfacht ausgedrückt: ja, es würde wohl etwas besser werden, denn das Hauptproblem ist der Kontrastumfang, den man mit HLG besser einfangen und bearbeiten kann.


    ABER: das eigentliche Hauptproblem bekommst Du damit nicht gelöst: der Hintergrund bleibt verdammt hell und lenkt von Deinem eigentlichen Motiv (Person) ab. Dagegen gibt es zwei Möglichkeiten:
    1. Du machst es bewusst künstlerisch, sodass quasi wie beim Scherenschnitt Dein Hintergrund vernünftig belichtet ist. Die Person wird dann schwarz. Man sieht dann logischerweise keine Augen, Gesichtszüge etc. Ist also Kunst, und das muss man wollen. Für ein Interview logischerweise auf jeden Fall ungeeignet.

    2. Du beleuchtest die Person vernünftig. Je nach Helligkeit des Hintergrunds brauchst Du ordenlich Licht, um gegen das taghelle Gegenlicht anzukommen (musst dann aber sehr auf Farbtemperatur und Weißabgleich achten). Das wäre die beste Option. HLG kann dann dabei helfen, das zusätzlich besser auszutarieren.

    Aber HLG allein ist kein Allheilmittel gegen schlechte Kameraarbeit. ;)

  • Ich bin da ganz mit Chris konform.

    Bei Gegenlichtproblemen hilft nur Licht von der Kameraseite. Möglichst mit der gleichen Farbtemperatur. 2. Fenster Spiegel/Reflektor oder Dauerlicht/Diffusor?


    Ein passender Log ist fürs Graden natürlich hilfreich. Je nach Kamerahersteller haben die Ihre Stärken (oder Schwächen) in den hellen oder dunklen Bereichen (Bsp.: Canon Log 2 nehme ich wenn ich etwas mehr Zeichnung in den dunkleren Bereichen möchte CLog3 wenn wie in Caesars Situation die hellen Bereiche 'ausbrennen'.

    Dazu muss man aber auch genaugenommen die 30% Grau genau mit der Blende kalibrieren das geht mit dem Histogramm und einer Farbtafel.


    HLG ist soweit ich das verstanden habe ein Stream, der 'normales' Video und HDR aufgenommenes Video so kombiniert, das Normale Fernseher nicht vor HDR kapitulieren und ein grausiges (oder gar kein Bild) zeigen. Während HDR zertifizierte TVs den HDR Stream erkennen und nutzen können.

    Früher hatte man keine Probleme :rolleyes: - heute hat man Computer (und Software)! 8|

  • Hi,


    seit einiger Zeit arbeite ich mit HDR-Projekten im Farbraum Bt.2020/Bt.2100 PQ, der eine andere Gamma-Kurve als HLG nutzt. Quellmaterial ist dabei BRAW.




    Also HDR (High Dynamik Range) hat gegenüber dem bisherigen Rec.709 einerseits einen größeren Farbraum (Bt.2020) und andererseits mit Bt.2100 eben auch einen größeren Dynamikumfang, also mehr Blendenstufen. Dazu benötigt HDR aber eine höhere Bittiefe /auch der Aufnahme) von mindestens 10bit.


    Damit ist es grundsätzlich auch möglich so zu belichten, dass ein heller Himmel nicht "ausgefressen" wird und die Schattenbereiche gleichzeitig nicht "absaufen".

    Der Gestaltungsraum ist somit auch größer. Und meist lässt sich in der Nachbearbeitung vielleicht auch etwas mehr machen.

    Wobei es da halt auch sehr auf das Quellmaterial (die Aufnahme) ankommt. Mit einem RAW-Format ist man sehr gut bedient, bei anderen Materialien kann man im Nachhinein auch keine Wunder vollbringen.


    HDR bedeutet also nicht, dass grade solch kritischen Aufnahmesituationen wie Du sie beschreibst "automatisch" besser werden. Auch (oder grade) hier muss versucht werden eine stimmige Belichtung hinzubekommen. Ohne eine Ausleuchtung der Person wirst Du da also noch immer Probleme haben.

    Und die Ausleuchtung wäre halt unabhänhig von dem Format den Tipp, den ich Dir geben würde.



    HLG ist eigentlich ein HDR-Sendeformat, wird aber inzwischen auch in einigen Kameras als Aufnahmeformat angeboten.

    Wobei man da halt sehr aufpassen sollte was da unter diesem Namen firmiert. Denn wie gesagt setzt HDR (und somit auch HLG) eigentlich 10bit Farbtiefe voraus. Insoweit sind die 8bit Aufnahmen, die da z.T. vollmundig unter der Bezeichnung HLG angeboten werden auch kein echtes HDR. (Was jetzt nicht bedeutet, dass diese Aufnahmen nicht gut anzusehende sein können!!!).



    HLG-Aufnahmen haben gegegnüber RAW oder Log-Aufnahmen den Vorteil, dass der Nachbearbeitungsaufwand geringer ist. Du kommst also schneller und einfacher zu einem HDR-Ergbnis.


    Edius sollte das Material erkennen, wenn das Kameraformat eingearbeitet ist. Da die Hersteller bei neuen Kameras die Formate manchmal abändern, ist das nicht immer gegeben. Hier muss man also mit der eigenen Kamera probieren was da möglich ist.

    Sofern aber die Dateien zumindest importiert werden können, könnte man aber über den Filter Primäre Farbkorrektur eine manuelle Anpassung vornehmen.




    Nicht desto trotz benötigst Du dann aber beim Schnitt trotzdem ein HDR-Projekt und eine durchgehende HDR-Vorschau.


    Sprich, mindestens die Ausgabe über die GraKa auf einen HDR-TV.

    Wobei dies aus unterschiedlichen technischen Gründen nicht immer wirklich einfacht zu realisiern ist. Insbes. muss der TV erkennen, dass das ausgegebene Signal HDR ist. Oder er muss manuell darauf eingestellt werden können (was oft nicht geht).


    Besser funktioniert dies über eine entsprechende HDR-fähige Schnittkate, bzw. exterenes Ausgabegerät. Diese sind aber noch recht teuer (ca. 1.000 €). Und der HDR-TV, bzw. ein guter!!! HDR-Monitor (noch extrem teuer) kommen dann auch noch hinzu.


    Die HLG-Aufnahme dann in ein (Rec. 709) SDR-Projekt zu "pressen" halte ich für weniger sinnvoll.

    Zwar kann man auch eine SDR-Version für diejenigen erstellen, die noch keine HDR-Wiedergabemöglichkeit haben, aber das Material generell dan nur als SDR auszugeben bringt nicht so viel.



    Ich hoffe Dir damit etwas geholfen zu haben.

    Sonst auch gen noch weiter nachfragen.



    Gruß

    Peter



    Uuups, bin ich lahm beim tippen.... :huh:


    Aber der Trend ist ja erkennbar.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Möglichst mit der gleichen Farbtemperatur.

    Nicht unbedingt. Wenn man die gleiche Farbtemperatur hat wie draußen (also ca. 5.600 K), dann hat man zwar das gleichmäßigste, aber auch langweiligste Licht. Denn wenn man schon im Gegentageslicht arbeitet, kann man das auch gleich nutzen. Wenn Du mit Kunstlicht (3.200 K) beleuchtest und das Weiß darauf abgleichst, dann wird Dein Tageslicht ziemlich blau. Es gibt aber mittlerweile auch LED-Flächenleuchten, an denen man die Farbtemperatur stufenlos einstellen kann. Man könnte also versuchen, eine Farbtemperatur zu wählen, die irgendwo dazwischen liegt. Dann hat man die Person schön beleuchtet, und das Gegentageslicht kommt dann noch leicht(!) bläulich dazu. Das kann ziemlich spannend/schick aussehen. Ist aber vielleicht nichts für Licht-Anfänger.

  • Oder ist HLG nur etwas für den Rundfunkbetrieb?

    Wie kommst Du darauf?

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Wie kommst Du darauf?

    Vermutlich weil er nach HLG gegoogelt hat. :bgdev:


    Die Aussage ist halt auch insoweit richtig, als dass HLG (Hybrid Log Gamma) als Sendeformat entwickelt wurde.

    Hierbei werden SDR- und HDR-Inhalte in einem Feed eingebunden, sodass dieser auf beiden Gerätearten richtig wiedergegeben werden kann.


    Das jetzt irgendwelche Kamera- und Smartphonehersteller HLG als Aufnahmeformat nutzen, war so eigentlich nicht vorgesehen.

    Zumal dies eben wie schon gesagt oft mit lediglich HDR-unüblicher 8bit Farbtiefe erfolgt.



    Wie gesagt ist das die rein technische Erklärung und soll keine Abwertung von HLG oder dem von Dir ja geschätzten Bearbeitungsverfahren darstellen.

    Und da die meisten neueren TV-Geräte inzwischen auch über HLG verfügen macht die Verwendung dieses Formates durchaus auch einen gewissen Sinn.


    Außerdem ist - wie auch schon gesagt - die Bearbeitung solcher HLG-Aufnahmen zu einem fertigen Film etwas einfacher als aus einem RAW- oder Log-Material heraus.


    Fakt ist aber auch, dass die übrigen HDR-Formate (Dolby Vision, HDR 10, HDR 10+) auf der PQ-Kurve beruht.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Und da die meisten neueren TV-Geräte inzwischen auch über HLG verfügen macht die Verwendung dieses Formates durchaus auch einen gewissen Sinn.

    Mein LG OLED HDR-TV kann es seit 2018 mit einer Bildhelligkeit von max 650 Nits, also nicht erst seit "zwischenzeitlich..."

    Der Threadstarter will aber eine Aufnahme mit stimmige Belichtung für die Situation;

    "Wenn man eine Person gefilmt hat, die vor einem Fenster sitzt, dann ist im Video der Hintergrund oft weiß, auch wenn die Sonne nicht ins Zimmer scheint. "

    Dann würde ich eine Aufnahme mit etwa mittlerer Belichtung zwischen Vorder- und Hintergrund empfehlen. Die Person im Vordergrund müsste er
    dann im NLE bei der Nachbearbeitung maskieren und aufhellen und den Hintergrund maskiert evtl. etwas abdunkeln. :cool:

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Mein LG OLED HDR-TV kann es seit 2018 mit einer Bildhelligkeit von max 650 Nits, also nicht erst seit "zwischenzeitlich..."

    Nochmal,


    es gibt mehrere HDR-Standards. Und HLG ist nur einer davon, entwickelt von TV-Sendern.

    Mit welchen dieser Standards das TV-Gerät ausgestattet ist, hängt vom Hersteller und dem Baujahr ab.


    Oft haben ältere Geräte noch kein HLG, sondern eher nur einen Standard, wie z.B. HDR10. Wobei eben Hersteller auch z.T. auch noch eigene, eigentlich nicht festgelegte Bezeichnungen "erfinden". Ob jetzt LG vielleicht sogar schon 2018 seinen Geräten HLG spendiert hat, will ich nicht ausschließen, tut aber eigentlich auch nichts zur Sache, da Du ja eine HDR-Datei (H.265) abspielst.


    Neuere Geräte verfügen meist über mehrere Standards. Dazu gehört dann auch HLG. Als neuestes wäre da Dolby Vision, welches sogar 12bit bieten kann.


    Eine Leuchtdichte von 650 nits ist durchaus gut, wobei auch hier neuere Geräte inzwischen höhere Werte liefern. Deshalb muss man nun aber sein altes Gerät auch nicht wegschmeißen.


    Von den theortischen 10.000 nits die in PQ verankert sind (bei HLG sind es 1.000 nits), sind wir sowieso noch weit entfernt. Wobei diese mit Dolby Vision zumindest als Information geliefert werden könnte.

    Auch das ist aber nicht weiter schlimm, da diese "unmöglichen" Werte bewußt gewählt wurden um HDR einen Rahmen zu geben, der nicht gleich wieder angepasst werden muss.


    Die Wiedergabegeräte (TV) setzten dann die vorhandenen Werte auf Grundlage von Gamma-Kurven auf die Gegebenheiten ihrer Displays um.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Nochmals, es geht hier nicht um die Leuchtdichte, sondern darum wie der Threadstarter
    Seine Aufnahme belichten soll. Die DJI Pocket 2 wäre hier wohl gut einsetzbar weil sie
    HDR-Video aus mehreren unterschiedlich belichteten Frames nach meiner Kenntnis herstellt,
    wie es die Fotografen bei HDR-Fotos machen.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Meine Antwort bezogen sich auf die nachgefragen Eigenschaften von HLG.

    Und dass HLG oder eine andere Form von HDR-Aufnahmen mit den hohen Helligkeitsunterschieden vielleicht etwas besser umgehen können, dadurch aber die Aufnahme nicht unikritischer ist, wurde hier ja auch schon mehrfach gesagt.


    Eine Kamera wie die DJI Pocket 2 halte ich aus mehreren Gründen für solche Aufnahmen nun für völlig ungeeignet. Außerdem scheint der Fragesteller ja auch über eine Kamera zu verfügen, die HLG könnte, wenn es darum ginge HDR aufzunehmen.



    Tipps wie eine eine solche Aufnahmesituation (auch ohne HDR) zu meistern ist, wurde ja schon gegeben.

    1) Beleuchten und 2) ggf. noch in der Post eine Maske mit entsprechenden Filtern setzen.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Dann würde ich eine Aufnahme mit etwa mittlerer Belichtung zwischen Vorder- und Hintergrund empfehlen. Die Person im Vordergrund müsste er

    dann im NLE bei der Nachbearbeitung maskieren und aufhellen und den Hintergrund maskiert evtl. etwas abdunkeln. :cool:

    Und warum nicht gleich richtig beleuchten? Dann kann man sich die aufwändige Postproduktion sparen. Was man am Drehort richtig machen kann, sollte man auch richtig machen. Oder man lässt es gleich und sucht sich eine andere Szenerie.

  • Was man am Drehort richtig machen kann, sollte man auch richtig machen.

    Das ist absolut richtig.

    Zumal die entsprechenden LED-Lampen für Video auch durchaus erschwindlich sind.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Habe da eine Frage:


    Da ich HDR-Videos meist mit DaVinci Resolve bearbeite, ist mir dort in den HDR-Settings aufgefallen,
    dass man die Nits für das HDR-Mastering begrenzen kann, z.B. auf 650 Nits, was mein OLED LG-
    HDR-TV liefern kann. Eine solche Einstellung habe ich in EDIUS X noch nicht gefunden.
    Ist hier jemanden bekannt warum die max. Nits-Grenzen in EDIUS nicht eingestellt werden müssen?

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Hi Bruno,


    Edius stellt da halt ganz einfach immer den gesammten "Raum" zur Verfügung, den die jeweiligen HDR Standards bieten. Und das sind halt 1.000 nits bei HLG und 10.000 nits (SMPTE ST-2084) bei einem PQ-Projekt. Willst Du dann eine auf ein bestimmtes Gerät bezogene Begrenzung einhalten, dann musst Du dies halt anhand der Scopes eigenständig beachten.


    Insoweit ist es in Resolve vielleicht etwas "bequemer", dass Du hier entsprechende Vorgaben machen kannst.


    Da ich mit Resolve auf Kriegsfuß stehe und inzwischen aufgegeben habe mich da einzuarbeiten zu wollen, wäre meine Gegenfrage, ob Resolve in diesen Fällen das Quellmaterial gleich automatisch auf den vorgegeben Wert pegelt, oder ob dort dann nur die Anzeigen auf den Wert begrenzt werden, man also das auf der TL befindliche Material (wie bei Edius) selbst einpassen muss.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Automatisch pegelt das DVR nicht auf den eingestellten Nits-Wert.
    Ich muss das noch in dem 4000 Seiten starken Handbuch nachlesen.

    Ich kann aber eine Scope-Skalierung einstellen wo eine gestrichelte
    Skalierung für die höchste Grenze für das Bildprofil eingezeichnet ist.

    Die Grenzen für die Lichter und Schatten treffe ich relativ gut mit
    meinen Aufnahmen, wenn ich je nach Lichtverhältnissen den +/-
    Belichtungswert korrekt einstelle. Man braucht schon einige
    Aufnahmeerfahrungen, dass man bei Mittagssonne auf "0" belichtet,
    bei bedeckten Himmel muss man bis (+0,7) überbelichten, keineswegs
    aber unterbelichtet. Dazwischen gibt es noch viele andere Licht-
    Situationen. Wenn man den Grenzbereich im Scope nicht trifft mit
    der Aunahme, dann muss man die Luminanz halt händisch anpassen
    was geht wenn man nicht total daneben belichtet hat.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Ok, danke.

    Das hatte ich mir aber auch schon so gedacht. Und es hätte anders auch nicht wirklich Sinn gemacht.


    Also ist es in Resolve vom Prinzip her auch wie in Edius. Lediglich die "Hilfslinie" für eine beabsichtigte Begrenzung ist in Edius nicht möglich.

    Ich habe mich da inzwischen in Edius und den PCC recht gut eingearbeitet und komme mit den Mitteln die Edius mir bietet auch sehr schnell zu einem guten Ergebnis.


    Richtig ist natürlich, dass man auch (oder grade?) bei HDR sehr auf eine korrekte Belichtung achten sollte. Aber das ist ja nun unabhängig vom verwendeten NLE, sondern betrifft eher die Kamera , bzw. den Umgang damit. Bei meiner BMD Pocket 6K habe ich da zwar durch das BRAW-Material einen größeren Spielraum, aber letztlich kann halt nichts eine von vornherein "stimmige" Aufnahme ersetzen. Zum Glück bietet mir da die 6K mit ihren Werkzeugen (Histogramm, Falschfarbendarstellung, Focus Assistent) auch sehr gute Beurteilungsmöglichkeiten.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro