Für neuen 4K OLED TV – sinnvoll Projekt in 10 Bit nochmals ausgeben?

  • Kurt, seit wann zeigt ein Vectorskope den Unterschied zwischen 8 und 10bit an? Das was man da sieht ist ein wenig Streuung/Dithering. Sowas kann den Bildeindruck aber tatsàchlich verbessern, wenn etwas lästiges banding so teilweise versteckt werden kann. Also ja, wenn du willst dann hilft das.


    Überseht nicht, dass der H.264 codec erst im high Profil 10bit fähig ist. Und das ist (vermute ich) in Edius nicht implementiert. Wenn es 10bit im Ausgabeformat sein soll, dann bitte zu einem codec ausgeben der das kann (Canopus HQX, XAVC I, uncompressed etwa).

  • Kurt, seit wann zeigt ein Vectorskope den Unterschied zwischen 8 und 10bit an?

    Ich versuche zu erklären, wie der Vergleichstest genau durchgeführt wurde:
    1) Allgemein: Ich verwende das Vectorscope - im Zusammenhang mit dem Effekt Keyers > Blend > Difference - um zwei (vom Bildinhalt her identische) Clips zu vergleichen.
    2) Im gegenständlichen Fall wurde zunächst der Quell-Clip einmal aus einem 8bit-Projekt als HQX-Superfein und im anderen Fall aus einem 10bit-Projekt ebenfalls als HQX-Superfein exportiert.
    3) Die beiden exportierten Clips ("E-Clips") wurden in einer Timeline übereinandergelegt.
    4) Auf den oberen E-Clip wurde in die Mixerspur der unter 1) erwähnte Effekt gelegt.
    5) Im Vectorscope wird dann die verbleibende Differenz-Bildinformation (der Unterschied der beiden Clips) angezeigt.
    6) Den Unterschied kann man auch im REC-Fenster sehen, wenn man etwa mittels Doppelklick das REC-Fenster auf den ganzen Monitor vergrößert.


    Im Vectorscope ist diese Differenz als grüner Balken zu sehen. Je breiter dieser Balken, desto mehr unterscheiden sich die verglichenen E-Clips.
    Falls beide E-Clips "identisch" wären, würde das Vectorscope überhaupt keinen Balken anzeigen (lässt sich leicht nachvollziehen).
    Vergleicht man etwa vom Quell-Clip einen h.264-Export mit einem HQX-Export, dann zeigt das Vectorscope naturgemäß einen breiteren Balken (=größere Bildabweichung) an, wie das angehängte Bild-2 zeigt. Bild-1a zeigt den Bildunterschied im REC-Fenster (grüne "Flecken").


    Worauf der unter 6) angeführte Unterschied letztlich zurückzuführen ist, kann ich mangels anderer, geeigneterer Tools, nicht sagen.
    Mit Sicherheit ist aber ein qualitativer, messbarer, Unterschied vorhanden, der nur dem Umstand zugeschrieben kann, dass einmal der Quell-Clip aus einem Edius-8bit-Projekt und das anderemal aus einem Edius-10bit-Projekt exportiert wurde, da sonst keinerlei Parameter verändert wurden. Visuell wird man vermutlich den Unterschied am TV nicht erkennen (vermute ich).


    Da ich mit den o.a. 6 Punkten den Testaufbau genau beschrieben habe, kann jeder Interessierte (mit beliebigen Quellclips) den Test selbst nachvollziehen. Da es in den Edius-Foren ja genügend Experten gibt, wird es vielleicht dazu die eine oder andere Meinung geben. Wäre zumindest interessant.


    PS:
    a) Mir fällt eben ein, dass vielleicht insofern folgendes Missverständnis vorliegt: "...Vectorskope den Unterschied zwischen 8 und 10bit an?"
    Ich habe nicht den Unterschied von Clips, aufgenommen mit 8 bzw. 10 bit dargestellt, sondern (nur) den Unterschied zweier Clips, entstanden durch Edius-Export aus einem 8bit- bzw. 10-bit Projekt.
    b) Stellt man im Vectorscope die Schaltfläche SHADE (statt LINE) ein, dann ergeben sich die Bildunterschiede statt als grüner Balken wie in Bild-4 bzw. Bild-5 gezeigt:
    Bild-4: Vergleich der beiden HQX-Exporte (aus 8bit bzw. 10bit-Projekt).
    Bild-5: Vergleich HQX- mit h.264-Export (derselbe Quellclip, dieselbe Projekteinstellung).
    // Solange in diesem Fall ein "weißer Fleck" zu sehen ist, weisen die E-Clips Unterschiede auf.


    Gruß kurt

  • Hi Kurt,


    danke für die ausführliche Darstellung.
    Interessant finde ich Dein Bild 1a, da es zeigt wie sich die Unterschiede im (Einzel-)Bild zusammensetzen. Könntest Du dazu evtl. noch ein Standbild nachreichen um die Differenzbereiche abschätzen zu können?


    Oder, was natürlich etwas aufwändig wäre, über das Standbild das Bild 1a als Ebene mit geringer Deckkraft legen. Dann könnte man die Differenzbereiche direkt im Bild erkennt.
    Solange das Standbild nicht allzu dunkle Bereiche hat, sollte das klappen.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo gurlt:

    Könntest Du dazu evtl. noch ein Standbild nachreichen um die Differenzbereiche abschätzen zu können?


    Oder, was natürlich etwas aufwändig wäre, über das Standbild das Bild 1a als Ebene mit geringer Deckkraft legen. Dann könnte man die Differenzbereiche direkt im Bild erkennt.
    Solange das Standbild nicht allzu dunkle Bereiche hat, sollte das klappen.

    Das Bild-1a habe ich nicht mehr. Wurde aus einem bestimmten Frame des Clips produziert, dessen Position ich natürlich auch nicht mehr weiß.


    Aber ich kann vom Clip das nachproduzieren, diesmal mit dem ersten Frame (da merke ich mir die Position :) )
    Werde sehen, was sich max. machen lässt.
    Wird ein bisschen dauern.
    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.10.13903-WG; RESOLVE-18.6.6.0007 Studio

  • Wird ein bisschen dauern.


    Das ist ja nicht schlimm.


    Mich würde halt interessieren, ob man erkennen kann, wo diese Differenzen auftreten (z.B. bei starken Farb- oder Helligkeitsunterschieden?).
    Natürlich ist mir dabei schon klar, dass diese Berechnung insbes. auch stark durch die Verwendung von Filtern oder Übergängen beeinflusst wird. Aber evtl. ist ja ein grundsätzliches "Muster" zu erkennen.


    Danke für Deine Mühe.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo gurlt:


    Die Ergebnisbilder (tif) sind zu groß, um sie hochladen zu können. Ich habe sie daher in einen zip-Ordner gepackt (Rikki.zip) und in DropBox zur verfügung gestellt.
    Downloadlink:


    https://www.dropbox.com/s/xix0eb1tts8nq5a/Rikki.zip?dl=0


    Anmerkungen:
    1) Rikki-Source.tiff: Originalbild von der Position 19:00 (mit den erwähnten 5 Effekten!); // der Originalclip wurde mit Canon HF-G40 WDR (wide dynamic range) aufgenommen.
    2) Rikki-Diff 10_8.tiff: Differenzbild (10bit- vs 8bit-Projektexport)
    3) Rikki-Diff 10_8-overlay.tiff: Der von Dir gewünschte Overlay von 1) und 2): Dazu musste das Bild von 2) mit Farbabgleich verstärkt werden (Sättigung := +100, Helligkei := +30), um einen
    vernünftigen optischen Overlay zu erhalten. Wenn man allerdings das Bild von 2) ebenso behandelt, erkennt man das Originalbild einigermaßen auch direkt.
    4) Rikki-Diff 10_8-verstärkt.tiff: Differenzbild lt. 2), verstärkt gemäß 3)


    5) Wird der Vergleich OHNE jedweden Effekt auf dem Quellclip durchgeführt, dann ist das Differenzbild sehr schwach und besteht nur aus nadelstichartigen Punkten; gibt also
    zwar auch eine Differenz, die ist aber marginalst.


    PS: Bild 1) und 3) habe ich als jpeg hier angehängt (um schnellen Eindruck zu bekommen).


    Gruß kurt
    Addendum: Die "Differenz-Rikki" als jpeg-Bild:

  • Also wenn das bei Dir "ein bisschen dauern" ist, dann weiß ich nicht wie Du "schnell" definierst. :D





    Ich würde den Vergleich so deuten, dass Unterschiede insbesondere bei hell/dunkel Übergängen vorzuliegen scheinen. Wobei es offenbar auf den Übergang ankommt und nicht darauf, ob dieser von hell > dunkel oder von dunkel > hell stattfindet.


    Deine Feststellung 5) bestätigt unsere Annahme, dass die Umwandlung vor allem dann sinnvoll sein kann, wenn neu zu berechnende Effekte auf dem Bild liegen.


    Jedenfalls (mal wieder) vielen Dank für Deine Mühe. :thumbup:


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • dann weiß ich nicht wie Du "schnell" definierst.


    "Schnell" ist bei mir das, was andere vielleicht Prävention nennen würden :prost:
    // Um allfällige Missverständnisse im öffentlichen Raum auszuschließen: Das war ein Scherz!
    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.10.13903-WG; RESOLVE-18.6.6.0007 Studio

  • :cool: applause :prost:

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • nur was ist dann die Schlussfolgerung daraus?


    Nun zuerstmal, dass an den Stellen ein Export von 8bit Material aus einem 8bit Projekt ein anderes Ergebnis bringt, als wenn man das Material mit den ansonsten gleichen Einstellungen aus einem 10bit Projekt exportiert.
    Und, - siehe Punkt 5) aus #26 von Kurt - dass bei der Verwendung von Effekten auf dem Clip, die Abweichungen im Ergebnis deutlich stärker ausfallen.


    Ob und inwieweit diese Differenzen bei der Wiedergabe über ein geeignetes Gerät mit erweitertem Farbraum für den Betrachter sichtbar sind??? - Aber zumindest sind sie technisch messbar vorhanden!!!
    Da dies aber sicherlich keine Verschlechterung der Darstellung verursachen wird, könnte sich eine Ausgabe als 10bit Variante durchaus lohnen. Zumindest eben dann, wenn im Projekt relevante Filter (Farbkorrektur o.ä.) verwendet wurden.


    Wie gesagt, kann ich ähnliches aus der Bildbearbeitung mit Photoshop bestätigen.


    Aber nochmal, es wird natürlich nie so gut wie bei tatsächlichem 10bit Material.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Wer wissen will, was es auf einem 10bit-TV bringt, der sollte mal einen Sonnenuntergang langsam ausblenden - einmal in 8 und einmal in 10 bit, jeweils schön mit den gleichen Filtern drauf.


    Bei den mindestens mal bei 8bit entstehende Bandingstreifen sollte der Unterschied gut zu sehen sein (oder eben nicht)

  • Nur bitte nicht böse sein. Aber selbst die Wahl eines anderen Encoders oder sogar einer anderen Encodereinstellung verändert das Bild, und das ist natürlich über sämtlich Differenzbildmethoden erfassbar. Das ist nur unverändert kein Beleg dass ein 10bit Export in der optischen Beurteilung besser sein muss. Wobei es besser sein kann, wenn etwa typische 8bit Bildnachteile wie etwa Banding so verschleiert werden. Aber das hängt eben vom jeweiligen Motiv ab.


    Mit Edius hat der Anwender ein sehr gutes Werkzeug für die langsam aufkommende 10bit und HDR Welt. Zielführender wäre wie schon gesagt zu überlegen gleich in 10bit zu filmen. Vielleicht wird das ja in absehbarer Zukunft preiswerter als heute (neue Speicherchips kommen, die neuen Panele fordern 10bit, auch etwa für HDR).