UHD Workflow PXW-Z100/FDR-AX1 XAVC CatalystBrowse-Edius 7.4x Merkwürdigkeiten

  • Wolfgang,


    habe Deinen Vorschlag ausprobiert.
    Anlage 1: File aus der Z100 in Edius
    Anlage 2: Gleiche File in CatalystPrepare Lift+Gain nach unten verschoben und gerendert und dann in Edius angezeigt


    Ich habe deutlich gesehen wie der Luma Anteil 235...255 unter die 100% Linie gerutscht ist - was Anlage 2 ja auch bestätigt.
    Ich denke daraus darf man folgende Schlüsse ziehen:


    1. Das Signal aus der Z100 beeinhaltet in der Automatic Einstellung den Bereich 0 - 255.
    2. Die Automatic Einstellung erzeugt einen zu hohen Luma Wert (Zebra).


    Damit sind die Ergebnisse die ich aus diesem Thread ziehen wollte m.E. erreicht.


    Danke an alle für die Hilfestellung.

  • Gut, denn damit hast du auch für dein Material gezeigt dass bei der Z100 Superweiss vorhanden ist, und der Catalyst Prepare das mal zumindest so einliest ohne gleich zu clippen.


    Die Frage, die sich stellt ist jetzt die nach dem von dir gewünschtem workflow. Denn entweder importierst das Material komplett in den Catalyst, justierst dort den Luma-Umfang auf 16..235, renderst das raus und fährst mit 16..235 in Edius weiter. Oder du behältst den gesamten Umfang von 0..255 bei. Deine Wahl.

  • Wolfgang,


    natürlich will ich nach Möglichkeit 0-255 erhalten.
    Den Catalyst Browse/Prepare wollte ich zur Farbkorrektur benutzen(zu nicht mehr) - ich habe da noch eine Merkwürdigkeit in diesem Zusammenhang festgestellt - muss ich aber erst noch verifizieren ob ich mich da geiirt habe.
    Also Dank nochmal auch an Dich - hat mir geholfen.
    Und Edius ist doch ein tolles System mit dem man andere Systeme "challengen" kann.

    Gruss
    Jürgen
    _______________________________________________________________________________________________________________________
    Triple Boot:Win10 Pro/I7-5930K/GTX 780/SSD-RAID/Intel X550 10GbE/BMD 4K Extreme 6G/32 GB RAM/

    Triple Boot:Win10 Pro/I7-6950X/GTX 1080/SSD-RAID/HDD-RAID/BMD 4K Extreme 12G/2 x 10GbE/64 GB RAM

    both on:10Gbps Media sharing Network, 10Gbps NAS

  • Ich habe deutlich gesehen wie der Luma Anteil 235...255 unter die 100% Linie gerutscht ist - was Anlage 2 ja auch bestätigt.
    Ich denke daraus darf man folgende Schlüsse ziehen:


    1. Das Signal aus der Z100 beeinhaltet in der Automatic Einstellung den Bereich 0 - 255.
    2. Die Automatic Einstellung erzeugt einen zu hohen Luma Wert (Zebra).

    Zu Punkt 2. muss man sagen NEIN!
    Wenn das XAVC Material nicht als Full Range geflagt ist, interpretiert es Edius auch nicht als solches.
    Daher wird der Clip Range auch nicht auf IRE 100 gemappt. Hier muss man händisch mit einer einfachen
    YUV-Korrektur nachsteuern, dann verschwinden auch die Zebra-Anteile, denn Zebra wird für Werte über
    100 IRE signalisiert. Wenn es nach der Korrektur noch klippt, dann wurde bei der Aufzeichnung zu hoch
    ausgesteuert und Anteile brennen einfach aus (Stichwort Blende, ISO, Weißabgleich).
    Daher bei 10bit lieber etwas "flat" aufzeichnen.


    Für mich zeigt das ganze Szenario, man muss bezüglich des Luma-Umgfangs für Edius gar nichts vorweg
    nehmen. Das kann man in Edius sehr gut mit einem YUV-Preset anpassen.


    Jim

  • jim,


    sieh Dir doch noch mal den Beitrag Nr.: 6 an - Deine Beiträge waren doch schon von Anfang an klar.
    Warum schreibst Du immer wieder das gleiche - das trägt nichts zur Lösung der Fragen bei.

    Gruss
    Jürgen
    _______________________________________________________________________________________________________________________
    Triple Boot:Win10 Pro/I7-5930K/GTX 780/SSD-RAID/Intel X550 10GbE/BMD 4K Extreme 6G/32 GB RAM/

    Triple Boot:Win10 Pro/I7-6950X/GTX 1080/SSD-RAID/HDD-RAID/BMD 4K Extreme 12G/2 x 10GbE/64 GB RAM

    both on:10Gbps Media sharing Network, 10Gbps NAS

  • natürlich will ich nach Möglichkeit 0-255 erhalten.


    Wenn du das willst, dann würde ich den Catalyst Prepare (ich habe verstanden dass du den hast, nicht die Gratis Version); also dann würde ich den Catalyst Prepare zur Farbkorrektur einsetzen - denn die Einstellmöglichkeiten sind dort durchaus gut. Und NICHT den Luma-Umfang auf 0% bis 100% anpassen (was ungewöhnlich ist, da man meist erst die Lumakorrektur und dann die Farbkorrektur macht). Wenn du dann aus dem Catalyst raus renderst hast du Superweiß und Superschwarz für den Import in Edius erhalten. Dazu mehr unten *)


    Den Catalyst Browse/Prepare wollte ich zur Farbkorrektur benutzen(zu nicht mehr) - ich habe da noch eine Merkwürdigkeit in diesem Zusammenhang festgestellt - muss ich aber erst noch verifizieren ob ich mich da geiirt habe.


    Sollte eigentlich gehen - aber welches Merkwürdigkeiten hast du den fest gestellt?


    Und Edius ist doch ein tolles System mit dem man andere Systeme "challengen" kann.


    Definitiv ist Edius das! Edius hat eine durchaus robuste Technologie - und das ist viel wert. Ich sage es gerne immer wieder - Edius hat erstaunlich wenig bugs - und auch das sit viel wert. Da es aber schon aufgrund des Entropiegesetzes die absolut fehlerfreie Software nicht geben kann, finden sich natürlich sehr wohl einige wenige bugs. Damit kann man aber im Regelfall leben.


    Zu Punkt 2. muss man sagen NEIN!


    Zu diesem Punkt würde ich auch genauer fragen wollen wie er gemeint war. Denn Die Kamera zeichnet halt über 235 auf - bis 255. Wenn das gemeint war dann hat Jürgen recht. Aber sie zeichnet wohl nicht über 255 auf - sondern dann clipt sie.




    *) Jim geht davon aus dass man unbedingt auf 16..235 kommen MUSS. Klar, das kann man machen - durchaus auch in Edius wie auch in jeder anderen NLE. Es ist nur vielleicht so dass man eben Sußerweiß erhalten WILL. Das ist eine Entscheidung die jeder für sich selbst fällen muss. Wenn ich mir diese Entscheidung offen halten will, muss ich folgerichtig aus dem Catalyste 0..255 ausgeben lassen - und eventuell erst in Edius auf 16..235 gehen. Denn was im workflow Catalyste -> Edius auf der ersten Stufe schon weggeschnitten wird, das fehlt mir halt auf der zweiten Stufe.

  • Zu diesem Punkt würde ich auch genauer fragen wollen wie er gemeint war. Denn Die Kamera zeichnet halt über
    235 auf - bis 255. Wenn das gemeint war dann hat Jürgen recht. Aber sie zeichnet wohl nicht über 255 auf -
    sondern dann clipt sie.

    Mein NEIN bezog sich darauf, dass der LUMA Data Wert eben nicht zu hoch ist, wenn die Kamera für den Bereich
    16-255 von SONY selbst spezifiziert wurde. Und der LUMA Data Wert ist auch nicht zu hoch, wenn man damit in Edius
    arbeiten möchte. Die Kamera klippt halt unter Umständen, wenn der automatische Wert an den realen Bedingungen
    bemessen nicht falsch bestimmt wurde. Daher würde ich bei 10 Bit immer etwas "flach" mit manuellen Einstellungen
    drehen. Und ich gehe davon aus, dass Jürgen das auch lieber so macht. Ich denke, ich habe Jürgen dahingehend
    nicht verstanden, dass es ihm darum ging, zu verifizieren, ob die Kamera sinnvolle Automatikwerte findet.


    Zitat

    *) Jim geht davon aus dass man unbedingt auf 16..235 kommen MUSS. Klar, das kann man machen - durchaus
    auch in Edius wie auch in jeder anderen NLE. Es ist nur vielleicht so dass man eben Sußerweiß erhalten WILL.
    Das ist eine Entscheidung die jeder für sich selbst fällen muss. Wenn ich mir diese Entscheidung offen halten
    will, muss ich folgerichtig aus dem Catalyste 0..255 ausgeben lassen - und eventuell erst in Edius auf 16..235
    gehen. Denn was im workflow Catalyste -> Edius auf der ersten Stufe schon weggeschnitten wird, das fehlt
    mir halt auf der zweiten Stufe.

    Prinzipiell kann das natürlich jeder selbst entscheiden, hier muss man aber nur schauen, dass man eine NLE findet,
    die sich bereitwillig gegen sinnvolle Normen richten lässt. XAVC Material kann prinzipiell mit Full Range in die Edius
    Timeline gelegt werden, und es kann auch z.B. unkorrigiert "Full Range" nach HQX AVI ausgespielt werden, ohne
    dass dabei die Spitzen verloren gingen. Du wirst es auf dem Monitor nur eben nicht bei der Farbkorrektur
    angezeigt bekommen, da Edius den Arbeitsfarbraum "Legal Range" in der Preview auf RGB für die Ansicht spreizt.
    Wenn man sich ganz bewusst nicht innerhalb der Spezifikationen von Edius bewegen möchte, sollte man sich doch
    besser einfach eine andere Anwendung suchen. Wer unbedingt an den allgemein verbindlichen Standards und
    Normen vorbei operieren möchte, für den ist Edius einfach nicht die richtige NLE. So ehrlich muss man das auch
    sagen. Edius macht im Rahmen seiner und der Spezifikationen der EBU und ITU alles richtig und arbeitet zuverlässig
    und zeigt auch dementsprechend die korrekten Werte im Vektorscope an. Das Material wird entsprechend seiner
    Signalisierung so behandelt.


    Was den Catalyst angeht, so wird das Messinstrument immer den vorgewählten Farbraum, passend zum Clip anzeigen.
    Es wird offensichtlich nicht der reine IRE Wert repräsentiert sondern 100% stehen dem möglichen Farbumfang des
    zu bearbeitenden Quellclips gegenüber. Vergleicht man die Anzeige des Vectorscope in Catalyst mit der Anzeige in
    Edius, vergleicht man meiner Meinung nach Äpfel mit Birnen.


    Jim

  • Wenn man sich ganz bewusst nicht innerhalb der Spezifikationen von Edius bewegen möchte, sollte man sich doch
    besser einfach eine andere Anwendung suchen. Wer unbedingt an den allgemein verbindlichen Standards und
    Normen vorbei operieren möchte, für den ist Edius einfach nicht die richtige NLE. So ehrlich muss man das auch
    sagen. Edius macht im Rahmen seiner und der Spezifikationen der EBU und ITU alles richtig und arbeitet zuverlässig
    und zeigt auch dementsprechend die korrekten Werte im Vektorscope an. Das Material wird entsprechend seiner
    Signalisierung so behandelt.


    Ich kann es nicht mehr hören - warst Du zu einem Gebetsmühlenkurs in Tibet - hat nie jemand in Frage gestellt.
    Ich war schon bei Edius als es Dich in diesem Forum noch garnicht gab.
    Aber ich lasse mir meine Kreativität durch keine Denkverbote von Dir einschränken.

    Gruss
    Jürgen
    _______________________________________________________________________________________________________________________
    Triple Boot:Win10 Pro/I7-5930K/GTX 780/SSD-RAID/Intel X550 10GbE/BMD 4K Extreme 6G/32 GB RAM/

    Triple Boot:Win10 Pro/I7-6950X/GTX 1080/SSD-RAID/HDD-RAID/BMD 4K Extreme 12G/2 x 10GbE/64 GB RAM

    both on:10Gbps Media sharing Network, 10Gbps NAS

  • Ich habe derart stoischen Unverstand seit Jahren nicht mehr erlebt.
    Da wird einerseits als Pixel Peeper auf Perfektion getrimmt, die aus heutiger
    Sicht und Praxis überzogen anmutet, andererseits aber auf XAVC als
    Intermediate Codec gesetzt, der nachweislich miesere Generationskopien
    liefert, als viele andere zur Verfügung stehenden Codecs.
    Und vielleicht belichtest du dein Material einfach nicht über, dann brauchst
    du auch deine Workflows nicht immer wieder in Frage stellen.
    Erstaunlich, dass du deine Kreativität dadurch bedroht fühlst, weil andere auf die
    Einhaltung von Standards pochen. Da hört's auf! Sorry!
    So wie du meine Kommentare nicht erträgst, kann ich das unterschwellige Gejammere
    über "Qualitätsverluste" auf diesem Niveau (Endformate) nicht mehr ertragen,
    weil da einer dem anderen immer wieder einen Floh ins Ohr setzt.


    In diesem Sinne, frohes Schaffen!


    Jim

  • Was den Catalyst angeht, so wird das Messinstrument immer den vorgewählten Farbraum, passend zum Clip anzeigen.
    Es wird offensichtlich nicht der reine IRE Wert repräsentiert sondern 100% stehen dem möglichen Farbumfang des zu bearbeitenden Quellclips gegenüber.


    Mit welchen Materialproben hast du den den Catalyst vermessen? Oder ist das eine Einschätzung?


    Wie er sich bei mir verhält habe ich eh beschrieben - mit XAVC.


    andererseits aber auf XAVC als Intermediate Codec gesetzt, der nachweislich miesere Generationskopien liefert, als viele andere zur Verfügung stehenden Codecs.


    Naja, eine weitere Rendergeneration bei H.264 Material muss noch nicht die große Katastrophe sein - vor allem da auch das Umrendern zu einem gehobeneren Intermediate Codec ala Cineform oder Canopus HQ(X) auch gerade beim Schritt des ersten Umrenderns Noise einbringt - erst über weitere Rendergenerationen sind die Verluste dann sehr gering. Aber natürlich könnte man auch einen workflow wählen wo man alle Schritte gleich in Edius der der NLE seiner Wahl durchführt. Der Cutter hat hier ja die Wahl.

  • Mit welchen Materialproben hast du den den Catalyst vermessen? Oder ist das eine Einschätzung?


    Wie er sich bei mir verhält habe ich eh beschrieben - mit XAVC.


    Hallo Wolfgang,
    den Catalyst kann ich natürlich nicht vermessen. Der funktioniert nach seinen eigenen Spezifikationen.
    Ich muss dazu leider sagen, dass ich am Wochenende keinen Aktivierungscode generieren lassen konnte und daher die Software nur noch
    von der IBC letzten Jahres kenne, auf der ich mir einiges erklären ließ, was ich aber schon wieder vergessen haben. Ich stütze aber meine
    Annahme auf die nachfolgenden Tatsachen und Indizien.
    Mit den Erfahrungen aus Vegas gehe ich davon aus, dass 100% immer in einem Kontext steht. Bei Vegas ist das der Projekttypus und beim
    Catalyst vermutlich eher der Clip, denn aus der Perspektive des Catalysts gibt es kein Projekt, es macht nur Sinn, die Messungen allein auf
    den Clip bezogen durchzuführen, während in einer NLE das Konforming auf den jeweiligen Projekttypus ausgerichtet ist. Mit dem Quell- und
    Zielfarbraum kann man dem Catalyst offensichtlich Farbräume und Interpretationsmöglichkeiten zuweisen, um Clips in ein entsprechendes
    Zielprofile zu konvertieren.


    Jim

  • Ich glaube genau so ist es.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • den Catalyst kann ich natürlich nicht vermessen. Der funktioniert nach seinen eigenen Spezifikationen.


    Mit Testclips kann man sich das Verhalten durchaus immer ansehen. XAVC nach Rec709 wird als Rec709 erkannt und gut ist es.


    denn aus der Perspektive des Catalysts gibt es kein Projekt,


    Nein aber spezifische clips die in einem Farbraum interpretiert werden, gegbenfalls im Quellraum umstellbar sind, und auch im Ausgabefarbraum gegebenfalls justierbar sind.


    während in einer NLE das Konforming auf den jeweiligen Projekttypus ausgerichtet ist.


    Nein, das ist nicht in allen NLEs so gelöst. Vegas etwa ist in einem 32bit floating point full range Projket recht änlich - da kann man die Anzeigentransformation auf Projektebene einstellen, und auch für einzelne Clips den Farbraum. So gesehen hat Vegas durchaus ähnlichkeit mit dem Catalyst. Bei XAVC, aufgenommen mit der hier diskutierten Z100, braucht man das alles nicht - da ist der Farbraum 709 und gut ist es. Und dadurch ändert auch der waveform-Monitor seine Punkte nicht.


    Edius in seiner aktuellen Version ist hier offenbar vom Konzept her anders gestrickt.


    Mit dem Quell- und
    Zielfarbraum kann man dem Catalyst offensichtlich Farbräume und Interpretationsmöglichkeiten zuweisen, um Clips in ein entsprechendes Zielprofile zu konvertieren.


    Ja allerdings sind das Eigentschaften die ein Jürgen für seine Z100 clips nicht braucht. Die sind in Rec709 und werden in Rec709 ausgegeben und haben ja keiin S-Log. So gesehen bringt das in dieser aktuellen Diskussion wenig und verwirrt mehr als es nützt.

  • Mit Testclips kann man sich das Verhalten durchaus immer ansehen. XAVC nach Rec709 wird als Rec709 erkannt und gut ist es.

    Kann ich nicht, ich kann die Testversion des Catalyst bisher nicht aktivieren. Ist auch wurscht,
    da ich Vegas testen durfte, und das Verhalten des Vectorscopes im Catalyst als prinzipiell ähnlich
    annehme, und sich dort nur der Kontext ändert, brauche ich nicht groß zu testen. Für mich ist evident,
    was das Vectorscope in Vegas repräsentiert.
    Bei so viel interpretationsfehlern bestimmter Codecs in Vegas, wundere ich mich schon, wie man
    davon ausgehen kann, dass Edius falsch liegt, weil man glaubt, dass in Vegas (oder Catalyst) etwas richtig
    läuft. Einen solchen Argumentationsaufbau kenne ich schon aus dem Bereich der Esoterik.
    Im Übrigen wird in After Effects zwischen den Farbräumen Rec.709 16-235 und Rec.709 0-255 aus gutem
    Grund sauber unterschieden. Gibt es das auch in Vegas oder dem Catalyst?


    Nein aber spezifische clips die in einem Farbraum interpretiert werden, gegbenfalls im Quellraum umstellbar sind, und auch im Ausgabefarbraum gegebenfalls justierbar sind.

    Kannst du lesen? Genau deshalb schrieb ich von C-L-I-P-S !!!! Ist da irgend etwas unklar?
    Das ist vergleichbar mit Grafiken, die in CMYK erstellt wurden und nach RGB konvertiert werden müssen.
    Anderes habe ich nicht ausgesagt. Keine Ahnung, wozu dein Kommentar jetzt noch notwendig war, um
    letztlich auch nur das Gleiche festzustellen?

    Nein, das ist nicht in allen NLEs so gelöst. Vegas etwa ist in einem 32bit floating point full range Projket recht änlich - da kann man die Anzeigentransformation auf Projektebene einstellen, und auch für einzelne Clips den Farbraum. So gesehen hat Vegas durchaus ähnlichkeit mit dem Catalyst. Bei XAVC, aufgenommen mit der hier diskutierten Z100, braucht man das alles nicht - da ist der Farbraum 709 und gut ist es. Und dadurch ändert auch der waveform-Monitor seine Punkte nicht.


    Edius in seiner aktuellen Version ist hier offenbar vom Konzept her anders gestrickt.

    Natürlich ist das in jeder NLE so. Ist der Projekttyp auf z.B. Full Range eingestellt, muss auch dahingehend
    dein Clip per Farbkorrektur oder YUV Kurve oder per Interpretation angepasst werden. Dein Vektorscope
    signalisiert dir, ob du dich im dem für den jeweils ausgewählten Projekttypus im charakteristischen Bereich
    befindest. Und auch in einem 32bit floating point full range Projekt muss der Clip die Projektlevels erreichen.
    Ich weiß gar nicht, woher der Irrglaube kommt, dass "Floating Point" angeblich hieße, man bräuchte keine Clips
    mehr an den Arbeitsfarbraum und der entsprechenden korrespondierenden Luma-Range anzupassen.
    Edius arbeitet in diesem Punkt genau wie jede andere NLE auch: Die Clips müssen auf Projektlevel hoch oder
    runter geschraubt werden, wenn sie nicht dem Projektprofil entsprechen oder nicht entsprechend erkannt werden
    können, weil z.B. die Luma Range nicht eineindeutig signalisiert wird. Der einzige Unterschied ist, dass Edius eben
    nur einen einzigen Projekttypus kennt.
    Du wärest der Erste, der mir sagt, dass es NLEs gibt, in denen man das nicht so agieren müsse.


    Im Übrigen suche ich in Vegas bis heute eine sinnige Möglichkeit, den Farb- und Lumaumfang zur Not auch einem
    Clip manuell zuzuweisen zu können, so wie man das z.B. auch in After Effects machen kann. Da es das nicht gibt,
    muss man eben mit dem YUV Filter ran, wenn etwas nicht passt. Ähnlich ist das auch mit Edius, da der Schalter
    für die Interpretation von "Weiss" / "Superweiss" leider für viele Dateitypen ausgegraut ist oder einfach nicht
    funktioniert.

    Ja allerdings sind das Eigentschaften die ein Jürgen für seine Z100 clips nicht braucht. Die sind in Rec709 und werden in Rec709 ausgegeben und haben ja keiin S-Log. So gesehen bringt das in dieser aktuellen Diskussion wenig und verwirrt mehr als es nützt.

    Für das grundsätzliche Verständnis "WOHER KOMME ICH? WOHIN WILL ICH?" --> Stichpunkt Farbraumkonvertierungen
    schon. Natürlich könnte er die Möglichkeiten des Catalyst im Einzelfall auch mal benötigen. Ich weiß ja nicht, was dort
    als Zielfarbraum noch alles möglich ist. Aber es wäre durchaus denkbar, Inhalte bei gleichzeitigem Resize (geht das in
    Catalyst?) auch nach Rec601 auszuspielen. Oder TIFF Sequenzen, die gleich in den DCI-konformen XYZ Farbraum bei 16
    bit exportiert werden. Es ist ein Segen, dass man sowohl Quell, als auch Zielfarbsystem manuell definieren kann.



    Ich verstehe deinen Punkt bezüglich der angeblichen Verwirrung überhaupt nicht.
    Die eingehende Frage war, wie sich der gemessene Unterschied beim Vergleich von Messwerten des Vectorscopes
    im Catalyst und den Messwerten des Vectorscopes in Edius begründen lässt. Hier sehe ich überhaupt erst eine Gefahr
    der Verunsicherung. Das bisher zuverlässige Tool wird in seiner Zuverlässigkeit unbegründet in Frage gestellt.


    Jim

  • Zitat

    Das bisher zuverlässige Tool wird in seiner Zuverlässigkeit unbegründet in Frage gestellt.


    Ob da eine Absicht dahinter steckt, es zieht sich ja durch mehrere Foren durch?

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • TEIL-A


    Ich habe in Edius - unter einem HD-Projekt - 4 Farbmatten generiert (// Hier zeigen sich meine Grenzen bzgl. Deutsch auf: Die Mehrzahl von Farbmatte heißt Farbmatten oder Farbmattes oder ...; nicht einmal Bastian Sick hilft mir da weiter)
    Die Screenshots zeigen die Werte an, die das Vectorscope in Edius präsentiert für (von links nach rechts): Schwarz-0, Schwarz-16, Weiß-255 und Weiß-235.


    Schwarz-0:
    IRE = -7,31 (also unter der Null-Linie)
    R=G=B=0
    Y=0


    Schwarz-16:
    IRE = 0 (also an der Null-Linie)
    R=G=B=16
    Y=64 (denn für HD gilt: 16 x 4 = 64)


    Weiß-255:
    IRE = 109,13 (also über der 100er-Linie)
    R=G=B=255
    Y=1020 (denn für HD gilt: 255 x 4 = 1020)


    Weiß-235:
    IRE = 100 (also an der 100er-Linie)
    R=G=B=235
    Y=940 (denn für HD gilt: 235 x 4 = 940)



    Unter einem SD-Projekt sind die angezeigten Werte entsprechend (richtig).


    Fortsetzung folgt - kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-18.6.6.0007 Studio

  • Fortsetzung von Post 76:


    TEIL-B


    Als nächsten Schritt habe ich mit meiner Kamera den intern generierbaren
    Farbbalken
    mit Ton aufgezeichnet und mir in Edius mittels Vectorscope
    Schwarz und Weiß anzeigen
    lassen. Ergebnis:

    Schwarz-16
    :
    IRE = 0 (also an der Null-Linie)
    R=G=B=16
    Y=64 (denn für HD gilt: 16 x 4 = 64)


    Weiß-235:
    IRE = 100 (also an der 100er-Linie)
    R=G=B=235
    Y=940 (denn für HD gilt: 235 x 4 = 940)



    ERGEBNIS aus Teil-A und Teil-B


    1) Edius zeigt mit dem Vectorscope im Bereich 0 bis 100 die Luminanzwerte 16 bis 235 an.


    2) Meine Kamera generiert den Farbbalken mit Luminanzwerten von 16 bis 235. Dieser Clip kann also für entsprechende Einstellungen (Monitor, TV) benutzt werden.


    3) Frage, welche Luminanzwerte kann meine Kamera beim Filmen aufnehmen:
    Die Analyse einer Reihe von Clips aus meiner Kamera (mit Edius-Vectorscope) hat Folgendes ergeben:
    - Werte oberhalb 940 wurden angezeigt. Bisher gefundenes Maximum war 1016 (was 254 entspricht. Diese Werte über der 100er-Linie im Vectorscope werden als Zebra angezeigt).
    Daher vermute ich, dass meine Kamera Helligkeitswerte bis 255 aufzeichnen kann.
    - Werte unterhalb 16 habe ich bisher keine gefunden. Dies könnte darauf hindeuten, dass meine Kamera keine Helligkeitswerte unter 16 aufzeichnet.
    - Vermutung: Meine Kamera (Canon HFS11) zeichnet im Luminanzbereich 16 bis 255 auf.


    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-18.6.6.0007 Studio

  • Tut mir leid, aber Jim ich gehe auf viele deiner Punkte einfach nicht mehr weiter ein. Aus irgendeinem Grund drehst du dich ständig im Kreis. Hat dir auch Jürgen schon mehrfach gesagt. Verstehe ich nicht, muss ich auch nicht verstehen.


    Wenn du Edius etwas vorhalten willst dann halte das dem Entwicklungsteam von Edius vor - wie den umschaltbaren aber nicht funktionalen Luma-Range. Wenn du Vegas was vorhalten willst dann mach das bei dem SCS-Entwicklungsteam von Vegas. Es tut mir leid, die Werkzeuge sind unterschiedliche, sie haben unterschiedliche Einstellmöglichkeiten - manchmal muss man die halt suchen wenn man sie umstellen muss (in Vegas etwa ist das in den Eventattriuten gelöst), in Projekteinstellungen ist der Luma-Range weder in Vegas noch in Edius einstellbar.


    Also was willst von mir hören? Gefühlsmäßige Duselein mit "Esoterik" oder "Diskreditierungs-Vorwürfen" helfen keinem Menschen weiter. Es war die Verwirrung von Jürgen über unterschiedliche Anzeigen die diesen Thread gestartet haben. Ich kann da auch nichts dafür - und Untergriffe bringen jede fachliche Diskussion ohnedies um. Wenn du also in dieser Diskussion hier eine Diskreditierung von Edius siehst - dann zeig mir die Stelle wo das passiert ist. Und wenn analytisch weniger bewanderte Geister das dann aufgreifen wirds überhaupt tief:


    Ob da eine Absicht dahinter steckt, es zieht sich ja durch mehrere Foren durch?


    Lieber Pee, Verdächtigungen und unterschwelligen Stichelein dieser Art sind eine ziemliche Sauerei. Mehr hast nicht drauf? :lol:


    Die Differenz zu einer Anzeige im Catalyst Prepare wurde explizit von mir mit dem klaren Abschneiden der Waveform-Darstellung im Catalyste heraus analysiert. Und ich war es schon wieder der dem Jürgen gesagt hat, wie er die Thematik für sich selbst nachvollziehbar analysieren kann. Und ich habe gesagt dass die auf 16..235 limitierte Anzeige des Catalyst ist dann auch ein Mangel im Catalyst und nicht von Edius. Also wenn du glaubst das diese Kritik am Catalyst eine Diskreditierung von Edius sei - tja dann kann ich nur nüchtern feststellen dass du die Diskussion offenbar nicht verstanden hast.


    Wenn du dich auf den von mir nachgewiesenen Fehler von Edius beziehst, weil Edius eben mit 0..255 Material der GH4 Probleme hat und hier die Waveform-Anzeige eben nicht diesen Lamarange korrekt anzeigt und das auch nicht umstellbar ist - tja tut mir leid. Das ist aber eben ein Faktum. Besorg dir eine GH4 und probiers selbst aus.



    Vermutung: Meine Kamera (Canon HFS11) zeichnet im Luminanzbereich 16 bis 255 auf.


    Ich finde deine Analyse sauber und genau gemacht. Finde ich gut - sich hier mal auf eigene Messwerte zu beziehen und zu verlassen. Na klar zeichnet deine Canon bis 255 auf - wie so ziemlich alle Kameras die wir als Consumer/Prosumer so verwenden. Ich hatte das weiter oben schon fest gesagt. Nur - daran ist auch nichts Schlimmes - es sei den man will unbedingt sagen dass hier der "Legal Range" verletzt wird. Nur ist das bei den meisten Kameras so. Übrigens, unter 16 wirst auch kaum was finden- der Superschwarz-Bereich wird von praktisch kaum einem Gerät aufgezeichnet. Bringt auch wenig, dort hast meist eh nur Rauschen.

  • Ja Wolfgang,
    ich bin es auch leid, deine Glaubenswelt gerade zu rücken.
    Ich werde deine Kommentare in Zukunft besser ignorieren.
    Hoffentlich sitzen nicht zu viele andere User deinem
    verqueren Weltbild auf.
    Ich musste gerade an den Geisterfahrer auf der Autbahn
    denken, der gerade die Warnung im Radio hört und der sich
    mit der gemeldeten Anzahl nicht einverstanden erklären will.


    Jim

  • Es ist schon eine ziemliche Arroganz dass du meinst mein Weltbild gerade rücken zu dürfen. Bist du der allwissende Messias?
    :lol:



    Tja, ich zeige lieber Jürgen wie er selbst den Catalyst mit einfachen Mitteln austesten kann um seine Frage und für sich zu beantworten. Du hingegen theoretisierst von deinem Weltbild und erzählst was von Produktpräsentionen statt mal die Dinge selbst zu testen.


    Wie sehr du damit den Jürgen als Hilfesuchenden nervest hat er dir eh gesagt. Aber du kannst ja auch das einfach ignorieren.