abgetrennt aus Edius auf der IBC -----> Primäre Farbkorrektur und Motion Tracker

    • Offizieller Beitrag

    Liebe Forumsgemeinde,


    der ibc Bericht beinhaltet sehr wohl einige neue Informationen, selbst wenn auf der Messe Anfang September die im August veröffentlichte 8.22 Version gezeigt wurde. Man hätte die Version 8.22 auch zur ibc veröffentlichen können, dann hätte man auf der ibc die News gehabt, die Entscheidung war aber gerade wegen der Probleme mit QuicTime und QuickSync hier vorab schon zu vröffentlichen, ich denke das ist sehr im Sinne des Kunden, selbst, wenn man sich marketingtechnuisch dann schlechter stellt. Warum man da nun drauf hauen muss, ist mir aber unklar. Die 8.22 hat einige deutliche technische Verbesserungen bekommen, diese hatte ich schon aufgeführt, aber man hat die Themen vielleicht schon wieder vergessen, also nochmals:


    - GV kann nun auch ohne Quicktime gut mit EDIUS arbeiten, Quicktime ist für Basisfunktionen nicht mehr notwendig
    - GV hat zusammen mit Microsoft und Intel eine Anpassung der QuickSync Treiber vorangetrieben und die Unterstützung der neuesten Treiber umgesetzt
    - GV hat LUT-Import ermöglicht - ein wahnsinnig vielseitiges Werkzeug, die gerade Matt Scott und viele andere lieben (Beitrag mit ihm folgt)
    - GV hat den HDR Farbraum implementiert und ermöglicht nun einen HDR Workflow
    - GV hat Presets für Farbraum/LOG-Konvertierungen verschiedenerer Kamera Hersteller implementiert
    - GV hat GPU Beschleunigung für den wohl wichtigsten Filter - die primäre Farbkorrektur - integriert. Warum? Weil gerade hier bei RGB Farbraumberechnungen die GPU wirklich eine deutliche Beschleunigung bringt. Also nicht GPU Unterstützung der GPU wegen, sondern mit entsprechendem Performancevorteil.
    - GV hat eine Reihe von kleineren Verbesserungen integriert, die auf User Rückmeldungen zurück gehen. Siehe Readme.


    In dieser Liste sind viele von Usern eit langem gewünschte Funktionen enthalten, wie eben LUT und GPU Support. Die Performance ist beeindruckend. Bitte einfach mal selbst testen, Hilfestellung kommt von uns in Kürze durch veröffentlichung des Beitrags von Matt Scott.


    Der IBC Beitrag berichtet zudem davon, dass die Encoding technologie von EDIUS mittlerweile Kernfuntion von Stratus ist und viele Newssender diese Technologie nutzen, um noch schneller in sozialen Medien Filme publizieren zu können (die Beiträge werden automatisch sofort über einen speziellen EDIUS Render Server encodiert). Damit ist EDIUS Kern der Kampagne von Grass Valley, das nehmlich nicht nur wie in der Vergangenheit die TV Ausstrahlung das Ziel von GV ist, sondern auch andere Geräte. Dies sorgt für eine noch wichtigere Position von EDIUS innerhalb des GV Unternehmens. (GV hat auf der Messe zudem sehr positive Zahlen präsentiert, auch das ist wichtig).
    Alex berichtet von einem High-End TV Sender in Japan, der mit EDIUS sowohl Dolby PQ als auch HLG HDR Workflows macht um Filme in HDR auszustrahlen. Wenn man bedenkt, das HDR das Thema der ibc war, halte ich das schon für berichtenswert.
    Der Ausblick auf die kommenden Funktionen rundet das ab.


    Natürlich kann ich verstehen, dass Wünsche offen bleiben. Aber bitte beachten: GV macht hier, was sie angekündigt haben. Warum der Motion Tracker kritisiert wird, ist mir auch nicht klar. Es wurde doch schon kommuniziert, dass der Tracker, so wie er nun im Masken Filter ist, erst Schritt eins ist - aber wohl gemerkt die Art von Tracking wie Sie in einem schnellen NLE wie EDIUS auch Sinn macht. EDIUS ist kein Kompositing Tool, daher hinkt auch der Vergleich mit After Effects und Co. EDIUS will schnell sein, und der Tracker ist schnell. Und die Kombination aus Tracker + Farbkorrektur oder Effektfilter ist durchaus leistungsfähig. Bitte, wenn kritisiert wird, nicht global, sondern konkret: Wo sind denn die Probleme? Auch nochmals zum Bildersupport: Wenn hundertausende EDIUS Installationen da draußen sind, ist es wirklich sinnvoll, die Engine komplett auszutauschen und dabei gleich noch neue Standards einzuführen? Besser Schritt für Schritt: Erst das vorhandene Fundament ersetzen und dann darauf ein schönes neues Haus stellen - und nicht versuchen, beides gleichzeitig zu machen. Man hat das, was QT früher gemacht hat, 1:1 ersetzt. Daher auch die Missverständnisse mit dem 10-bit Bilder Support, das ging mit Quicktime auch schon. Nur darum ging es in dem ersten Schritt.


    Ich wünsche mir auch bei den kritischen Beiträgen eine konstruktive Note: Nicht schreiben, das ist alles schlecht, sondern konkret schreiben, wo es Probleme gibt. GV wird nicht müde, EDIUS an die Anforderungen der User anzupassen. Aber konstruktiv funktioniert das nun mal sehr viel besser, als auf alles drauf zu schlagen, was sich bewegt.


    Und EDIUS ist ein Werkzeug, das für viele (wenn nicht die meisten) Anwendungen im Videobereich hervorragend geeignet ist. Perfekt ist es nicht, kann es auch nicht für jede Anwendung werden. Dennoch ist es nach wie vor anderen Anwendungen in einigen Bereichen Überlegen. Und Verbesserungen werden gerne umgesetzt. Immer nur her mit den Vorschlägen, wir besprechen diese mit GV und arbeiten gemeinsam an einem noch besseren Werkzeug. Einverstanden?


    Liebe Grüße vom wieder von der ibc zurückgekehrten Michael Lehmann-Horn...

  • Natürlich kann ich verstehen, dass Wünsche offen bleiben. Aber bitte beachten: GV macht hier, was sie angekündigt haben. Warum der Motion Tracker kritisiert wird, ist mir auch nicht klar. Es wurde doch schon kommuniziert, dass der Tracker, so wie er nun im Masken Filter ist, erst Schritt eins ist - aber wohl gemerkt die Art von Tracking wie Sie in einem schnellen NLE wie EDIUS auch Sinn macht. EDIUS ist kein Kompositing Tool, daher hinkt auch der Vergleich mit After Effects und Co. EDIUS will schnell sein, und der Tracker ist schnell. Und die Kombination aus Tracker + Farbkorrektur oder Effektfilter ist durchaus leistungsfähig. Bitte, wenn kritisiert wird, nicht global, sondern konkret: Wo sind denn die Probleme?.....
    ......Ich wünsche mir auch bei den kritischen Beiträgen eine konstruktive Note: Nicht schreiben, das ist alles schlecht, sondern konkret schreiben, wo es Probleme gibt .... Aber konstruktiv funktioniert das nun mal sehr viel besser, als auf alles drauf zu schlagen, was sich bewegt


    Hallo Herr Lehmann-Horn,


    ich wiederhole meine Kritik am Motion Tracker gerne nochmals.


    1. der M-Tracker verfolgt Objekte zu oft fehlerhaft bzw. verliert Objekte; den Track kann man dann aber auch nicht manuell korrigieren!
    Er ist selbst in der eingeschränkten "Verpixler" Funktion nicht ausgereift. Die Gründe liegen aus meiner Sicht bereits in der Konzeption, diese habe ich an anderer Stelle schon im Detail beschrieben.


    2. Dass der Motion Tracker nicht das tut, was sich eigentlich User erwartet haben, dies ist, wie so häufig bei GV, auch ein Kommunikations Problem.
    Dass User unter "Motion Tracking" etwas Anderes erwarten, sollte niemanden bei GV verwundern.
    Man hätte im Vorfeld die Einschränkungen der ersten Version klar(er) formulieren müssen, um die Erwartungshaltung einfach realistischer gestalten können.


    Man macht generell einfach zu viel Schnellschüsse: M-Tracker, Schnittstellen, GUI oder auch Primäre Farbkorrektur.


    Ich schätze Ihren enormen Einsatz (wie viele andere User hier sicher auch) und sehe auch deutliche Verbesserungen im "Zuhören" und "Umsetzen" seitens GV.
    Die Tatsache, dass zu oft neue, unausgereifte Features kommen, ohne die alten Baustellen abzuschließen, ist aber einfach eine Tatsache.
    Das ist kein Draufschlagen, sondern ernsthafte und wie ich glaube auch konstruktive Kritik.
    Mir ist klar, dass man als Distributor natürlich dem Produkt und den Strategien nicht in den Rücken fallen darf/kann.
    Dass Sie hinter verschlossenen Türen Ihren Einfluss ausüben ist klar, aber ein wenig mehr Verständnis bzw. Einsicht für echte Unzulänglichkeiten würde auch hier im Forum sehr gut ankommen.


    Ich hoffe, dass man sich dann bei "Optical Flow" etwas mehr Zeit für das Konzept nimmt und dann auch mal mit einer ausgereiften Lösung kommt.


    Das wünscht sich ein treuer Edius User

    Gruß
    Erich


    -----------------------------------------------------------------------------------------------------------------------------------------------------------------
    Windows 10 Pro - Storm 3G - Intel core i7-6700K 4 GHz - ASUS Z170-A - 32 GB DDR4 RAM - Intel HD530 Grafik - Win 10 Pro - Blu-Ray LG BH10LS30

    2 Mal editiert, zuletzt von Erich Retzer ()

    • Offizieller Beitrag

    Hallo Herr Retzer,


    ich kenne und schätze als jemanden, der immer konstruktiv Kritik übt und ausführlich schreibt, Sie waren hier nicht gemeint.


    Gerne gehe ich aber auf den Vorschlag mit dem Tacker ein: GV hat ja darum gebeten, man möge ihnen schwer trackbares Material zusenden. Gerne können wir hierzu auch mal einen Podcast machen, um Lösungsansätze zu zeigen. Der Tracker macht in meinen Augen keinen schlechten Job.
    Lassen Sie mir Material an meine e-mail Adresse zukommen? Wir schauen uns das an und leiten es gerne weiter.


    Grundsätzlich gebe ich Ihnen aber Recht, wenn Sie sich eine genauere Kommunikation von zu erwartenden Featuren wünschen. Das fällt auch künftig stärker in unseren Bereich. Im Fall des Motion Trackers war die Konzeption (2 Tracker, einmal Maske, einmal Layouter - der kommt noch) schon sehr früh klar, das hätte man deutlicher sagen können. Allerdings ist es generell für den Hersteller nicht so einfach von Anfang an zu sagen, wie etwas gelöst werden wird, schließlich soll es auch noch in Entwicklungsprozess die Möglichkeit geben, andere Umsätzungen zu erlauben.

  • Ich wünsche mir auch bei den kritischen Beiträgen eine konstruktive Note: Nicht schreiben, das ist alles schlecht, sondern konkret schreiben, wo es Probleme gibt.


    Das ist kein Problem. Der primary color correction plugin wurde ja tatsächlich um die lange erwartete LUT Fähigkeit erweitert - aber dass man das x-log Material von zumindest einigen Kameras noch immer durch massives Drehen der Luminanz erst mal in einen einstellbaren Bereich bringen muss ist so. Dass dieser Filter mit GPU Support verbessert worden ist ist sicherlich gut. Trotzdem ist es so dass auch auf schnellen Systemen XAVC I mit dem Filter darauf für die volle Vorschau des Materials das Zurückschalten auf 8bit erfordert.


    Und zum OFX Plugin weiß ich nicht was man noch sagen soll. Wenn die Vorschaufähigkeiten eben so sind wie sie sind kann man das wirklich nur mit stark reduzierter Auflösung nutzen. Oder Hitfilm?


    Mag sein dass wir froh sein müssen dass diese Dinge in Edius verfügbar sind - vermutlich ist es so dass man froh sein sollte. Einfach weil es die Umwege über andere Systeme erspart. Vielleicht ist das Problem dass viele sich hier mehr erwartet haben, und diese Dinge nicht unbedingt an die sonstigen Echtzeitfähigkeite der unverändert sehr guten NLE Edius heran kommen?

    • Offizieller Beitrag

    Hallo!


    Um welche Kamera und welches LOG geht es hier genau? Meines Wissens wurde in 8.22 hier eine Y-Anpassung bei einigen Presets gemacht um dieses Problem zu beheben. Wenn es noch da ist, leite ich das gerne weiter.


    Die GPU Beschleunigung dürfte immer zu einer deutlichen Mehrleistung bei dem Filter führen - eine entsprechende GPU vorausgesetzt (wobei hier auch schon kleinere Karte einen Leistungszuwachs bringen). Das alles in Echtzeit geht, ist aber immer noch vom verwendeten System, Auflösung, Framerate und Material abhängig.
    Testen Sie es einfach einmal indem Sie die GPU Beschleunigung in den Systemeinstellungen abschalten. Dann werden Sie sehen, dass die GPU Beschleunigung - die im Übrigen immer gleich rechnet (nicht wie bei Premiere je nach GPU unterschiedlich). Das ist schon eine gute Technik.


    OFX ist auch in meinen Augen nur eingeschränkt verwendbar. Ich würde immer angepasste EDIUS Plug-ins vorziehen. Die Integration ist einfach besser. Bei einigen Filtern wie z.B. wenn es um Looks geht, ist aber jetzt die LUT Unterstützung der Primären Farbkorrektur schon der beste Ersatz für langsame Color Plug-ins, die über OFX laufen. Der Unterschied in der Performance ist massiv. Hitfilm: Ich finde die Sammlung unverändert großartig. So viele gute Filter für vergleichweise wenig Geld ist einfach toll. Allerdings ist die Performance verbesserungswürdig, das stimmt. Hier denke ich, ist noch Luft nach oben. Wir sind dran. Nehmen wir z.B. den Keyer, der in Hitfilm enthalten ist. Dieser spielt auf Augenhöhe mit Robuskey. Nur Robuskey kostet schon mehr als doppelt so viel wie HitFilm Ignite, also das gesamte Paket mit 130 Filtern. Robuskey hat aber eine recht gute CUDA Beschleunigung, Ignite nicht. In gewisser Weise stehen diese Punkte also schon in Relation. Auch bringt es natürlich etwas, ein teureres System zu kaufen, wenn man mehr Power haben möchte. Gerade 4K Bearbeitung ist auch für heutige Systeme eine Herausforderung.


    EDIUS ist kein Compositing Programm und wird auch keines werden. Wer erwartet, damit perfekte Effekte und Kompositionen umsetzen zu können, wird enttäuscht werden. Das ist bei anderen NLEs aber auch nicht anders. Nur muss ich halt EDIUS nun nicht mehr verlassen, nur weil ich z.B. in einer Szene einen Scheinwerfer im Bild habe. Nun packe ich z.B. einen HitFilm Lens flare Filter an die Stelle, rendere es in EDIUS und gut ist es. Früher hätte ich den Clip exportieren und in einem anderen Programm bearbeiten und reimportieren müssen, das ist in meinen Augen eine deutliche Verbesserung. Wie Sie schreiben: "Einfach weil es die Umwege über andere Systeme erspart."


    Generell ist EDIUS mit seinen Boardmitteln immer recht flott. Da kommen Plug-ins in der Regel nicht hin. Aber die Plug-ins sollten vor allem auch Funktionen mitbringen, die ich nicht ständig brauche, mit aber den Wechel in ein anderes programm ersparen. Und einige Plkug-ins sind ja wirklich auch schnell und gut optimiert (z.B. VisTitle). Aber das ist nicht der Regelfall.

  • Hallo zusammen,


    einige Punkte meinerseits zu den genannten Punkten:


    1) Primäre Farbkorrektur finde ich generell recht gut umgesetzt: Aber Sony S-Log2 und S-Log 3 Material ist nach der Auswahl völlig überbelichtet. Auch die Farbwerte passen nicht wirklich. Das ist bei allen von mir getesteten Clips so. Habe getestet mit Material von der PXW-FS7 und der A7RII. Bei beiden sieht das erste Ergebnis grauenhaft aus und man muß so viel an den Reglern drehen um einigrmaßen hin zu kommen. Und ich übertreibe hier jetzt nicht. Vergleich mit Looks: Es passt auf anhieb ziemlich gut mit den selben Aufnahmen. Hier besteht dringend Bedarf zum nachbessern. In Version 8.22 ist dies nicht passiert bei Sony-Log, vielleicht bei anderen Formaten (?). Gerne kann ich die getesteten Beispielclips zur Verfügung stellen.


    2) Motion Tracker: Finde die Umsetzung generell nicht schlecht. Muß aber dazu sagen, daß ich keinen Vergleich zu anderen Lösungen habe!
    Aber was ich sagen kann: Ich habe bisher bei keinem Clip geschafft, daß er von Anfang bis Ende den Bereich hält. Ich rede hier z.B. von Logos auf (langsam fahrenden) Fahrzeugen. Meist bei wenig Kontrast mit großen Problemen.
    Auch diese Clips kann ich gerne zur Verfügung stellen. Das GV nach Clips fragt ist bisher nicht bei mir angekommen.


    Einige Hinweise zu der Sinnhaftigkeit dieser Funktionen und auch "optical Flow":
    Ich denke es macht sehr viel Sinn solche Funktionen direkt in das Schnittprogramm zu integrieren. Oder anders ausgdedrückt: Es ist in meinen Augen Pflicht das zu tun weil:
    - Die Konkurrenz schläft nicht, man muß solche Funktionen bieten (Klar das keine Compositing Software ersetzt werden kann)
    - Diese Funktionen integriert spart einige User Geld, diese entscheiden sich ggf. für Edius.
    - In dem Zusamenhang sei Resolve und Blackmagic Design genannt. Was sich bei denen in den letzten Jahren getan hat ist enrom.
    - Es reicht nicht mehr zu sagen, wir können schneiden und fertig. Keiner würde mehr ein Handy kaufen, mit dem man nur telefonieren kann.


    Ich denke mit Herr Lehmann-Horn ist es ein sehr guter Weg, sehr wichtig ist die Kommunikation, die ja hier funktioniert. Wenn das diskutierte auch noch umgesetzt wird ist Edius auf einem guten Weg. Bin seit Version 3 dabei und will es auch bei Version 30 noch sein :)

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Es hat sich nichts geändert - unverändert macht slog von so Schlüsselkameras wie der FS7 Probleme. Und bei Hitfilm ist nicht die Frage wie großartig die Filter sind - denn das sind sie. Die Frage ist das playback Verhalten welches leider für den Schnitt zu langsam ist.


    Und der Hinweis auf das System - was soll man den bitte schön mehr investieren als ein i7- 5960X 8-Kern System, notfalls übertacktbar auf locker 4.2 Ghz, geliefert vom Fachhändler? Wenn das nicht reicht dann hat wohl die Software ein Thema und nicht umgekehrt der PC.
    http://www.videotreffpunkt.com…chnittsystem-f%C3%BCr-4K/

  • Und bei Hitfilm ist nicht die Frage wie großartig die Filter sind - denn das sind sie. Die Frage ist das playback Verhalten welches leider für den Schnitt zu langsam ist.

    Für dieses Verhalten muß man Hitfilm kritisieren, nicht EDIUS!
    Wenn Dein PC für die Echtzeitwiedergabe der Hitfilm-Effekte nicht ausreichend dimensioniert ist,
    mußt Du halt mit dem Echtzeitpuffer experimentieren oder das Vorschaurendering bemühen!

    Zitat

    dann hat wohl die Software ein Thema

    Der Name der Software lautet Hitfilm!


    Das angekündigte Hintergrundrendering für die Version 8.xx wird wohl dafür eine gewisse Abhilfe schaffen!

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

    2 Mal editiert, zuletzt von Pee ()

  • Soll Hitfilm nicht auch vieles mit GPU beschleunigen? Machen mehrere NVIDIA Grafikkarten Sinn? Viele haben ja nur die eingebaute Intelgrafik oder, wenn's hoch kommt eine Intelgrafik und eine NVIDIA, wobei dazwischen noch immer hin- und hergeswitched wird.


    Machen 2 oder 3 Titan X vielleicht den Unterschied?

  • ich würde mal den RAM-Puffer für die ruckelfreie Vorschu in der Größe so einstellen,
    daß die Vorschau über die Cliplänge einwandfrei hinwegläuft. Du muß dann ein Stück
    vor dem Datenstau starten damit sich der Framepuffer voll füllt, oder halt mit der
    Tastetenkombination [Shift] + [Leertaste] direkt vor dem Stau starten, dann läuft
    die Vorschau erst an wenn der Frame-Puffer voll gefüllt ist.


    So mache ich das mit meinem alten Videoschnitt-PC, der neue Skylake mit Intel-Graphics
    und damit QuickSync braucht dieses Handling nicht!


    Das ist eigentlich ein alter Hut, kennst Du bestimmt schon?


    Grafikkarten tragen glaube ich nichts dazu bei, nach meiner bisherigen Kenntnis!

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

    • Offizieller Beitrag

    Danke für die Rückmeldungen. Ich schaue mir das mit dem SLOG 2 / 3 Verhalten bei der FS7 gerne gleich mal an. Welcher Gammut wurde verwendet? Gerne können wir das auch gemeinsam diskutieren, wenn Sie Testclips allgemein zur Verfügung stellen möchten, hier wäre unser neuer Public FTP, der auch das Hochladen erlaubt:


    Die SFTP-Zugangsdaten:
    Server: home76641815.1and1-data.host
    Protokoll : SFTP
    Port: 22
    Benutzer: EDIUS-USER
    Passwort: EDIUS-USER


    Bitte erstellen Sie einen Ordner mit Ihrem Forum Namen und darin einen Ordner um wass es geht. (Also z.B. /chris/SLOG) Dann können wir uns das Material gemeinsam ansehen.


    Wenn Sie die Dateien nicht öffentlich hochladen wollen, ist aber aber auch kein Problem.


    Hitfilm Ignite wird man im Moment Echtzeit in UHD Auflösung auch nicht mit maximaler GPU und CPU Anzahl hinbekommen, das ist einfach nicht entsprechend optimiert. Die GPU wird bei Hitfilm Ignite schon genutzt, aber leider ist der Effekt nicht so groß. Ich denke, da gibt es Spielraum für Verbesserungen. Im Moment ist Ignite ein Filter, den man normalerweise rendern muss. (Mit dem Buffer kann man kürzere Passagen auch in Echtzeit laufen lassen, aber das ist nicht immer sinnvoll)


    Tracking: Auch hier gerne Material einreichen. Beim Tracking ist es sinnvoll, nicht ganz vorne im Clip zu starten, sondern an dem Punkt, der das Objekt möglichst gut zeigt und dann trackt man nach vorne und rückwärts. Sinnvoll ist es auch, das Objekt nicht zu klein zu markieren, sondern lieber etwas größer, das bringt oftmals bessere Ergebnisse.


    Ich bin auf das Material gespannt.


    Und ich denke, wir sollten hier klären, ob es wirklich Probleme mit der Funktion gibt, oder ob die Anwendung besser erklärt werden muss.

  • Lieber Pee, was heißt nicht ausreichend dimensioniert? Hast dir überhaupt die verlinkten Gerätespecs angesehen? Bitte nicht derartige pauschale Meldungen abzugeben ohne zu sagen was an den Specs nicht passen würde. Nochmals: wenn man sowas behauptet dann sollte man auch sagen was dort nicht passen würde. Und nein, Hitfilm ist es nicht per se. Das läuft aus Vegas heraus auf der gleichen Maschine deutlich performater. Es ist viel eher die Integration in Edius. Es hat sich ja auch schon mal ein Kollege von Herrn Lehmann Horn das angesehen, und für UHD ist das eben für UHD nicht hin zu bekommen, wie hier auch bestätigt. Und ich nutze eben durchgängig UHD Files. Gut dann muss man hier eben die Auflösung oder Farbtiefe zurück nehmen.


    XAVC I clips werden sich aufgrund der Dateigrössen schwer hochladen lassen oder es müssten extra als sehr kurze Testdatein erstellt werden. Muss ich mir ansehen, ist auch eine Zeitfrage hier.


    Aber was ich nutze ist Cine EI mit S-Gamut3.Cine/SLog3, sei es mit 3840x2160 25p oder auch 25p.

  • Was ich unmittelbar zu diesem Verhalten des Primary Color correctors zeigen kann ist das Verhalten eines kleinen UHD S-log3 Testclips.


    Bild 0: direkt nach Import in die Timeline (Project Settings UHD 50p 10bit). Man sieht dass der Clip in wenigen Bereichen an der Grenze von slog3 clipt, das sind wenige helle Stellen im Himmel des Hintergrunds was ich hier bewußt so belichtet habe). Aber der slog3 Clip ist im wesentlichen im zulässigen Luminanzbereich
    Bild 1: hier wurde lediglich der Filter angewendet. Automatisch wird erkannt dass es sich um Sony SGamut3.Cine/Slog3 Material handelt. Sonst wurde nichts korrigiert, alle Schieberegler sind auf Null.
    Man sieht zwar dass der Schwarzpunkt unverändert ist, aber dass der Weißpunkt völlig aus dem zulässigen Bereich geschoben wird. Der Clip clippt massiv weg.
    Bild 2: dann stelle ich das mal grob ein - in ein paar Schritten. Zunächst mit dem Aufheller den Schwarzpunkt und der Verstärkung den Weißpunkt (für rec.709 gegraded also auf 100 IRE)
    Bild 3: dann mal eine zarte Gammakorrektur die noch nicht reicht
    Bild 4: dann nochmals mit der Y-Kurve die Tiefen angehoben und die Höhen reduziert. Das ist nicht fertig eingestellt, aber um das geht's hier ja nicht.


    Aber der wesentliche Schritt wo die Sache eben in der Luminanz hochgeschoben wird ist gleich der erste Schritt, wo man nur den Filter anwendet ohne irgendwas einzustellen (Bild 1). Da muss man dann eher stark gegensteuern um in einen sinnvollen Bereich zurück zu kommen.

  • Hallo Wolfgang
    runterladen hat geklappt, Danke !


    Werde mich damit auseinander setzen


    Gruß Peter

    • Offizieller Beitrag

    Die übermittelten SFTP Daten sind nicht zum Anklicken per Browser geeignet, sondern benötigen ein FTP Programm wie z.B. Filezilla. Dafür ist das Hochladen und der Download sicher und schnell.

    • Offizieller Beitrag

    Wenn ich das richtig sehe, versuchen Sie das SLog3 Bild in einen Rec709 Farbraum zu drücken, dass alle Abstufungen erhalten bleiben. Evtl. erwarten Sie auch, dass EDIUS so eine Farbraumanpassung machen sollte. Das ist ein möglicher, wenn auch eher technischer Ansatz, das Bild wird dadurch aber nicht korrekt wiedergegeben. Die Farbraumanpassung, die EDIUS macht, ist vollkommen korrekt: SLog3 hat mit ca. 14 Blendenstufen ja einen deutlich höheren Dynamikumfang und kann daher auch viel mehr Licht erfassen, als Rec709. Ändere ich den Farbraum auf Rec709 stehen mir weniger Blendenstufen (ca. 7) zur Verfügung. Mit dem Regler "Belichtung" können Sie dann den Clip so verändern, dass dieser auch im Rec709 korrekt aussieht, selbst wenn es überstrahlte Bildbereiche gibt. Der Regel illustriert sehr gut, dass in Rec709 sehr viel weniger Blendenstufen zur Verfügung stehen als in SLog.


    Zeichnungen im Weiß kann ich erhalten, indem ich zusätzlich die Kurven bemühe, das lohnt sich vor allem, wenn ich Details in den Lichtern habe.


    Entscheidend für eine korrekte Belichtung ist ja, das das Bild gut aussieht - der Maßstab ist hier der Mensch - idealerweise Gesichter. Ein mitteleuropäisches Gesicht sollte ca. 70% Helligkeit auf der Stirn/Wange haben, dann haben wir die Hautöne ungefähr da, wo sie sein sollten.
    Auch sind die Blütenblätter links im Bild ja in der direkten Sonne und dadurch sehr hell. Diese dürfen in so einem Bild aber auch hell sein, ich würde nicht alles so stark runter drehen, sonste geht auch der natürliche Bildeindruck verloren.


    Vielleicht ist das alles ja auch schon bekannt, letztlich ist die Frage doch, wo EDIUS bei der Farbraum Korrektur einen Fehler machen soll - ich kann es nicht sehen. Die Farbraumkorrektur ist kein Automatik Filter. Das Signal wird nicht aufgrund des Inhalts automatisch angepasst. Es ist eine hingegen eine reine Umrechnung, eine Übersetzung des Farbraums. Um das zu verdeutlichen: So wie das Bild in Rec709 aussieht, hätte es auch ausgesehen, wenn man mit der Kamera statt in SLog in REC709 aufgenommen hätte. Sicherlich hätte man in REC 709 die Blende gleich bei der Aufnahme etwas zugekniffen. Das ist aber nicht passiert. Daher sieht das Bild nach der Farbraumumstellung so aus, wie es eben aussieht.


    Die Eigenart der Primären Farbkorrektur ist nun, dass ich nach der Umstellung des Farbraums entsprechende Korrekturen vornehmen kann. ich kann die Blende also im Nachhinein noch weiter auf oder zumachen (und viel mehr).

  • Wie schon der Name SLog aussagt ist es eine logarithmische Aufzeichnung. Daraus folgt, dass man nicht einfach, wie in RGB alles durch eine Zahl teilen kann und hat dann das neue eingedampfte Bild oder umgekehrt.


    Ich schätze mal, dass da das Problem liegt. Durch die logarithmische Aufzeichnung liegt schon von vornherein eine Gewichtung der Aufzeichnung (für Farben und Helligkeit) vor, wenn ich das richtig folgere.

  • Also der Unterschied in den 14 Blendenstufen von slog3 und den ca 6 von rec709 ist mir bestens bekannt, das ist ja das kleine 1x1 des Gradens von x-log Material! Aber gerade Ihr eigener Punkt der verschiedenen Dynamikumfänge - der völlig richtig ist - ist ja das stärkste Argument warum der Plugin bei der automatischen Erkennung von S-Gamut3.Cine/S-log 3 und dem vom Plugin selbst (!) erstellten automatischen der Transformation zu rec 709 den Luminanzumfang auf den vorhanden Dynamikumfang anpassen sollte. Denn was passiert den als nächster Schritt wenn ich den Plugin auf so einen Clip als Anwender einstelle? Der Anwender muss ja dann erst wieder wie üblich Weiß- und Schwarzpunkt setzen, und damit händisch das Einpassen des Materials in die 6-7 Blendenstufen Dynamikumfang vornehmen. Und da ihm hier das Plugin weniger als möglich unterstützt kurbelt er mal entsprechend die Luminanz zurück - was eigentlich ein völlig unnötiger Arbeitsgang ist.


    Anders formuliert: das Plugin nimmt einem einen Arbeitsschritt nicht ab obwohl es das könnte. Und dass wir heute 99% des x-log Material von Cinema Kameras zu rec 709 graden steht wohl außer Diskussion. Und das wird sich zwar ändern wenn wir mehr und mehr für HDR und rec 2020 graden, aber das wird ja wohl noch ein wenig dauern. Gerade für Broadcast-Stationen die sich zumeist nicht so schnell umstellen werden.


    Das was ich hier beschreibe übrigens durchaus schon heute in einigen Grading Applikationen so umgesetzt. Wirft man etwa diesen Clip in Catalyst Prepare so wird ebenfalls automatisch S-Gamut3.Cine/S-log3 erkannt und - genau wie in Edius - als Zielfarbraum rec.709 vorgeschlagen. Allerdings wird sofort die Luminanz an den geringeren Dynamikumfang von rec.709 angepasst - und der Anwender kann sofort mit der exakten Einstellung von Schwarz- und Weißpunkt beginnen. Das halte ich im Moment für best practice - und auch Resolve verhält sich hier nicht anders wenn man den passenden LUT anlegt ist der Luminanzumfang durchaus schon recht stimmig angepasst.


    Da hänge ich mal ein Bildchen an wie das in Prepare im Grundzustand (!!!) aussieht. Also ohne jedes Kurbeln und Einstellen. Das ist dann halt ein deutlich besserer Ausgangspunkt vor allem für den wenig geübten Anwender um sehr schnell zu einem guten Ergebnis auch mit x-log Material zu kommen.


    Und dass man dieses überbelichtete Bild so mit einer rec 709 Kamera gefilmt hätte - na wohl kaum. Da hätte man abgeblendet und sich entscheiden müssen, wo man die 6 verfügbaren Blendenstufen hinlegt - und was man in Schwarz bzw. in Weiß absaufen lässt. Aber genau das ist ja der Grund um überhaupt in x-log zu filmen, denn damit verlagere ich diese Entscheidung in die Post und kann das dort dann in aller Ruhe machen und das Ergebnis für mich optimieren. Natürlich macht man dann mit den Filtern wie Gamma oder den Helligkeitskurven. Aber all diese Schritte sind eben erst zu setzen wenn man den Weiß- und den Schwarzpunkt richtig gesetzt hat - und damit schließt sich der Kreis wieder zurück zur ohnedies gegebenen Unvermeidbarkeit der Einpassung des größeren Dynamikumfangs von x-log in den verfügbaren Umfang von rec. 709.


    Also so gesehen besteht hier sehr wohl Überarbeitungsbedarf WENN man dem User sinnvoll unterstützen will. Die Gefahr dass viele User gar nicht wissen WIE man genau diese Einpassung mit diesem Plugin in Edius vornimmt ist leider besonders groß - da man hier lineare und nichtlineare Korrekturen mit eher unüblichen Übersetzungen gemischt hat. Auch eher ein Argument dafür dass man den Filter eher intelligent überarbeiten sollte. Aber bitte sehr.