Beiträge von Hotte

    Ich würde gerne folgendes Feature hinzufügen, das ich nicht in der Liste gefunden habe. Haben wir heute auch im englischen Forum diskutiert und wird dort wohl schon länger gewünscht


    • Implementierung von NVDEC (Nvida - Decoder)

    Der NVENC (Nvidia Encoder) ist offenkundig bereits implementiert und bringt nach den jüngsten Tests auf YouTube von ComWeb traumhafte Exportzeiten bei H.265 unter AMD (2x so schnell wie INTEL Quicksync).
    Würde NVDEC so implementiert wie Quicksync, dann läge auf der Timeline noch gewaltig Performance-Potential und wir sind nicht mehr allein von INTEL abhängig, sondern User können endlich auch mit AMD und NVIDIA sehr flott (vielleicht flotter) in Edius arbeiten.
    Ein User meint, dass dies schon seit Edius 8.x versprochen worden war.


    Grooooßer Wunsch.

    Stimmt, wollte eigemtlich was anderes sagen, nämlich dass der Austausch mit Avid-Produkten schon seit geraumer Zeit durch die Integration von DNxHR implementiert wurde. Der Codec läuft auch relativ schnell auf der Timeline (wenn auch nicht ganz so schnell wie HQX).


    Zusammenfassend kann man sagen, dass Quicksync bei Intel auch bei 10-bit einen Vorteil ggü. AMD hat. AMD sollte Stand heute unbedingt mit NVIDIA gepaart werden (wegen HEVC Export). Ob AVX-Unterschiede tatsächlich bei INTEL besser greifen sei mal dahingestellt. Frederiks Tests haben ja gezeigt, dass mehr Cores irgendwann auch die Unterschiede zwischen Intel und AMD ausbügeln und es sogar zu einem AMD-Überholer kommen kann, es wird dann aber teuer. Aus seinen Tests ist ersichtlich., dass erst die Ryzen Oberklasse (59xx) die Überlegung lohnt.


    Mit Blick auf die Timeline-Performance kann Standard H.264 in UHD 10-bit 50p als Überblendungen zwischen 2 Clips auch mit den schnellsten derzeitigen Intel-Prozessoren ohne Rendern nicht in voller Auflösung in der Vorschau ruckelfrei dargestellt werden. Die 1/2 Darstellung (nur 8-bit) geht vermutlich. Bei einem Quadcore ist nur H.264 UHD 10-bit 25p in 1/2 ruckelfrei möglich.


    Danke @Grauer Tiger und @gurlt für Eure Hinweise.

    Da aber Edius GV HQX verwendet, würde dies sozusagen eine unnötige zusätzliche Wandlung bedeuten.

    Ist jetzt nicht unbedingt ein wesentlicher Diskussionpunkt, aber m.E. findet diese Wandlung nicht statt wenn du von SAL aus eh HQX encodieren musst, dann kann es auch DNxHR sein. Als AVID-Produkt unterstützt Edius DNxHR genauso "nativ" wie HQX.

    Da Edius nur eine 10-bit TL generieren kann, ist es natürlich 10-bit.

    Naja, wenn man H.265 ausspielt, dann ist 10-bit sicherlich völlig ausreichend. Ohne eine 12-bit Timeline und -Filter kann man aber den Dynamikumfang des Raw-Format wohl auch nicht gezielt ausreizen. Es ist die Frage, ob Edius dafür überhaupt gemacht ist: Ohne Resolve selbst zu kennen habe ich gehört, dass ein großer Unterschied zwischen Resolve und Edius sei, dass Edius eine YUV- und Resolve eine RGB-Engine habe. Das würde einen Grund liefern, warum Resolve schneller ist: Er muss nicht in YUV übersetzen (allenfalls für die Erstellung einer Vorschau). Der Grund für die YUV-Engine läge in der Historie von Edius. Demnach schlussfolgere ich, dass die Direktauslesung eines Sensors zunächst mal ins RGB-Reich führt und man sollte in RGB weiter machen und erst beim Ausspielen ins Zielgebiet konvertieren.
    Das alles spräche dann bei RAW eher für Resolve und Edius hätte wenig Grundlage dies nativ zu unterstützen. Aber dass die Grenzen fließen können sieht man ja z.B. am PCC, der offenbar ein RGB-Tool im YUV-Reich ist.

    Leider kann man aus dem SAL Fuison nicht als GV HQX exportieren.

    Ich kenne das Programm nicht, aber vielleicht kann es ProRes oder DNxHR. Die werden von Edius gut verstanden (wenn auch etwas langsam auf der Timeline, v.a. ProRes) und sind sehr hochwertige Codecs.



    Neat...benötigt dann über 45 Minuten.

    Man könnte spekulieren, dass er erst mal intern decodiert in ein all-intra-Format und dann entrauscht.


    dass NEAT als Filter in Edius nur 8-bit unterstützt...

    Nicht zu fassen. Und für sowas so viel Geld. Das bleibe ich doch lieber bei SMDegrain von Avisynth - kann unter AVS+ theoretisch bis 16-bit und kostet nix (außer Implementierungsaufwand und der Workflow ist nicht ganz so easy). Ich habe Neat vor ziemlich längerer Zeit unter Edius mal getestet und fand die Qualität nicht toll. Damals war es nicht temporal, zumindest sah es nicht temporal aus und hat Strukturen deutlich sichtbar vermatscht. Aber dadurch, dass es geplugged-in ist, ist es natürlich bequemer zu bedienen. Aber ich bin schon off topic hier....

    Zu BRAW kann ich Dir sagen, dass das Material aus meiner 6K recht vernünftig verarbeitet wird

    Ist das dann 12-bit Material und das Projekt dann auch in 12-bit ?
    Wo liegen die Unterschiede hier zwischen Edius und Resolve wenn Du sagst "nicht so gut" ?


    Wobei eben grade bei NEAT bestimmte Quellmaterialen vor der Anwendung in GV HQX umgewandelt werden sollten, da sonst extreme Exportzeiten entstehen können.

    Das ist nachvollziehbar. Alle temporalen Funktionen (NEAT ist doch temporal - oder ?) wie z.B. auch optischer Fluss in höheren Stufen zwingen jeden Prozessor in die Knie. Ich verwende kein NEAT sondern Avisynth-Filter für Entrauschung und andere technische Filter und das läuft dann auch über HQX-Export.

    Also ich hab mal auf die Schnelle 2 x UHD-25P-8Bit H264 nativ (hab leider kein 10Bit Material) mit PCC, Stabilisator und Farbabgleich und Titelspur laufen lassen. Das geht in der "Voll-Ansicht" gerade so.

    Vielen Dank für diesen Test!


    Ein solches Setup läuft bei mir in der "1/2 Ansicht" gerade so. In der Vollansicht: No chance.


    Da es in diesem Thread um Performance geht: Man kann sehr grob annehmen, dass dein Rechner auf der Timeline etwa doppelt so schnell ist wie meiner. Das ist gar nicht so weit weg von den Benchmarks mit videolastigen Anwendungen: Wegen physikalischer und thermischer Probleme werden die Prozessoren mit vielen Cores und seit AMDs immensen Fortschritte im Grunde veralteten INTEL-14nm-Litographie niedriger getaktet. Zudem lässt sich die Anzahl der Cores niemals proportional in mehr Performance umrechnen. Das Ergebnis ist daher absolut realistisch. Und die Erkenntnis sehr wertvoll.


    Das 10-bit Szenario würde auch dein Rechner nicht in Vollansicht packen. Allerdings könnte es funktionieren mit der Ansicht "Voll 8-bit" - oder Quicksync entlastet den Prozessor effektiv... Das ist doch schon mal was.


    Mit dem UHD 50p aus meiner DJI Osmo Pocket (1) kommt mein Rechner (Core X, ohne QuickSync) auch nicht wirklich klar. Da muss ich schon bei 1 Spur ohne Effekte auf 1/2 zurückstellen.
    Das hat aber nichts mit der Leistungsfähigkeit des Rechners zu tun,

    Das ist richtig und das ist ärgerlich. Edius mag nur bestimmte Codecs. Mit Panasonic 50p H.264 kommt er gut klar, aber es fordert ihn halt gewaltig. Was mich bei Edius ärgert ist, dass der GoPro Cineform Intermediate-Codec den Rechner quasi zum Stillstand bringt. Im Avisynth-Forum war zu erfahren, dass dies wegen einer neuen Engine in Edius-X schlimmer geworden sei und unter Edius 9 noch halbwegs erträglich war. Keine Ahnung, was da dran ist.
    Kleines Off-Topic hier: Da ist Edius m.E. definitiv nicht ganz auf der Höhe der Zeit. Dafür ist neben DNxHR (Avid, logisch) auch Apple ProRes recht gut implementiert. Aber auch hier könnte die Timeline-Geschwindigeit besser sein. HQX ist zwar ein sehr guter Codec, aber so proprietär, dass nicht mal ffmpeg ihn codiert (dafür Cineform, ProRes oder DNxHR). Da Edius aber nun mal in den Amateurmarkt vorgedrungen ist kann man sich nicht aus dem reinen Broadcast-Profi-Fokus ausruhen. Und auch der ist nicht in jeder Beziehung super: Die 10-bit Austattung ist zwar ok, aber LUTs wurden reichlichst spät implementiert. Und die Zukunft ist längst vor der Tür: Blackmagic Raw und 12-bit werden in den Semiprofi-Modellen bereits verbaut und werden spätestens im nächsten Jahr in der Midrange ankommen.

    Noch besser ist es natürlich diese Sequenzen in GV HQX umzuwandeln und die HQX-Datei zu verwenden.

    Das ist mir zu umständlich. Ich bin der Meinung, dass die Wandlung in Intermediate am Ende des Rohschnitts erfolgen sollte. Ich fange nicht an, mein ganzes Rohmaterial ungeschnitten in HQX umzuwandeln und ganze Plattenschränke damit zu füllen, nur weil die Vorschau in Edius nicht in der Lage ist eine Überblendung von 2 UHD-50p-10bit
    mit LUT und noch ein-zwei Filtern auf einem zeitgemäßen 10-fach Core in der Vorschau abzuspielen. Und wegen LOG gehört PCC inzwischen schlicht zum Rohschnitt. Bei den schnellen Rechnern heute habe ich schon die Erwartung, dass wir von den alten Workarounds wegkommen und auch UHD-Material intuitiv schneiden können - zumindest sollten die Programme massiv daraufhin entwickelt werden. Vielleicht habe ich da auch eine besondere Auffassung, aber ich kann mit Rendern im Schnittalltag nichts anfangen, weil es meinen Workflow einfach ganz massiv stört und immens Zeit frisst. Ich finde Rendern genau genommen ein Krücke, die es niemals gäbe, wenn die Systeme einfach mal schnell genug wären. Lieber stelle ich auf 1/2. Und dieser intuitive Anspruch ist genau der Grund, warum ich so an der Timeline-Performance interessiert bin.



    Grade bei Edius X würde ich auch für ein System mit QS eine gute Nvidia RTX als GraKa empfehlen. Bringt bei der Primären Farbkorrektur m.E. einiges.

    Danke, das ist ein wichtiger Hinweis. Profitieren noch andere Filter ?

    Bei mir ist dann bei 3 Spuren nativem H264 Schluss mit flüssig

    Danke für den Test - sehr aufschlussreich. Aber jetzt nochmal ganz genau bitte: Ist das bei 50p oder 25p, bei 8 oder 10-bit Projekt/Quellmaterial ? Der PiP-Test mit mehr als 2 Clips ist deswegen aufschlussreich, weil 1) man oft mehr als den PCC einsetzt 2) Große Projekte nach meiner Erfahrung - v.a. nach längerer Editierzeit - immer langsamer werden beim Abspielen. Viele PiP sind nur eine Methode, um Spielraum aufzuzeigen.


    Meine eigentlicher Wunsch wäre eine flüssige Vorschau mit 2 x UHD-50p-10-bit 4:2:2 H.264 mit PCC und 1-2 weiteren Filtern (z.B. durchaus auch den Stabi - optischer Fluss muss jetzt nicht sein) und Titelspur ohne Rendern und in voller Auflösung. Benötigt wird das bei Überblendungen. Das sollte ein 10er Core doch eigentlich locker schaffen - oder ? Für komplexere Timelines wäre 1/2 Auflösung ja dann eine gute Ausweichmaßnahme.

    Das ist ja interessant. Im H.265 Export Fenster gibt es gar keinen Haken "Hardwareencoder verwenden". Gleichwohl beobachte ich beim 10-bit UHD HEVC-Export, dass die CPU auf 20% Leistung ist und die GPU an der Oberkante um 96%.


    Dass hier QS am Werk ist dafür spricht auch, dass H.265 UHD 10-bit ungefähr so lange dauert wie H.264 UHD 10-bit ohne QS - denn H.265 ist ja wesentlich komplexer zu codieren.


    @Grauer Tiger arbeitest Du ab und an mit H.264 UHD auf der Timeline ? Mich würde mal interessieren, was der 10850K so drauf hat. Wenn Du UHD von einer Standard-Kamera (Nikon, Panasonic... nicht Drohne) mit dem Layouter BiB machst und auf alle Clips den PCC (Primary Color Correction) legst, wie viele Clips sind möglich übereinander bis der Puffer nicht mehr nachkommt ? Beim mir gehen maximal 2 Clips gerade so bei entweder UHD-8bit-50p oder UHD-10-bit-25p.

    So ich habe jetzt mal einen Test gemacht (10-bit Projekt Mischmaterial FHD, 4K, 8-bit und 10-bit) Ausgabe in 4K:

    • Ausgabe H.264 8-bit High-Profile ohne Hardware-Encoder (QS) dauert 2:05 Minuten
    • Ausgabe H.264 8-bit High-Profile mit Hardware-Encoder (QS) dauert 0:52 Minuten
    • Ausgabe H.264 10-bit High10-Profile ohne Hardware-Encoder (QS) dauert 2:26 Minuten (definitiv eine 10-bit Datei)
    • Ausgabe H.264 10-bit High10-Profile mit Hardware-Encoder (QS) nicht möglich, die Checkbox ist ausgegraut

    Jetzt wäre es mal interessant, ob bei einem Besitzer eines neueren QS-Prozessors bei High-10 Ausgabe die Checkbox wählbar ist und was das ausmacht.


    Und dort, wo High-10 mit QS geht, wie sich das auf die Timeline auswirkt. In einem 10-bit Projekt mit 10-bit - 4K - 25p - 4:2:2 H.264 Material (Panasonic G9) mit 3 Clips ohne Filter lasse ich die Wiedergabe anhalten, wenn der Puffer leer ist. Bei Wiedergabe "Voll (10-bit)" werden nur 2 Sekunden gespielt. Bei Wiedergabe "Voll 8-bit" immerhin 6 Sekunden. Voll 8-bit mit 3x PCC LUT stoppt bereits nach 1 Sekunde. Bei 1/2 Auflösung mit PCC läuft es durch und der Puffer kann gerade so mithalten. Bei 50p 8-bit 4K sind maximal 2 Clips (Überblendung) halbwegs vorschaubar.

    Danke für die Infos.


    Wird das Ergebnis dann in 8-bit ausgegeben können also nur leicht Unterschiede, bzw. geringere Verluste entstehen.

    In der Theorie nachvollziehbar, in der Praxis indes sind die Unterschiede überraschenderweise sehr deutlich, worüber ich sehr froh bin: Das Banding verschwindet ganz einfach, auch wenn ich nicht einen einzigen Filter anwende.

    Bei den QS Encodern müsstest Du bitte selbst nachschauen, da ich kein System mit QS habe.

    QS/nonQS unterscheidet sich nur durch das Häkchen "Verwenden des Hardware Enkodierers", das bei mir aktiv ist bei H.264-Export. Die 10-bit können ausgewählt werden, da aber mein System kein 10-bit QS kann (wie ich hier gelernt habe), dürfte das also kein sicheres Erkennungsmerkmal sein dafür, dass wirklich 10-bit mit QS exportiert wird. ;) Deswegen habe ich nachgefragt, vielleicht weiß es jmd. anderes.

    Erkennbar ist die an dem blauen ! im Effekte-Fenster. Da geht dann auch ein PopUp mit entsprechenden Hinweis auf.

    Wieder was gelernt. Danke.

    Danke, Tiger für deine Erläuterungen.


    Ja, selbstverständlich unterstützt Edius (und nicht erst seit X) auf der TL 10-bit.

    Oh, halt, das weiß ich natürlich. Meine Frage war, ob 10-bit QS (Quicksync) - also De-/Encode-Beschleunigung in 10-bit unterstützt wird.


    Nur ist es natürlich auch so, dass aus einem 8-bit Quellmaterial nicht automatisch 10 bit werden, nur weil man die Projekteinstellungen umstellt. Das 8-bit Material liegt dann halt nur in einem 10-bit Bearbeitungsraum.
    Das ist aber durchaus sinnvoll, wenn Bearbeitungen der Farbkorrektur vorgenommen werden. Denn so kann es ein leicht besseres Ergebnis bringen, auch wenn später auf 8bit ausgegeben wird.

    Meine Erfahrung zeigt, dass es absolut sinnvoll ist, 8-bit Material generell in einem 10-bit Projekt zu bearbeiten. Ich habe z.B. 8-bit FHD-Material einer Nikon D5300 - eigentlich nur geringfügig - nachbearbeitet und hatte oft Banding im blauen Himmel. Das 10-bit Projekt am Ende als 8-bit HQX exportiert hat jegliches Banding völlig eliminiert. Das Ergebnis ist regelmäßig - auch bei anderen Quellen - nicht nur leicht, sondern dramatisch besser. Ich weiß nicht genau, was da passiert (vielleicht weiß es jemand ?), aber ich vermute, dass die gesamte Bearbeitung im vollen 10-Bit-Raum erfolgt und bei Ausgabe wieder - sehr geschickt - zusammengedithert wird. Dummerweise ist das 10-bit Projekt wieder eine Bremse auf der Timeline ;) - im Moment jedenfalls.


    Sind eigentlich alle alten Farbkorrektur- und sonstigen Filter (z.B. auch Stabi) durchgängig 10-bit ? Auch der alte (fürchterliche) Sharpener ?

    Das Quicksync eine reine 8-bit Umgebung ist, ist leider nicht richtig - s. hier. Aber natürlich benötigt man zur Darstellung auch einen Monitor, der 10-bit kann und dies muss auch im System so eingestellt sein.

    Ok, danke für das Update - das wusste ich nicht. Die entscheidene Frage ist natürlich jetzt: Unterstützt Edius-X dann auch QS in 10-bit (auf der Timeline auch v.a.) ? Kann das jemand mit Sicherheit sagen ?


    Die Darstellung auf dem Monitor ist für mich derzeit nicht entscheidend, da ich die 10-bit nur für LOG benötige, um kein Banding zu bekommen. Die Endausspielung nach dem Grading erfolgt derzeit noch in 8-bit.


    Ja, allerdings nicht nativ, sondern im HQX Format.

    Da ist endlich mal einer ehrlich. Ich glaube, dass mancher das nicht versteht und meint, er könnte 4 oder 5 schwere H.264 Clips übereinander flüssig schneiden. Tatsache ist es geht nur mit HQX und dazu muss ich vorher wandeln. Das kostet Zeit und enorm viel Speicher. Hinzu kommt, dass das in SuperFine ebenfalls nicht flüssig ist, weil extrem große Datenmengen verarbeitet werden müssen. HQX Fine wiederum finde ich als Intermediate qualitativ eher zu verlustbehaftet.



    Hier sind nicht nur Hobby-Filmer unterwegs, die einmal im Jahr die "Silberhochzeit von Onkel Theo" rendern, sondern auch viele, die damit Ihren Lebensunterhalt bestreiten. Und da spielt die Exportzeit eine sehr große Rolle. Eine Exportzeit "über Nacht" ist da nicht akzeptabel.

    Verstehe das Argument nicht so ganz. Auch Profis verbringen doch viel mehr Zeit auf der Timeline als beim Export - oder nicht ? Ich will das jetzt nicht zum Diskussionspunkt machen, denn ich bin kein Profi. Ich möchte auch nicht die Exportzeit kleinreden, aber meiner Meninung nach ist flüssige Timelinevorschau etwas, was extrem wichtig ist, aber bei den meisten Performancevergleichen wird in erster Linie auf die Exportzeit geschaut und auch Frederik hat sich erst jüngst mit der Timeline beschäftigt.


    Dieses Fazit berücksichtigt die neuen Intel-CPUs (10 und mehr Kerne) gar nicht. Wenn ich von einem veralteten Core i7 der 7.Gen. ausgehe, stimmt diese Rechnung. Wenn man aktuelle CPUs gegenüber stellt unter Berücksichtigung der Software (die im Fall von Edius auf Intel optimiert ist), stimmt diese einfache Betrachtung nicht .

    Was bedeutet das genau "auf Intel optimiert" ? Ich bin weder INTEL noch AMD-Anhänger. Tatsache ist aber, dass der letzte Test gezeigt hat, dass der 10-Kerner von INTEL hinter dem RYZEN9 liegt.Bisher ist mir nur Quicksync als INTEL--Spezialität bekannt. z.B. die Frage von oben: Unterstützt Edius-X 10-bit QS ? Gibt es sonstige INTEL-Optimierungen, die eher nicht für AMD sprechen ? Das wären sehr wertvolle Zusatzinformationen.

    Für mich stellt sich das ganze Thema so dar, wobei ich 4K von Panasonic MOV-Material schneide (H264), wo die Situation völlig anders ist als bei FHD.


    • Bei der Prozessorleistung erscheint mir bei 4K die Timeline-Performance um ein Vielfaches wichtiger als die Exportgeschwindigkeit. Bei Full-HD dürfte bei allen Prozessoren ab Quadcore die Timeline-Performance kein Thema mehr sein, von daher schauen vielleicht deswegen dann viele auf die Exportgeschwindigkeit. Aber im Grunde ist für FHD-Material ein Quadcore immer ausreichend, exportieren kann man auch nachts. So gesehen ist ein High-End Prozessor für FHD eigentlich zu schade.
    • Quicksync wird auf der Timeline wirksam, von daher hat man mit einem günstigen INTEL-Prozessor hier klare Vorteile gegenüber einem AMD im gleichen Preissegment, wenn das Quellmaterial in H.264 ist (wohl auch H.265)
    • Quicksync hat keine Wirkung bei HQX, DNxHR oder ProRes, nur bei H.264 und HEVC
    • Quicksync codiert H.264 anders als der H.264 Software-Encoder von Edius. Früher (Edius 8.xx) war der Software-Encoder besser, aber im Laufe von Edius 9 wurde das QS-Encodierergebnis immer besser und heute habe ich gegenüber QS-H264 keinerlei Vorbehalte. Trotzdem lohnt es sich für QS-Fans darauf mal einen genauen Blick zu werfen. Geschwindigkeit ist nicht alles.
    • Es gibt immer wieder Leute die behaupten, dass sie mit INTEL-Quadcores 3 oder 4 oder noch mehr 4K-Clips flüssig gleichzeitig auf der Timeline abspielen könnten. Reden wir mal über 8-bit und H.264 Material auf der Timeline. Meine Erfahrung ist: Geht nicht, ruckelt oder Puffer leer. Bei mir geht eine Überblendung zwischen 2 Clips in 4K (8-bit) gerade flüssig durch, wenn wenig Filter aktiviert sind. Und mein I7-7700K ist einer der schnellen Quadcores. Von daher kann man auch bei Edius nie genug Power haben.
    • Quicksync ist eine reine 8-bit Umgebung. Es hat derzeit keinerlei Vorteil bei 10-bit Material. Bei 10-bit zählt zur Zeit nur die reine Prozessor-Power und da zeigt sich auch in dem o.g. Video, dass der Ryzen9 dem INTEL-Pendant inzwischen überlegen ist. Kommt später vielleicht auch NVIDIA-Unterstützung für 10-bit und auch auf der Timeline dazu, dann werden die Karten endgültig neu gemischt.
    • Ich schneide mit Edius-X inzwischen vermehrt 4K 10-bit H264 auf einem INTEL-7700K Quadcore. Der ist eindeutig zu langsam dafür. Eine Überblendung zwischen 2 solcher Clips mit dem PCC-Filter ist auf der Vorschau nicht mehr ruckelfrei, allenfalls bei halbierter Auflösung. Mit Blick auf 10-bit würde ich dafür einen Highend-AMD kaufen, aber ich warte lieber noch etwas.

    Mein persönliches Fazit:
    Full-HD => Intel
    4K 8-bit => Intel
    4K-10 bit => eher High-End AMD