AMD RYZEN 9 - 5950x

  • Genau..., das ist schon eine kleine Ewigkeit bekannt.

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • ausschließlich mit QS

    Heißt das, dass HEVC mit AMD gar nicht geht weil der kein Quicksync hat ?
    Die NVIDIA-HEVC-Version läuft bei mir nämlich nicht, weil ich keine NVIDIA-Karte habe.

    Edius X Workgroup - I7-7700K 32GB MSI

  • Heißt das, dass HEVC mit AMD gar nicht geht weil der kein Quicksync hat ?

    Doch schon, dauert nur stundenlang

    @Grauer Tiger arbeitest Du ab und an mit H.264 UHD auf der Timeline ? Mich würde mal interessieren, was der 10850K so drauf hat. Wenn Du UHD von einer Standard-Kamera (Nikon, Panasonic... nicht Drohne) mit dem Layouter BiB machst und auf alle Clips den PCC (Primary Color Correction) legst, wie viele Clips sind möglich übereinander bis der Puffer nicht mehr nachkommt ? Beim mir gehen maximal 2 Clips gerade so bei entweder UHD-8bit-50p oder UHD-10-bit-25p.

    Damit arbeite ich tatsächlich. Allerdings wüsste ich nicht, wozu ich mehr als 2 Spuren mit PiP Effekten benutzen sollte?? Aber als "Benchmark" kann man das mal machen. Bei mir ist dann bei 3 Spuren nativem H264 Schluss mit flüssig. Vielleicht kann ja mal jemand dieses PiP Test + PCC auf einem AMD 5950X nachstellen. Würde mich auch mal interessieren.


    Wenn ich den gleichen Test mit 1/2 Proxy-Vorschau mache, ist nach 6 Spuren Schluss mit flüssig. Aber da hat man dann immer noch eine sehr gute HD Vorschau. Ausserdem ist das dann schon sehr "konstruiert". Sowas kommt in der Praxis kaum vor.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

    Einmal editiert, zuletzt von Grauer Tiger ()

  • Doch schon, dauert nur stundenlang


    Bist Du Dir da sicher?
    M.W. ist ohne QS oder eine kompatible Nvidia Karte kein H.265 Export möglich.


    Sprich auf einem AMD-System ohne Nvidia GraKa geht m.E. kein direkter H.265-Export aus Edius.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Bei mir ist dann bei 3 Spuren nativem H264 Schluss mit flüssig

    Danke für den Test - sehr aufschlussreich. Aber jetzt nochmal ganz genau bitte: Ist das bei 50p oder 25p, bei 8 oder 10-bit Projekt/Quellmaterial ? Der PiP-Test mit mehr als 2 Clips ist deswegen aufschlussreich, weil 1) man oft mehr als den PCC einsetzt 2) Große Projekte nach meiner Erfahrung - v.a. nach längerer Editierzeit - immer langsamer werden beim Abspielen. Viele PiP sind nur eine Methode, um Spielraum aufzuzeigen.


    Meine eigentlicher Wunsch wäre eine flüssige Vorschau mit 2 x UHD-50p-10-bit 4:2:2 H.264 mit PCC und 1-2 weiteren Filtern (z.B. durchaus auch den Stabi - optischer Fluss muss jetzt nicht sein) und Titelspur ohne Rendern und in voller Auflösung. Benötigt wird das bei Überblendungen. Das sollte ein 10er Core doch eigentlich locker schaffen - oder ? Für komplexere Timelines wäre 1/2 Auflösung ja dann eine gute Ausweichmaßnahme.

    Edius X Workgroup - I7-7700K 32GB MSI

    2 Mal editiert, zuletzt von Hotte ()

  • ...und Titelspur...

    Also Titelspuren sollten eigentlich nicht (mehr) verwendet werden.
    Titel gehören heute eigentlich nur noch auf V-Spuren.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Der PiP-Test mit mehr als 2 Clips ist deswegen aufschlussreich, weil 1) man oft mehr als den PCC einsetzt 2) Große Projekte nach meiner Erfahrung - v.a. nach längerer Editierzeit - immer langsamer werden beim Abspielen. Viele PiP sind nur eine Methode, um Spielraum aufzuzeigen.

    Nicht unbedigt. Also mehrere PiPs und PCC sind schon extreme Fresser. Ich habe nie bei größeren Projekten längere Antwortzeiten. Das mag daran liegen, dass ich kaum mehrere Effekte nutze. Was schon oft vorkommt, sind Dreiwege-Farbkorrektur, Farbabgleich und Schärfe. Das hat aber nie Auswirkungen auf die Flüssigkeit der Timeline. Auch Projekte mit 90 Stunden HD in 40 Sequenzen laufen einwandfrei.


    Meine eigentlicher Wunsch wäre eine flüssige Vorschau mit 2 x UHD-50p-10-bit 4:2:2 H.264 mit PCC und 1-2 weiteren Filtern (z.B. durchaus auch den Stabi - optischer Fluss muss jetzt nicht sein) und Titelspur ohne Rendern und in voller Auflösung.

    Also ich hab mal auf die Schnelle 2 x UHD-25P-8Bit H264 nativ (hab leider kein 10Bit Material) mit PCC, Stabilisator und Farbabgleich und Titelspur laufen lassen. Das geht in der "Voll-Ansicht" gerade so.
    In der 1/2 Ansicht gehen auch 5 Spuren und mehr (je nach Effekten). Warum ist die Voll-Ansicht so wichtig? Deine Wunsch-Konstellation kann auch ein Ryzen nicht. Bei den Tests von Comweb kommt dann auch immer die 1/2 Ansicht zum Einsatz. Und da sind kaum Effekte drauf.
    Warum brauchen alle immer so viele Effekte auf Ihren Videos??

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Also ich finde auch, dass man unter 1/2-Auflösung sehr gut schneiden kann. Für die Farbkorrektur kann man ja dann schnell umstellen.


    Und wie schon mal geschrieben, muss man auch schauen welches H.264-Quellmaterial (aus welcher Kamera) verwendet wird. Mit dem UHD 50p aus meiner DJI Osmo Pocket (1) kommt mein Rechner (Core X, ohne QuickSync) auch nicht wirklich klar. Da muss ich schon bei 1 Spur ohne Effekte auf 1/2 zurückstellen.
    Das hat aber nichts mit der Leistungsfähigkeit des Rechners zu tun, sondern mit dem Decoder, denn die Auslastung der CPU liegt da bei ca. 25 - 30% und auch die Nvidia GPU dümpelt da nur so um die 20% herum.


    Und bei bestimmten Dingen ist rendern noch immer die beste Lösung. In Edius X läuft dies ja im Hintergrund, sodass man durchaus (an anderer Stelle) weiterarbeiten kann.


    Für sehr aufwendige Konstrukte mit mehreren V-Spuren - z.B. aufwändige Titel - lege ich eigen Sequenzen an, auch wenn diese nur wenige Sekunden lang sind. Diese dann rendern.
    Wenn Du jetzt diese Sequenz auf die Mastersequenz legst, dann kannst Du sie problemlos kürzen. Bei Blenden laufen dann halt nur die Blenden selbst nicht "glatt", bzw. müssten neu gerendert werden.
    Noch besser ist es natürlich diese Sequenzen in GV HQX umzuwandeln und die HQX-Datei zu verwenden.


    Grade bei Edius X würde ich auch für ein System mit QS eine gute Nvidia RTX als GraKa empfehlen. Bringt bei der Primären Farbkorrektur m.E. einiges.




    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Also ich hab mal auf die Schnelle 2 x UHD-25P-8Bit H264 nativ (hab leider kein 10Bit Material) mit PCC, Stabilisator und Farbabgleich und Titelspur laufen lassen. Das geht in der "Voll-Ansicht" gerade so.

    Vielen Dank für diesen Test!


    Ein solches Setup läuft bei mir in der "1/2 Ansicht" gerade so. In der Vollansicht: No chance.


    Da es in diesem Thread um Performance geht: Man kann sehr grob annehmen, dass dein Rechner auf der Timeline etwa doppelt so schnell ist wie meiner. Das ist gar nicht so weit weg von den Benchmarks mit videolastigen Anwendungen: Wegen physikalischer und thermischer Probleme werden die Prozessoren mit vielen Cores und seit AMDs immensen Fortschritte im Grunde veralteten INTEL-14nm-Litographie niedriger getaktet. Zudem lässt sich die Anzahl der Cores niemals proportional in mehr Performance umrechnen. Das Ergebnis ist daher absolut realistisch. Und die Erkenntnis sehr wertvoll.


    Das 10-bit Szenario würde auch dein Rechner nicht in Vollansicht packen. Allerdings könnte es funktionieren mit der Ansicht "Voll 8-bit" - oder Quicksync entlastet den Prozessor effektiv... Das ist doch schon mal was.


    Mit dem UHD 50p aus meiner DJI Osmo Pocket (1) kommt mein Rechner (Core X, ohne QuickSync) auch nicht wirklich klar. Da muss ich schon bei 1 Spur ohne Effekte auf 1/2 zurückstellen.
    Das hat aber nichts mit der Leistungsfähigkeit des Rechners zu tun,

    Das ist richtig und das ist ärgerlich. Edius mag nur bestimmte Codecs. Mit Panasonic 50p H.264 kommt er gut klar, aber es fordert ihn halt gewaltig. Was mich bei Edius ärgert ist, dass der GoPro Cineform Intermediate-Codec den Rechner quasi zum Stillstand bringt. Im Avisynth-Forum war zu erfahren, dass dies wegen einer neuen Engine in Edius-X schlimmer geworden sei und unter Edius 9 noch halbwegs erträglich war. Keine Ahnung, was da dran ist.
    Kleines Off-Topic hier: Da ist Edius m.E. definitiv nicht ganz auf der Höhe der Zeit. Dafür ist neben DNxHR (Avid, logisch) auch Apple ProRes recht gut implementiert. Aber auch hier könnte die Timeline-Geschwindigeit besser sein. HQX ist zwar ein sehr guter Codec, aber so proprietär, dass nicht mal ffmpeg ihn codiert (dafür Cineform, ProRes oder DNxHR). Da Edius aber nun mal in den Amateurmarkt vorgedrungen ist kann man sich nicht aus dem reinen Broadcast-Profi-Fokus ausruhen. Und auch der ist nicht in jeder Beziehung super: Die 10-bit Austattung ist zwar ok, aber LUTs wurden reichlichst spät implementiert. Und die Zukunft ist längst vor der Tür: Blackmagic Raw und 12-bit werden in den Semiprofi-Modellen bereits verbaut und werden spätestens im nächsten Jahr in der Midrange ankommen.

    Noch besser ist es natürlich diese Sequenzen in GV HQX umzuwandeln und die HQX-Datei zu verwenden.

    Das ist mir zu umständlich. Ich bin der Meinung, dass die Wandlung in Intermediate am Ende des Rohschnitts erfolgen sollte. Ich fange nicht an, mein ganzes Rohmaterial ungeschnitten in HQX umzuwandeln und ganze Plattenschränke damit zu füllen, nur weil die Vorschau in Edius nicht in der Lage ist eine Überblendung von 2 UHD-50p-10bit
    mit LUT und noch ein-zwei Filtern auf einem zeitgemäßen 10-fach Core in der Vorschau abzuspielen. Und wegen LOG gehört PCC inzwischen schlicht zum Rohschnitt. Bei den schnellen Rechnern heute habe ich schon die Erwartung, dass wir von den alten Workarounds wegkommen und auch UHD-Material intuitiv schneiden können - zumindest sollten die Programme massiv daraufhin entwickelt werden. Vielleicht habe ich da auch eine besondere Auffassung, aber ich kann mit Rendern im Schnittalltag nichts anfangen, weil es meinen Workflow einfach ganz massiv stört und immens Zeit frisst. Ich finde Rendern genau genommen ein Krücke, die es niemals gäbe, wenn die Systeme einfach mal schnell genug wären. Lieber stelle ich auf 1/2. Und dieser intuitive Anspruch ist genau der Grund, warum ich so an der Timeline-Performance interessiert bin.



    Grade bei Edius X würde ich auch für ein System mit QS eine gute Nvidia RTX als GraKa empfehlen. Bringt bei der Primären Farbkorrektur m.E. einiges.

    Danke, das ist ein wichtiger Hinweis. Profitieren noch andere Filter ?

    Edius X Workgroup - I7-7700K 32GB MSI

    4 Mal editiert, zuletzt von Hotte ()

  • Wegen physikalischer und thermischer Probleme werden die Prozessoren mit vielen Cores und seit AMDs immensen Fortschritte im Grunde veralteten INTEL-14nm-Litographie niedriger getaktet.

    Na ja, niedrig ist relativ. Der 10850k läuft bei dem Test zu 80% auf allen 20 Cores mit 4,8 GHz und QS ist zu 100% ausgelastet. Die Nvidia ist zu ca. 40% ausgelastet. Hatte ich vergessen zu erwähnen.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Danke, das ist ein wichtiger Hinweis. Profitieren noch andere Filter ?

    Du hast in den Systemeinstellungen > Effekte sowohl bei Farbkorrektur, als auch bei GPUfx die Möglichkeit die GPU einzustellen. Außerdem auch noch bei einigen Formaten in Systemeinstellung > Import/Export.
    Hier kann ich halt nur keine Vergleichswerte zu QS geben.


    Und natürlich profitieren einige PlugIns, wie insbes. NEAT Video sehr von der GraKa.
    Wobei eben grade bei NEAT bestimmte Quellmaterialen vor der Anwendung in GV HQX umgewandelt werden sollten, da sonst extreme Exportzeiten entstehen können.



    Im Avisynth-Forum war zu erfahren, dass dies wegen einer neuen Engine in Edius-X schlimmer geworden sei und unter Edius 9 noch halbwegs erträglich war. Keine Ahnung, was da dran ist.

    Edius 9 lief nur auf meinem alten System, insoweit kann ich da keinen direkten Vergleich zu X ziehen. Aber ich habe den Eindruck, dass mit dem letzten Update 10.20.7620 da Material aus der OP minimal besser wiedergegeben wird.
    Und ich gebe Dir Recht, dass GV da eigentlich dringend etwas tun müsste.


    Zu BRAW kann ich Dir sagen, dass das Material aus meiner 6K recht vernünftig verarbeitet wird, wenn natürlich auch nicht so gut, wie in Resolve. Mit dem letzten Update ist jetzt auch BRAW 2.0 (Gen. 5) möglich. Also da ist GV schon auf Stand.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Zu BRAW kann ich Dir sagen, dass das Material aus meiner 6K recht vernünftig verarbeitet wird

    Ist das dann 12-bit Material und das Projekt dann auch in 12-bit ?
    Wo liegen die Unterschiede hier zwischen Edius und Resolve wenn Du sagst "nicht so gut" ?


    Wobei eben grade bei NEAT bestimmte Quellmaterialen vor der Anwendung in GV HQX umgewandelt werden sollten, da sonst extreme Exportzeiten entstehen können.

    Das ist nachvollziehbar. Alle temporalen Funktionen (NEAT ist doch temporal - oder ?) wie z.B. auch optischer Fluss in höheren Stufen zwingen jeden Prozessor in die Knie. Ich verwende kein NEAT sondern Avisynth-Filter für Entrauschung und andere technische Filter und das läuft dann auch über HQX-Export.

    Edius X Workgroup - I7-7700K 32GB MSI

  • Bist Du Dir da sicher?
    M.W. ist ohne QS oder eine kompatible Nvidia Karte kein H.265 Export möglich.

    Ist das immer noch so? Sorry, ich dachte, das wäre längst erledigt. Noch ein Grund, kein AMD zu benutzen. (zumindest ohne Nvidia-Zusatzkarte). Na ja, aber wer will schon stundenlang H265 software-codieren? Das ist wirklich nur was für Hobbyfilmer.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Ist das dann 12-bit Material und das Projekt dann auch in 12-bit ?
    Wo liegen die Unterschiede hier zwischen Edius und Resolve wenn Du sagst "nicht so gut" ?

    Da Edius nur eine 10-bit TL generieren kann, ist es natürlich 10-bit. Das ist aber insoweit ok, da ja auch der (H.265) Export "nur" in 10-bit erfolgt.
    12-bit würde natürlich durch den "breiteren" Raum in der Bearbeitung selbst auch gewisse Vorzüge/geringere Verluste bringen. Aber das schon sehr hohes Niveau.



    In Edius muss ich die Vorschau auf 8-bit, besser auf 1/2 reduzieren um flüssig arbeiten zu können. Resolve läuft hier flüssiger, aber irgendwie liegt mir dieses Programm von seinem ganzen Konzept her nicht.
    Insoweit erstelle ich in Resolve nur eigene LUTs für Edius, oder verwende Resove-Fusion mit Austauschformet GV HQX. Leider kann man aus dem SAL Fuison nicht als GV HQX exportieren.





    Das ist nachvollziehbar....

    Das Problem liegt offenbar an einer Kombination von einer schlecht gestalteten Einbindung von NEAT in Edius und eben den nicht optimalen Decodern. Das ist auch schon alles bei MMM/GV/NEAT bekannt.


    NEAT nutzt hier lt. GV eine ungünstige Schnittstelle für das PlugIn, was u.a. auch bewirkt, dass NEAT als Filter in Edius nur 8-bit unterstützt, obwohl NEAT ja grundsätzlich auch höhere Farbtiefen bedienen könnte.
    Bisher hat NEAT aber nicht reagiert um da etwas zu ändern, obwohl GV wohl eine neue SDK geliefert hat. Vielleicht wird das ja dann in NEAT 6 endlich was.



    NEAT als Filter "lebt" offenbar sehr stark von einer guten GPU. Jedenfalls bringt der interne Performance-Test von NEAT bei meinem System die besten Ergebnisse (bei UHD 50p = 14,5 fps) unter ausschließlicher Verwendung der GPU, also ohne CPU.
    Diese Werte werden normalerweise auch tatsächlich anstandslos erreicht... = wenn das Quellmaterial mitspielt. Hier kann ich aus eigener Erfahrung nennen:

    • mir aus einer Canon vorliegendes FHD AVCHD (da ist NEAT natürlich noch schneller),
    • das 6K BRAW (wegen 6K Auflösung etwas langsamer),
    • oder eben GV HQX.

    Und sicherlich funktioniert es auch bei anderen Formaten, da kann ich halt nur nicht sagen welche.



    Wendet man NEAT jedoch direkt auf bestimmte Quellmaterialien an - z.B. eben mein H.264 UHD 50p OP-Material - bricht die Berechnung total zusammen. Ein Export, der nur 2 bis 3 Minuten dauern dürfte, benötigt dann über 45 Minuten.
    Dies entspricht etwa der Leistung, die NEAT erbringen würde, wenn nur ein Kern/Thread der CPU genutzt wird. Tatsächlich liegt dann die Auslastung der GPU bei Werten zwischen 0 % bis 8 %, wird also offensichtlich nicht genutzt.


    Wandelt man das betroffene Quellmaterial aber zuvor in GV HQX und wendet NEAT dann erst auf diese HQX-Datei an, läuft alles sauber und schnell. Umwandlung nach HQX und Export von NEAT aus HQX dauern dann zusammen nur so lange, wie es zu erwarten wäre, also in dem Beispiel ca. 3 Minuten.


    Wie gesagt betrifft dies aber nur bestimmte Quellmaterialien, bei denen sich Edius ja auch auf der TL schwer tut. Mit z.B. 6K BRAW läuft der Export also in der zur erwartenden Geschwindigkeit.





    Noch ein Grund, kein AMD zu benutzen.

    Meine Rede... :grinding:

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Da Edius nur eine 10-bit TL generieren kann, ist es natürlich 10-bit.

    Naja, wenn man H.265 ausspielt, dann ist 10-bit sicherlich völlig ausreichend. Ohne eine 12-bit Timeline und -Filter kann man aber den Dynamikumfang des Raw-Format wohl auch nicht gezielt ausreizen. Es ist die Frage, ob Edius dafür überhaupt gemacht ist: Ohne Resolve selbst zu kennen habe ich gehört, dass ein großer Unterschied zwischen Resolve und Edius sei, dass Edius eine YUV- und Resolve eine RGB-Engine habe. Das würde einen Grund liefern, warum Resolve schneller ist: Er muss nicht in YUV übersetzen (allenfalls für die Erstellung einer Vorschau). Der Grund für die YUV-Engine läge in der Historie von Edius. Demnach schlussfolgere ich, dass die Direktauslesung eines Sensors zunächst mal ins RGB-Reich führt und man sollte in RGB weiter machen und erst beim Ausspielen ins Zielgebiet konvertieren.
    Das alles spräche dann bei RAW eher für Resolve und Edius hätte wenig Grundlage dies nativ zu unterstützen. Aber dass die Grenzen fließen können sieht man ja z.B. am PCC, der offenbar ein RGB-Tool im YUV-Reich ist.

    Leider kann man aus dem SAL Fuison nicht als GV HQX exportieren.

    Ich kenne das Programm nicht, aber vielleicht kann es ProRes oder DNxHR. Die werden von Edius gut verstanden (wenn auch etwas langsam auf der Timeline, v.a. ProRes) und sind sehr hochwertige Codecs.



    Neat...benötigt dann über 45 Minuten.

    Man könnte spekulieren, dass er erst mal intern decodiert in ein all-intra-Format und dann entrauscht.


    dass NEAT als Filter in Edius nur 8-bit unterstützt...

    Nicht zu fassen. Und für sowas so viel Geld. Das bleibe ich doch lieber bei SMDegrain von Avisynth - kann unter AVS+ theoretisch bis 16-bit und kostet nix (außer Implementierungsaufwand und der Workflow ist nicht ganz so easy). Ich habe Neat vor ziemlich längerer Zeit unter Edius mal getestet und fand die Qualität nicht toll. Damals war es nicht temporal, zumindest sah es nicht temporal aus und hat Strukturen deutlich sichtbar vermatscht. Aber dadurch, dass es geplugged-in ist, ist es natürlich bequemer zu bedienen. Aber ich bin schon off topic hier....

    Edius X Workgroup - I7-7700K 32GB MSI

    14 Mal editiert, zuletzt von Hotte ()

  • Das schweift jetzt aber vom eigentlichen Thema AMD/Intel schon zu sehr ab. Deshalb nur kurz...



    BRAW ist halt von BMD, ebenso wie Resolve. Insoweit ist es für mich nicht verwunderlich, wenn Resolve BRAW besser unterstützt.
    Edius scheint da aber auf einem gleichen Stand zu sein, wie z.B. Adobe. Insoweit besteht für mich keine Notwendigkeit mir deshalb Resolve "antun" zu müssen. Resolve war halt ein (hochpreisiges) Grading-Tool, das sich zu einem NLE gemausert hat und das kann man m.E. immer noch merken. Mir persönlich liegt halt die Bedienung von Edius mehr.


    YUV stammt noch aus dem analogen Broadcastbereich, sprich Fernsehen und basiert letztlich aber auch wieder auf RGB-Werte. Im digitalen Bereich (CCIR 601) wäre da für die Farbkodierung/Farbmodell eigentlich YCbCr korrekter. Und sollte damit also eigentlich für die internen Vorgänge im NLE nicht wirklich relevant sein, sondern ist m.E. eher eine Beibehaltung von bekannten Bedienelementen bei den älteren Tools.



    Ich kenne das Programm nicht, aber vielleicht kann es ProRes oder DNxHR.

    Fusion ist ein absolut geniales Compositing-Programm mit sehr vielen Möglichkeiten.
    Klar könnte man auch in ProRes oder DNxHR exportieren. Da aber Edius GV HQX verwendet, würde dies sozusagen eine unnötige zusätzliche Wandlung bedeuten.


    Und die älteren SAL Fusion Versionen konnten ja auch problemlos GV HQ/HQX importieren und ausgeben. Warum BMD jetzt darauf verzichtet ist mir unklar und macht für mich auch keinen Sinn.
    In der in Resolve eingebundenen Fusion Version ist GV HQ/HQX ja auch noch weiterhin möglich und bietet grundlegend die gleichen Möglichkeiten wie die SAL.
    Die Arbeit ist halt nur viel umständlicher, da man immer erst ein Resolve Projekt anlegen muss und dann aus diesem heraus sozusagen ein Fusion Projekt.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Da aber Edius GV HQX verwendet, würde dies sozusagen eine unnötige zusätzliche Wandlung bedeuten.

    Ist jetzt nicht unbedingt ein wesentlicher Diskussionpunkt, aber m.E. findet diese Wandlung nicht statt wenn du von SAL aus eh HQX encodieren musst, dann kann es auch DNxHR sein. Als AVID-Produkt unterstützt Edius DNxHR genauso "nativ" wie HQX.

    Edius X Workgroup - I7-7700K 32GB MSI

  • Als AVID-Produkt unterstützt Edius DNxHR genauso "nativ" wie HQX.

    Edius ist KEIN Avid-Produkt :cool:

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Stimmt, wollte eigemtlich was anderes sagen, nämlich dass der Austausch mit Avid-Produkten schon seit geraumer Zeit durch die Integration von DNxHR implementiert wurde. Der Codec läuft auch relativ schnell auf der Timeline (wenn auch nicht ganz so schnell wie HQX).


    Zusammenfassend kann man sagen, dass Quicksync bei Intel auch bei 10-bit einen Vorteil ggü. AMD hat. AMD sollte Stand heute unbedingt mit NVIDIA gepaart werden (wegen HEVC Export). Ob AVX-Unterschiede tatsächlich bei INTEL besser greifen sei mal dahingestellt. Frederiks Tests haben ja gezeigt, dass mehr Cores irgendwann auch die Unterschiede zwischen Intel und AMD ausbügeln und es sogar zu einem AMD-Überholer kommen kann, es wird dann aber teuer. Aus seinen Tests ist ersichtlich., dass erst die Ryzen Oberklasse (59xx) die Überlegung lohnt.


    Mit Blick auf die Timeline-Performance kann Standard H.264 in UHD 10-bit 50p als Überblendungen zwischen 2 Clips auch mit den schnellsten derzeitigen Intel-Prozessoren ohne Rendern nicht in voller Auflösung in der Vorschau ruckelfrei dargestellt werden. Die 1/2 Darstellung (nur 8-bit) geht vermutlich. Bei einem Quadcore ist nur H.264 UHD 10-bit 25p in 1/2 ruckelfrei möglich.


    Danke @Grauer Tiger und @gurlt für Eure Hinweise.

    Edius X Workgroup - I7-7700K 32GB MSI

    2 Mal editiert, zuletzt von Hotte ()