AMD RYZEN 9 - 5950x

  • Ich würde trotzdem fragen, um die Entscheidung treffen : AMD oder Intel?
    Welches zu bearbeitende Format vorliegt ?
    Wenn es um h264-265 in Edius geht, dann eindeutig Intel.

    Zumal das preislich ziemlich gleich ist. Ein AMD 12 Kerner (3900x) kostet genau so viel wie ein Intel 10 Kerner 10850k (der mit QS die zwei fehlenden Kerne locker wett macht und beim Export den AMD abhängt). Beide liegen bei ca. 440,-.


    Geht man auf die 5000er Serie, startet AMD schon bei ca. 700,- EUR für einen 12 Kerner, der Intel 12 Kerner liegt auch in diesem Bereich. Bei der 5000er Serie muss man noch die Edius-Tests abwarten. Bisher konnte AMD da nicht punkten.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • sooo, erster Test von 5900x ist da.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Na ja, so bombastisch ist der Test ja nicht für den Ryzen ausgefallen. Gegen Quicksync bei HD kommt er immer noch nicht an und die gerade mal 6,4 % schnellere Nvidia Codierung erkauft man sich mit 47% (!) Mehrkosten für den Prozessor (Preise von heute). Nicht gerade umwerfend.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Für mich stellt sich das ganze Thema so dar, wobei ich 4K von Panasonic MOV-Material schneide (H264), wo die Situation völlig anders ist als bei FHD.


    • Bei der Prozessorleistung erscheint mir bei 4K die Timeline-Performance um ein Vielfaches wichtiger als die Exportgeschwindigkeit. Bei Full-HD dürfte bei allen Prozessoren ab Quadcore die Timeline-Performance kein Thema mehr sein, von daher schauen vielleicht deswegen dann viele auf die Exportgeschwindigkeit. Aber im Grunde ist für FHD-Material ein Quadcore immer ausreichend, exportieren kann man auch nachts. So gesehen ist ein High-End Prozessor für FHD eigentlich zu schade.
    • Quicksync wird auf der Timeline wirksam, von daher hat man mit einem günstigen INTEL-Prozessor hier klare Vorteile gegenüber einem AMD im gleichen Preissegment, wenn das Quellmaterial in H.264 ist (wohl auch H.265)
    • Quicksync hat keine Wirkung bei HQX, DNxHR oder ProRes, nur bei H.264 und HEVC
    • Quicksync codiert H.264 anders als der H.264 Software-Encoder von Edius. Früher (Edius 8.xx) war der Software-Encoder besser, aber im Laufe von Edius 9 wurde das QS-Encodierergebnis immer besser und heute habe ich gegenüber QS-H264 keinerlei Vorbehalte. Trotzdem lohnt es sich für QS-Fans darauf mal einen genauen Blick zu werfen. Geschwindigkeit ist nicht alles.
    • Es gibt immer wieder Leute die behaupten, dass sie mit INTEL-Quadcores 3 oder 4 oder noch mehr 4K-Clips flüssig gleichzeitig auf der Timeline abspielen könnten. Reden wir mal über 8-bit und H.264 Material auf der Timeline. Meine Erfahrung ist: Geht nicht, ruckelt oder Puffer leer. Bei mir geht eine Überblendung zwischen 2 Clips in 4K (8-bit) gerade flüssig durch, wenn wenig Filter aktiviert sind. Und mein I7-7700K ist einer der schnellen Quadcores. Von daher kann man auch bei Edius nie genug Power haben.
    • Quicksync ist eine reine 8-bit Umgebung. Es hat derzeit keinerlei Vorteil bei 10-bit Material. Bei 10-bit zählt zur Zeit nur die reine Prozessor-Power und da zeigt sich auch in dem o.g. Video, dass der Ryzen9 dem INTEL-Pendant inzwischen überlegen ist. Kommt später vielleicht auch NVIDIA-Unterstützung für 10-bit und auch auf der Timeline dazu, dann werden die Karten endgültig neu gemischt.
    • Ich schneide mit Edius-X inzwischen vermehrt 4K 10-bit H264 auf einem INTEL-7700K Quadcore. Der ist eindeutig zu langsam dafür. Eine Überblendung zwischen 2 solcher Clips mit dem PCC-Filter ist auf der Vorschau nicht mehr ruckelfrei, allenfalls bei halbierter Auflösung. Mit Blick auf 10-bit würde ich dafür einen Highend-AMD kaufen, aber ich warte lieber noch etwas.

    Mein persönliches Fazit:
    Full-HD => Intel
    4K 8-bit => Intel
    4K-10 bit => eher High-End AMD

    Edius X Workgroup - I7-7700K 32GB MSI

    7 Mal editiert, zuletzt von Hotte ()

  • Hi,


    auch wenn Deine Überlegungen grundsätzlich richtig sind, ist es etwas schwierig dies einfach nur an der Auflösung festzumachen. Es kommt doch sehr stark darauf an welche Quellmaterialien (= Codec und Kompression) tatsächlich vorliegen.
    Bei Clips mit Ursprung aus Kameras wie der DJI Pocket, Drohnen, o.ä. hat Edius beim Abspielen auf der TL z.T. große Probleme (war ja hier auch schon oft Thema). Anderes Quellmaterial kann - bei gleicher Auflösung - einwandfrei funktionieren.



    Das Quicksync eine reine 8-bit Umgebung ist, ist leider nicht richtig - s. hier. Aber natürlich benötigt man zur Darstellung auch einen Monitor, der 10-bit kann und dies muss auch im System so eingestellt sein. Und das gilt natürlich auch für die Nvidia-Grafik.


    Da ich aber selbst kein System mit QS habe, kann ich nicht sagen, wie die Edius De- und Encoder da ausgelegt sind. Wobei man eben auch klar zwischen der Leistung eines Decoders und eines Encoders unterscheiden muss.
    Die Edius Decoder sollten eigentlich alle 10-bit-fähig sein.


    Bei den QS-Encodern sollte zumindest der H.265-Export mit 10-bit möglich sein. In Edius X funktioniert der Export mit 10-bit unter H.265 (Nvidia) jedenfalls.


    Da auch der H.264 (Nvidia) -Encoder in Edius X ist ja (bisher) leider nur bis zum Profil High ausgelegt ist, kann es durchaus sein, dass dies auch bei QS so ist. 10-bit wären erst mit Profil High 10, High 4:2:2. oder High 4:4:4 möglich.




    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Quicksync ist eine reine 8-bit Umgebung. Es hat derzeit keinerlei Vorteil bei 10-bit Material.

    Das ist nicht ganz richtig. Du hast nur einen alten Prozessor der 7. Generation. Die neuen CPUs unterstützen sehr wohl 10Bit, sogar bei H265, was für 4k Material auch wohl eher die erste Wahl ist.


    Es gibt immer wieder Leute die behaupten, dass sie mit INTEL-Quadcores 3 oder 4 oder noch mehr 4K-Clips flüssig gleichzeitig auf der Timeline abspielen könnten.

    Ja, allerdings nicht nativ, sondern im HQX Format.


    Aber im Grunde ist für FHD-Material ein Quadcore immer ausreichend, exportieren kann man auch nachts. So gesehen ist ein High-End Prozessor für FHD eigentlich zu schade.

    Hier sind nicht nur Hobby-Filmer unterwegs, die einmal im Jahr die "Silberhochzeit von Onkel Theo" rendern, sondern auch viele, die damit Ihren Lebensunterhalt bestreiten. Und da spielt die Exportzeit eine sehr große Rolle. Eine Exportzeit "über Nacht" ist da nicht akzeptabel.


    Mein persönliches Fazit:
    Full-HD => Intel
    4K 8-bit => Intel
    4K-10 bit => eher High-End AMD

    Dieses Fazit berücksichtigt die neuen Intel-CPUs (10 und mehr Kerne) gar nicht. Wenn ich von einem veralteten Core i7 der 7.Gen. ausgehe, stimmt diese Rechnung. Wenn man aktuelle CPUs gegenüber stellt unter Berücksichtigung der Software (die im Fall von Edius auf Intel optimiert ist), stimmt diese einfache Betrachtung nicht mehr. Auch preislich kann AMD nicht punkten.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Das Quicksync eine reine 8-bit Umgebung ist, ist leider nicht richtig - s. hier. Aber natürlich benötigt man zur Darstellung auch einen Monitor, der 10-bit kann und dies muss auch im System so eingestellt sein.

    Ok, danke für das Update - das wusste ich nicht. Die entscheidene Frage ist natürlich jetzt: Unterstützt Edius-X dann auch QS in 10-bit (auf der Timeline auch v.a.) ? Kann das jemand mit Sicherheit sagen ?


    Die Darstellung auf dem Monitor ist für mich derzeit nicht entscheidend, da ich die 10-bit nur für LOG benötige, um kein Banding zu bekommen. Die Endausspielung nach dem Grading erfolgt derzeit noch in 8-bit.


    Ja, allerdings nicht nativ, sondern im HQX Format.

    Da ist endlich mal einer ehrlich. Ich glaube, dass mancher das nicht versteht und meint, er könnte 4 oder 5 schwere H.264 Clips übereinander flüssig schneiden. Tatsache ist es geht nur mit HQX und dazu muss ich vorher wandeln. Das kostet Zeit und enorm viel Speicher. Hinzu kommt, dass das in SuperFine ebenfalls nicht flüssig ist, weil extrem große Datenmengen verarbeitet werden müssen. HQX Fine wiederum finde ich als Intermediate qualitativ eher zu verlustbehaftet.



    Hier sind nicht nur Hobby-Filmer unterwegs, die einmal im Jahr die "Silberhochzeit von Onkel Theo" rendern, sondern auch viele, die damit Ihren Lebensunterhalt bestreiten. Und da spielt die Exportzeit eine sehr große Rolle. Eine Exportzeit "über Nacht" ist da nicht akzeptabel.

    Verstehe das Argument nicht so ganz. Auch Profis verbringen doch viel mehr Zeit auf der Timeline als beim Export - oder nicht ? Ich will das jetzt nicht zum Diskussionspunkt machen, denn ich bin kein Profi. Ich möchte auch nicht die Exportzeit kleinreden, aber meiner Meninung nach ist flüssige Timelinevorschau etwas, was extrem wichtig ist, aber bei den meisten Performancevergleichen wird in erster Linie auf die Exportzeit geschaut und auch Frederik hat sich erst jüngst mit der Timeline beschäftigt.


    Dieses Fazit berücksichtigt die neuen Intel-CPUs (10 und mehr Kerne) gar nicht. Wenn ich von einem veralteten Core i7 der 7.Gen. ausgehe, stimmt diese Rechnung. Wenn man aktuelle CPUs gegenüber stellt unter Berücksichtigung der Software (die im Fall von Edius auf Intel optimiert ist), stimmt diese einfache Betrachtung nicht .

    Was bedeutet das genau "auf Intel optimiert" ? Ich bin weder INTEL noch AMD-Anhänger. Tatsache ist aber, dass der letzte Test gezeigt hat, dass der 10-Kerner von INTEL hinter dem RYZEN9 liegt.Bisher ist mir nur Quicksync als INTEL--Spezialität bekannt. z.B. die Frage von oben: Unterstützt Edius-X 10-bit QS ? Gibt es sonstige INTEL-Optimierungen, die eher nicht für AMD sprechen ? Das wären sehr wertvolle Zusatzinformationen.

    Edius X Workgroup - I7-7700K 32GB MSI

  • Verstehe das Argument nicht so ganz. Auch Profis verbringen doch viel mehr Zeit auf der Timeline als beim Export - oder nicht ? Ich will das jetzt nicht zum Diskussionspunkt machen, denn ich bin kein Profi. Ich möchte auch nicht die Exportzeit kleinreden, aber meiner Meninung nach ist flüssige Timelinevorschau etwas, was extrem wichtig ist, aber bei den meisten Performancevergleichen wird in erster Linie auf die Exportzeit geschaut und auch Frederik hat sich erst jüngst mit der Timeline beschäftigt.

    Das Argument ist vielleicht nur denjenigen geläufig, die tagtäglich viele Videos bearbeiten und rendern müssen. Mit Intel CPUs zu arbeiten bedeutet ja nicht, dass die Timeline nur stotternd zuckt, sondern in Extremsituationen(und nur dann!) etwas "unflüssiger". Wenn dann aber bei mehreren Videos pro Tag über eine Stunde an Rendern verloren geht, ist das nicht mehr akzeptabel. Vielfach werden bei uns Videos bearbeitet und der Kunde will sofort so schnell wie möglich den fertige Film. Da ist eine halbe Stunde längere Exportzeit sehr hinderlich, zumal sich das dann summiert.


    Was bedeutet das genau "auf Intel optimiert" ? Ich bin weder INTEL noch AMD-Anhänger. Tatsache ist aber, dass der letzte Test gezeigt hat, dass der 10-Kerner von INTEL hinter dem RYZEN9 liegt.Bisher ist mir nur Quicksync als INTEL--Spezialität bekannt. z.B. die Frage von oben: Unterstützt Edius-X 10-bit QS ? Gibt es sonstige INTEL-Optimierungen, die eher nicht für AMD sprechen ? Das wären sehr wertvolle Zusatzinformationen.

    Man muss dazu wissen, dass Software heute exakt auf die Architektur von Prozessoren geschrieben wird. Die CPUs haben Befehlssätze, die eben ausgenutzt werden können oder nicht. z.B. konnte Intel immer mit AVX und Quicksync punkten und hat die AVX Architektur auch für den Multimediabereich weiter ausgebaut. Allein die AVX Engine beschleunigt Prozesse erheblich. Nun ist AVX nicht gleich AVX um mal beim Beispiel zu bleiben. Je nach dem, wie die Software programmiert ist, "erkennt" und nutzt sie diese Funktion. AMD hat viele Befehlssätze heute ebenfalls implementiert, setzt sie aber teilweise anders um, so dass optimierte Software es anders oder gar nicht umsetzt. Man muss es sich so vorstellen: Die Software "fragt": "wer bist du"? Die CPU gibt sich zu erkennen als "Intel". Nun kann die Software ihre Programmierung voll ausfahren. Antwortet die CPU "AMD", versucht die Software ebenfalls ihre Programmierung voll auszufahren, stößt aber dann und wann auf Befehle, die nicht umgesetzt werden können, weil der Prozessor sie möglicherweise in der programmierten Form nicht kennt. Im einfachsten Fall (die Regel) wird dann auf den Befehlssatz einfach verzichtet. In Extremfällen gibt es Fehlfunktionen oder Abstürze.


    Ein Beispiel aus dem Leben als Vergleich: Jemand kauft ein Kofferset genau passend für den Kofferraum seiner Limousine. Das gleiche Kofferset kann man auch in einen Sportwagen laden, der ja "schneller" als die Limousine ist. Es passen leider nicht alle Koffer rein, weil das Set exakt auf den Kofferraum der Limousine abgestimmt ist. also muss man einige weglassen. Man ist jetzt schneller unterwegs, muss aber zwei Mal fahren, weil Koffer fehlen.


    Hinzu kommt, dass es nicht allein die CPU ist. Auch die Mainboards und Chipsätze spielen bei Software und besonders Steckkarten eine Rolle. So gibt es immer wieder Probleme bei AMD Boards mit Erweiterungskarten, die und deren Treiber für Intel-Chipsätze entwickelt wurden. Im Musikbereich z.B. laufen einige UAD Prozessorkarten gar nicht auf AMD Boards. Zudem gibt es immer wieder BIOS Probleme mit AMD Boards. Die Hersteller von AMD Boards bringen in der Regel mehr BIOS Updates in kurzen Zeitabschnitten als für Intel Boards.


    Es spricht grundsätzlich nichts dagegen, wenn du dir einen AMD PC kaufen willst. Das wird schon irgendwie funktionieren, wenn du keine speziellen Hardwareerweiterungen nutzt. Wenn dir die flüssige Timeline bei 5 Spuren nativem UHD wichtig ist und du alle Zeit der Welt hast, das über Nacht stundenlang rendern zu lassen, ist das doch ok.
    Du solltest aber mal eine aktuelle Intel CPU ausprobieren. Die Erfahrung mit einer 4 Jahre alten 4-Kern CPU lässt sich nicht mit den aktuellen Intel CPUs vergleichen.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Unterstützt Edius-X dann auch QS in 10-bit (auf der Timeline auch v.a.) ? Kann das jemand mit Sicherheit sagen ?

    Ja, selbstverständlich unterstützt Edius (und nicht erst seit X) auf der TL 10-bit.
    Das ergibt sich ja schon aus den Projekteinstellungen. Hier muss dann natürlich auch 10bit eingestellt/ausgewählt werden.


    Nur ist es natürlich auch so, dass aus einem 8-bit Quellmaterial nicht automatisch 10 bit werden, nur weil man die Projekteinstellungen umstellt. Das 8-bit Material liegt dann halt nur in einem 10-bit Bearbeitungsraum.
    Das ist aber durchaus sinnvoll, wenn Bearbeitungen der Farbkorrektur vorgenommen werden. Denn so kann es ein leicht besseres Ergebnis bringen, auch wenn später auf 8bit ausgegeben wird.


    Bei 10-bit Material bekommt man dann natürlich die eigentlichen Vorteile.
    Da bietet es sich dann aber auch an dies als 10-bit auszugeben. Dies ist aus Edius sowohl in generell H.265, möglich als auch in H.264, sofern man im Exporter als Profil High 10 wählt. Die einigermaßen moderneren Geräte können dies dann auch entsprechend wiedergeben.


    ---hat @Grauer Tiger schon selbst beantwortet --


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Nur ist es natürlich auch so, dass aus einem 8-bit Quellmaterial nicht automatisch 10 bit werden, nur weil man die Projekteinstellungen umstellt.

    Der Transformer in DVR macht ja bei dem Export dann z.B. eine 10Bit HDR-Datei daraus, habe ich eben wieder ein paar kleine HDR-Videos erstellt.
    Was die 8-Bit Monitordarstellung angeht, sieht das Videobild tatsächlich besser aus, natürlich nicht so wie auf einem 10Bit-Monitor aber doch besser,
    z.B. ohne sichtbaren Banding welches man in einem 8Bit-Projekt natürlich sehen kann. Matthew Scott(Australischer Filmemacher) hat das in mehreren
    Tutorial erklärt und gezeigt schon mit EDIUS 8. Matthew arbeitete damals für den EDIUS-Hersteller auf Messen z.B. ... Die Videos von ihm sind noch
    auf Vimeo und YouTube vorhanden.

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Danke, Tiger für deine Erläuterungen.


    Ja, selbstverständlich unterstützt Edius (und nicht erst seit X) auf der TL 10-bit.

    Oh, halt, das weiß ich natürlich. Meine Frage war, ob 10-bit QS (Quicksync) - also De-/Encode-Beschleunigung in 10-bit unterstützt wird.


    Nur ist es natürlich auch so, dass aus einem 8-bit Quellmaterial nicht automatisch 10 bit werden, nur weil man die Projekteinstellungen umstellt. Das 8-bit Material liegt dann halt nur in einem 10-bit Bearbeitungsraum.
    Das ist aber durchaus sinnvoll, wenn Bearbeitungen der Farbkorrektur vorgenommen werden. Denn so kann es ein leicht besseres Ergebnis bringen, auch wenn später auf 8bit ausgegeben wird.

    Meine Erfahrung zeigt, dass es absolut sinnvoll ist, 8-bit Material generell in einem 10-bit Projekt zu bearbeiten. Ich habe z.B. 8-bit FHD-Material einer Nikon D5300 - eigentlich nur geringfügig - nachbearbeitet und hatte oft Banding im blauen Himmel. Das 10-bit Projekt am Ende als 8-bit HQX exportiert hat jegliches Banding völlig eliminiert. Das Ergebnis ist regelmäßig - auch bei anderen Quellen - nicht nur leicht, sondern dramatisch besser. Ich weiß nicht genau, was da passiert (vielleicht weiß es jemand ?), aber ich vermute, dass die gesamte Bearbeitung im vollen 10-Bit-Raum erfolgt und bei Ausgabe wieder - sehr geschickt - zusammengedithert wird. Dummerweise ist das 10-bit Projekt wieder eine Bremse auf der Timeline ;) - im Moment jedenfalls.


    Sind eigentlich alle alten Farbkorrektur- und sonstigen Filter (z.B. auch Stabi) durchgängig 10-bit ? Auch der alte (fürchterliche) Sharpener ?

    Edius X Workgroup - I7-7700K 32GB MSI

  • Meine Frage war, ob 10-bit QS (Quicksync) - also De-/Encode-Beschleunigung in 10-bit unterstützt wird.

    Also der Decoder sollte eigentlich auch 10bit können, sofern es eben 10bit-Material ist.


    Bei den QS Encodern müsstest Du bitte selbst nachschauen, da ich kein System mit QS habe. Wenn dort im Exporter 10 bit gewählt werden können, kann es auch ausgegeben werden.



    Bei H.265 bin ich mir ziemlich sicher, dass dies auch unter QS gehen wird. Nur bei H.264 bin ich mir halt nicht sicher, ob es da eine ähnliche Beschränkung gibt., wie bei dem H.264 Nvidia Exporter.



    Ich weiß nicht genau, was da passiert (vielleicht weiß es jemand ?), aber ich vermute, dass die gesamte Bearbeitung im vollen 10-Bit-Raum erfolgt und bei Ausgabe wieder - sehr geschickt - zusammengedithert wird.

    Das 8-bit-Material wird zunächst nur in den 10-bit-Raum eingepasst. Dadurch entstehen also keine neuen Farbinformationen (wie denn auch).
    Bearbeitest Du jetzt das 8-bit-Material, so gehen durch den größeren "Speicher" halt einfach weniger, im günstigsten Fall keine Informationen verloren, wie es bei einer reinen 8-bit-Bearbeitung zwangsläufig passiert.
    Wird das Ergebnis dann in 8-bit ausgegeben können also nur leicht Unterschiede, bzw. geringere Verluste entstehen.



    Sind eigentlich alle alten Farbkorrektur- und sonstigen Filter (z.B. auch Stabi) durchgängig 10-bit ?

    Die Filter aus dem Bereich Farbkorrektur sind alle 10-bit.
    Bei den übrigen ist m.W. nur Chrominanz auf 8-bit beschränkt, sowie fast alles aus dem Bereich Keyer/Mischen.


    Erkennbar ist die an dem blauen ! im Effekte-Fenster. Da geht dann auch ein PopUp mit entsprechenden Hinweis auf.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

    Einmal editiert, zuletzt von gurlt ()

  • Danke für die Infos.


    Wird das Ergebnis dann in 8-bit ausgegeben können also nur leicht Unterschiede, bzw. geringere Verluste entstehen.

    In der Theorie nachvollziehbar, in der Praxis indes sind die Unterschiede überraschenderweise sehr deutlich, worüber ich sehr froh bin: Das Banding verschwindet ganz einfach, auch wenn ich nicht einen einzigen Filter anwende.

    Bei den QS Encodern müsstest Du bitte selbst nachschauen, da ich kein System mit QS habe.

    QS/nonQS unterscheidet sich nur durch das Häkchen "Verwenden des Hardware Enkodierers", das bei mir aktiv ist bei H.264-Export. Die 10-bit können ausgewählt werden, da aber mein System kein 10-bit QS kann (wie ich hier gelernt habe), dürfte das also kein sicheres Erkennungsmerkmal sein dafür, dass wirklich 10-bit mit QS exportiert wird. ;) Deswegen habe ich nachgefragt, vielleicht weiß es jmd. anderes.

    Erkennbar ist die an dem blauen ! im Effekte-Fenster. Da geht dann auch ein PopUp mit entsprechenden Hinweis auf.

    Wieder was gelernt. Danke.

    Edius X Workgroup - I7-7700K 32GB MSI

    4 Mal editiert, zuletzt von Hotte ()

  • Die 10-bit können ausgewählt werden, da aber mein System kein 10-bit QS kann (wie ich hier gelernt habe), dürfte das also kein sicheres Erkennungsmerkmal sein dafür, dass wirklich 10-bit mit QS exportiert wird.

    Eigentlich müsste dann ja eine Fehlermeldung kommen, wenn es nicht möglich wäre.
    Aber Du bräuchtest ja nur einmal einen kurzen Test-Clip mit 10-bit zu exportieren und die geschriebene Datei mit MediaInfo zu überprüfen.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • So ich habe jetzt mal einen Test gemacht (10-bit Projekt Mischmaterial FHD, 4K, 8-bit und 10-bit) Ausgabe in 4K:

    • Ausgabe H.264 8-bit High-Profile ohne Hardware-Encoder (QS) dauert 2:05 Minuten
    • Ausgabe H.264 8-bit High-Profile mit Hardware-Encoder (QS) dauert 0:52 Minuten
    • Ausgabe H.264 10-bit High10-Profile ohne Hardware-Encoder (QS) dauert 2:26 Minuten (definitiv eine 10-bit Datei)
    • Ausgabe H.264 10-bit High10-Profile mit Hardware-Encoder (QS) nicht möglich, die Checkbox ist ausgegraut

    Jetzt wäre es mal interessant, ob bei einem Besitzer eines neueren QS-Prozessors bei High-10 Ausgabe die Checkbox wählbar ist und was das ausmacht.


    Und dort, wo High-10 mit QS geht, wie sich das auf die Timeline auswirkt. In einem 10-bit Projekt mit 10-bit - 4K - 25p - 4:2:2 H.264 Material (Panasonic G9) mit 3 Clips ohne Filter lasse ich die Wiedergabe anhalten, wenn der Puffer leer ist. Bei Wiedergabe "Voll (10-bit)" werden nur 2 Sekunden gespielt. Bei Wiedergabe "Voll 8-bit" immerhin 6 Sekunden. Voll 8-bit mit 3x PCC LUT stoppt bereits nach 1 Sekunde. Bei 1/2 Auflösung mit PCC läuft es durch und der Puffer kann gerade so mithalten. Bei 50p 8-bit 4K sind maximal 2 Clips (Überblendung) halbwegs vorschaubar.

    Edius X Workgroup - I7-7700K 32GB MSI

    5 Mal editiert, zuletzt von Hotte ()

  • Der quicksync-fähige Teil des Prozessors muss 10bit unterstützen. Bei den älteren Prozessoren gab es welche, die nur 8bit unterstützt haben. Die aktuellen Prozessoren unterstützen oft auch 10bit Quicksync.


    Wenn ich richtig erinnere, dann wurde auch unterschieden zwischen Encode und Decode und dann noch einmal zwischen H.264 und H.265.


    Je neuer der Intel desto mehr der vorhergehenden Features werden unterstützt, aber nur, wenn eine Grafikeinheit im Prozessor vorhanden ist.


    Bei Edius X muss man noch auf ein Vorhandensein von AVX2 achten, sonst läuft Edius X nicht oder ist gar nicht installierbar.

  • Wenn ich richtig erinnere, dann wurde auch unterschieden zwischen Encode und Decode und dann noch einmal zwischen H.264 und H.265.

    Richtig, habe ich ja auch schon geschrieben.


    De- und Encoder sind zwei ganz unterschiedliche Sachen. Und es gibt in Edius teilw. sogar unterschiedliche De- bzw. Encoder für den gleichen Codec, z.B. H.264 und H.264 (Nvidia).
    Bei den Decodern wählt Edius das unter Berücksichtigung der Systemmöglichkeiten und -einstellungen (Hardwarebeschleunigung) selbsttätig. Beim Export gibt man den Encoder unter in Datei ausgeben durch Auswahl vor.


    Und natürlich haben andere Codecs auch eigene De-/Encoder.
    H.264 und H.265 sind halt zwei völlig unterschiedliche Codecs, so wie ja auch MPEG-2 und H.264.




    Bei Edius X muss man noch auf ein Vorhandensein von AVX2 achten, sonst läuft Edius X nicht oder ist gar nicht installierbar.

    AVX2 gibt es seit Intel "Heswell", ist also bereits in den CPUs der 4.Generation enthalten (abgesehen von den noch auf Ivy Bridge beruhenden CPUs für den 2011er Sockel)


    Der i7-7700K von @Hotte hat also selbstverständlich AVX2, sonst hätte er ja Edius X auch nicht installieren können.






    So ich habe jetzt mal einen Test gemacht

    Hattest Du auch mal die Ausgabe von H.265 getestet?
    Denn eigentlich sollte da die 10-bit Ausgabe funktionieren.





    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Ausgabe H.264 10-bit High10-Profile mit Hardware-Encoder (QS) nicht möglich, die Checkbox ist ausgegraut

    Bei meinem Core i9 10850k geht es. Hab es allerdings nur kurz mit einem HD Video 10 Bit probiert. Also High, 10 Bit 422. 4:35 Video in 4 Sek. exportiert. Mit UHD Video: Export in 2:16
    Ich würde für UHD allerdings genau wie @gurlt lieber in H265 exportieren.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

    2 Mal editiert, zuletzt von Grauer Tiger ()

  • Das ist ja interessant. Im H.265 Export Fenster gibt es gar keinen Haken "Hardwareencoder verwenden". Gleichwohl beobachte ich beim 10-bit UHD HEVC-Export, dass die CPU auf 20% Leistung ist und die GPU an der Oberkante um 96%.


    Dass hier QS am Werk ist dafür spricht auch, dass H.265 UHD 10-bit ungefähr so lange dauert wie H.264 UHD 10-bit ohne QS - denn H.265 ist ja wesentlich komplexer zu codieren.


    @Grauer Tiger arbeitest Du ab und an mit H.264 UHD auf der Timeline ? Mich würde mal interessieren, was der 10850K so drauf hat. Wenn Du UHD von einer Standard-Kamera (Nikon, Panasonic... nicht Drohne) mit dem Layouter BiB machst und auf alle Clips den PCC (Primary Color Correction) legst, wie viele Clips sind möglich übereinander bis der Puffer nicht mehr nachkommt ? Beim mir gehen maximal 2 Clips gerade so bei entweder UHD-8bit-50p oder UHD-10-bit-25p.

    Edius X Workgroup - I7-7700K 32GB MSI

  • Das ist ja interessant. Im H.265 Export Fenster gibt es gar keinen Haken "Hardwareencoder verwenden".

    Das liegt daran, dass diese Encoder ausschließlich mit QS funktioniert. Dadurch braucht dies dann auch nicht angewählt werden.
    Ohne QS geht dann nichts und Du erhältst eine Fehlermeldung wenn Du ihn nutzen möchtest.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro