Edius X ab 4K kaum zu gebrauchen

  • Es fehlt die Optimierung über Intel hinaus. Für NVIDIA und RADEON.

    Edius X hat eine Optimierung für Nvidia oberhalb GTX 1060.

    Nur wirkt diese für die Encodierung, also den Export. Und den nehme ich auch regelmäßig für H.265 und bin damit bei meiner RTX 2080TI besser und (minimal) schneller als über die CPU.


    Die Probleme liegen aber eindeutig in der Decodierung.

    Hier wird meine RTX nur minimal angesprochen und H.264 und H.265 laufen hauptsächlich über die CPU.

    Und da scheint es so zu sein, dass Edius bei einigen Quellmaterialien nur wenige Kerne anspricht. Bei anderen Quellen (durchaus auch H.264) läuft das besser, da werden dann auch alle Kerne relativ gleichmäßg ausgelastet. Deshalb bin ich mir wie gesagt ja auch nicht sicher, ob es direkt am Decoder, oder an einer Routine in Edius liegt.


    Über Intel GPU läuft das offenbar wesentlich besser, aber offfenbar auch nicht immer optimal.

    Da mein Rechner aber kein QS hat, habe ich dazu keine eigenen Erfahrungen, sondern nur das Wissen aus dem Informationsaustauch mit anderen.


    RADEON (und auch AMD CPUs) sind halt für einen Videoschnittrechner eigentlich generell und für Edius im besonderen keine so gute Wahl. Denn die RADEON bieten Decoder nur für H.264 4:2.0 mit 8bit und H.265 4:2:0 mit 8 und 10 bit. Zwar sind das auch (bisher) die Standardvorlagen, aber NVIDIA ist da zumindest was H.265 angeht wesentlich besser aufgestellt. Denn die RTX könnten auch einiges mit 4:2:2 und 4:4:4. Und immer mehr Kameras bieten halt auch 4:2:2 an.


    Den besten Leistungsumfang hat derzeit aber Intel. Die modernen GPUs (QS) ab der 11. Gen. unterstützen bei H.265 eigentlich alles, was es gibt, selbst 12bit, was für Dolby Vision interessant ist. Und inzwischen sprechen ja auch andere NLE QS an. Also so ganz verkehrt kann GV damit wohl nicht liegen.



    Ein Kombi-Betrieb bleibt ein Nadelöhr, da dabei ja Intel die Daten entpackt und die Grafikkarte die entpackten Daten in voller Breite "durchschleusen" muss.

    Tut mir leid, aber das ist Nonsens.


    Grafikkarten sind für diese Arbeit nicht nur sehr wohl geeignet, sondern sogar extra dafür konzipert. Und selbstverständlich muss das immer über den Rechner, sprich CPU, gesteuert werden. Also um ein irgendwie geartetes "durchschleusen" kommt man nicht herum. Hierbei ist dann die Kozipierung des Rechners nicht ganz unwichtig.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Ich bleib dabei, dass der Kombibetrieb nicht optimal läuft.


    Normal kommt der Stream komprimiert sowohl in CPU/Intel GPU und wird direkt dekodiert und dargestellt.


    Bei NVIDIA genau so.


    Sobald aber (CPU/Intel GPU) den Stream dekodiert und das dekodierte Bild auf die NVIDIA-Karte schickt, dann ist das Bild entpackt und muss mit Übertragungsbeschleunigungen der CPU, wie AVX und AVX2 in den Grafikspeicher der NVIDIA-Karte geschaufelt werden. Das kostet Zeit gegenüber der Dekodierung vor Ort.


    Diese Auswahl trifft der Anwender durch seine Einstellungen bzw. die vorhandene Hardware, was zur Dekodierung benutzt wird.


    Quicksync, CPU, NVIDIA ?

  • Wenn dem so wäre, müsstest Du ja mit GV HQX oder ähnlichen Codecs jedesmal Probleme haben.


    Außerdem läuft es ja in anderen NLEs mit dem in Edius problematischen Material offenbar auch. Und die nehmen teilweise auch QS zu Hilfe.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Nun das kommt anscheinend auf den Grad der Optimierung an. Der ist wohl je nach Codec und Hardware unterschiedlich ausgeprägt, sonst könnten das andere Hersteller ja nicht flüssiger.


    Oder andere Hersteller tricksen mehr indem sie nur jedes x-te Pixel berechnen und dazwischen interpolieren oder Pixel doppeln oder sonst wie tricksen.


    Ich glaube da lassen sich die Hersteller nicht in die Karten gucken.


    Man kann nur unterschiedliche Möglichkeiten aufzeigen. Was unter der Haube passiert wäre Ziel eines Reengeneerings, was die Hersteller ja verbieten.

  • Halllo,

    ich grätsche da mal rein... ich hab mir den Dornenclip runtergeladen...Taste Shift +Q und wenn der Clip erneut in die Timeline gelegt ist, läufts wie geschmiert mit voller Vorschauqualität im Projekt 10bit 5120x2700.

    :cool:

  • Taste Shift +Q

    Das Shift+Q-Rendern (Rendern und zur TL hinzufügen) entspricht ja auch einer Umwandlung in GV HQX. Erzeugt also relativ große Dateien.


    Ich sehe in Shif+Q ggü. der Umwandlung in der Bin folgenden

    • Vorteil - es wird nur der Teil des Clips in HQX umgewandelt, der auch auf der TL verwendet wird = ggf. kleinere Datei, weniger Speicherbedarf;
    • Nachteil - kryptischer Dateiname (s.a.) , fehlendes Blendenfleisch (s. b.), nur Projektauflösung, -farbraum und mit Layoutereinstellung (s.c.).


    zu a.

    Diese von Edius automatisch erzeugten Dateinamen erschweren die Übersichtlichkeit im Projekt, insbes. aber auf Win-Ebene.

    Zudem liegen dann alle Shift+Q-Dateien im Sammelordner RenderAndPaste. Auch das ist grade bei großen Projekten nicht sehr übersichtlich, insbes. wenn man es gewohnt ist das Quellmaterial in Unterordnern zu sortieren..

    Natürlich lassen sich die Shift-Q-Dateien nach Erstellung auch beliebig verschieben und umbenennen. Doch gehen sie dadurch offline und müssen wieder neu verknüpft werden.

    Mit Umwandeln aus er Bin wird der ursprüngliche Dateiname übernommen (oder lässt sich ändern) und der Ablageort der Datei bestimmen.


    zu b.

    Um auch bei Shift-Q-Rendern genügend Blendenfleich zu bekommen, muss der Clip auf der TL vor dem Rendern entsprechend "aufgezogen" werden. Also auch der Bereich auf der TL sichtbar sein. Das ist insbes. dann umständlich, wenn der Clip schon von anderen Clips umgeben ist.


    zu c.

    Umwandel in der Bin verwendet die Quelldatei in unverändertem Zustand.

    Sift+Q-Rendern erstellt den Clip hingegenso, wie er auf der TL liegt:

    1. hat die Quelldatei eine höhere Auflösung (z.B. UHD-Material in einem FHD-Projekt), so geht diese verloren;
    2. der Farbraum wird in den Projektfarbraum geändert (wichtig bei Aufnahmen im Log-Modus);
    3. alle Änderungen durch den Layouter (Zuschneiden, Position,Strech, Drehen, usw.) werden einberechnet.

    Das kann von Vorteil sein, ist aber oft ein Nachteil.



    Trotzdem ist das Shift-Q-Rendern natürlich eine sehr gute Möglichkeit um Clips, die sich sonst nicht in Echtzeit abspielen lassen auf der TL zu ersetzen.

    Aber man sollte die Unterschiede genau kennen um sich die für einen bessere Variante heraussuchen zu können.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Was ist mit Shift+G ? Das dürfte keinen der Nachteile haben. Ist alles nur temporäres Rendering des Originalclips, der auf der Timeline verbleibt. Oder hat das einen anderen Pferdefuß, den ich gerade nicht auf dem Schirm habe?

  • Was ist mit Shift+G ? ... Ist alles nur temporäres Rendering des Originalclips, der auf der Timeline verbleibt.

    Nein, ist es eben nicht.


    Mit Shift+G = Rendern und zur TL hinzufügen wird eine permanente Renderdatei erstellt.

    Diese liegt dann als eigener Clip "fest" auf einer Spur oberhalb des O-Clips auf der TL. Sie kann dort wie jeder andere Clip selbst bearbeitet werden.

    Wenn man sie nicht mehr verwenden möchte, muss sie explizit von der TL gelöscht werden.


    Temporäre Renderdateien liegen hingegen auf dem Clip (Clip-Rendering) oder der Sequenz (gekennzeichnet durch grüne Linie auf Clip oder Zeitlineal) und verlieren bei besteimmten Änderungen an der TL automatisch ihre Gültigkeit.


    Auch Temporäre Renderdateien löschen wirkt sich nicht auf mit Shift+G erzeugte Clips und Dateien aus.


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Nein, NICHT "zur Timeline hinzufügen". Einfach nur Shift+G. Bei mir (Edius 8.5 WG) wird dann auf der Timeline die Datei temporär durchgerendert, und sie erhält dann einen eigenen winzigen grünen Balken. Sie wird nicht durch einen anderen Clip ersetzt und hat auch den Status eines ganz normalen Rohclips. Eine UHD -Datai in einem HD-Projekt bleibt also UHD. Man kann daher jederzeit die Layoutereinstellungen verändern, den Clip nach links und rechts verlängern usw. Es bleibt also der Originalclip, aber Edius scheint eine temporäre Spiegeldatei in HQX zu bilden, die es dann (flüssig) abspielt. Nimmt man Änderungen vor, verfällt das Rendering, denn es war ja nur temporär.

  • Nein, NICHT "zur Timeline hinzufügen". Einfach nur Shift+G.

    8| Oh wie peinlich, jetzt habe ich Shift+G mit Shift+Q verwechselt. 8|


    :jaMa: Mein Fehler :rot: Alles zurück auf Anfang....

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • 8| Oh wie peinlich, jetzt habe ich Shift+G mit Shift+Q verwechselt. 8|


    :jaMa: Mein Fehler :rot: Alles zurück auf Anfang....

    Da gibts berühmtere "Hoppalas", z.B.:


    "Vorsicht ist die Mutter der Weisheit."

    Analyse:

    - Den Vater kennt man nicht.

    - Ergo: Hat sogar die Vorsicht einmal eine Unvorsichtigkeit begangen.

    :nick:

    :lol:kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-19.0.00025 Studio

  • Hallo,


    ich hab ein ähnliches mit meinem neuen Rechner. Leider hab ich jetzt auch einen AMD!! Als Kamera nutze ich auch eine DJI - die Pocket 2. Somit auch das leidige Thema rendern. ich benötige sicherlich viermal soviel Zeit nun einen Film zu bearbeiten. Der nächste Rechner wird wieder ein Intel mit Quick Sync...aber das wir noch dauern...mein neuer PC ist nicht mal ein Jahr jetzt alt. Oder Edius bringt noch eine Neuerung für NVIDA auf den Markt.


    Was ich suche, sind schönere moderne Übergänge.....ich nutze aktuell die Version 9 mit Windows 11 - dann warte ich am besten auf Edius 11- dann passt das wenigstens zusammen obwohl es dann sicherlich nicht das Renderproblem löst.


    VG iris

  • Hi,


    was Änderungen/Neuerungen für Edius betrifft, war es in letzter Zeit leider sehr Still.

    Die letzen Berichte auf Edius.DE kamen von der NAB Show im April. Und die Upgrades beschränkten sich auch eher nur auf die Einbindung neuer Geräte und Fahlerbeseitigungen. Selbst die schon angekündigte native OFX-Schnittstelle wurde bisher noch nicht ausgeliefert.


    Was ein (bisher auch noch nicht angekündigtes) Edius 11 mitbringen könnte ist daher nicht zu sagen. Wenn es da eine Überarbeitung in der Decodierung der bisher problematischen Codecs geben würde, wäre das natürlich schön, zumal ja der Werbespruch lautet: EDUIS - EDIT ANYTHING , FAST. Aber das bleibt halt abzuwarten.



    Was ich suche, sind schönere moderne Übergänge.....

    Da kommt es jetzt darauf an, was Du unter "schön" und "modern" verstehst, und für welchen Bereich Du diese einsetzen willst.


    Es gäbe natürlich Sammlungen, wie z.B. Vitascene von proDAD, die einiges an Filtern und Übergängen bieten, die auch noch nach eigenen Belangen angepasst werden können. Weitere findet man über entsprechende Suche auch im Netz, teilweise sogar als kostenloser Download.


    Letztlich kann man aber jederzeit mit etwas Überlegung auch mit Edius Bordmittel und einem guten Bildbearbeitungsprogramm (z.B. Photoshop) jederzeit seine eigenen Übergänge gestalten. Man muss halt nur wissen, wie es aussehen soll und dann den Ablauf in Einzelelemente "zerlegen". Anders sind die in heutigen Filmen und eher Videoclips zu sehenden Übergänge auch nicht entstanden.


    Und ganz ehrlich... da wo es passt mag ein Effektübergang gut aussehen; aber diese nutzen sich auch sehr schnell ab und können bei zu häufiger Nutzung dem Film eher schaden als nutzen.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo zusammen,

    Wobei ich dazu raten würde auf alle Fälle auf T-Sturen und möglichst auch auf VA-Spuren zu verzichten

    T Spuren habe ich keine, aber VA Spuren schon. Was wäre denn die Empfehlung, V und A trennen und KEINE VA mehr ?

    Wenn ja , warum ?

    Vielen Dank für eine kurze Aufklärung.

  • Was wäre denn die Empfehlung, V und A trennen und KEINE VA mehr ?

    Genau,


    wobei die Trennung natürlich nur durch die Lage auf den Spuren optisch erfolgt. Also die Gruppierung von Video und Audio wird nicht aufgehoben.

    Es besteht also keine Gefahr, dass diese dadurch asynchron werden.

    Aber es ist halt sehr viel übersichtlicher und lässt sich viel leichter und gezielter in den jeweiligen Bereichen Video und Audio arbeiten, wenn diese strikt voneinander getrennt sind - zumindest nach meinem Dafürhalten, und so ganz allein bin ich mit der Ansicht nicht.


    So kann z.B. der Videoanteil bei Bedarf viel leichter auf eine andere Spur verschoben werden, als wenn da noch der Audioanteil zu berücksichtigen ist. Und sowas ist ja doch öfter mal notwendig


    Aber insbesondere lässt sich dadurch halt viel besser mit dem Audiomaterial arbeiten. Denn man kann sich auf die A-Spuren konzentrieren und läuft nicht Gefahr irgendwelches Audio, das irgendwo auf einer VA-Spur "versteckt" liegt, zu übersehen.


    Probiere es einfach mal aus. Wenn Du dann noch zu den VA-Spuren zurück willst, so ist das ja auch immer möglich-


    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • so hatte ich es bisher noch garnicht betrachtet, aber diese, Deine Sichtweise leuchtet mir ein und ich werde es testen.

    Falls es Dich zusätzlich motiviert: Ich arbeite seit Jahren nur mehr so (aber ich kam von Premiere zu Edius, und da gabs keine VA-Spuren).

    kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-19.0.00025 Studio

  • Hallo,

    ich habe mir die Videos herunter geladen und mit eigenen Aufnahmen von anderen Kameras verglichen..


    Projekt. / Dji / 200 Mbit/s Zugriff Material Original Cliplänge Volle Auflösung (Ruckeln ab Sek.) 1/2 Auflösung (Ruckeln ab Sek.)
    3840x2160 / 25FPS / 420 / 8Bit SSD Unbearbeitet 00:00:19:08 ab Sek. 4 ab Sek. 6
    3840x2160 / 25FPS / 420 / 8Bit SSDM.2 Unbearbeitet 00:00:19:08 ab Sek. 4 ab Sek. 5
    3840x2160 / 25FPS / 420 / 8Bit SSD + Prim. 00:00:19:08 ab Sek. 3 ab Sek. 5
    3840x2160 / 25FPS / 420 / 8Bit SSDM.2 + Prim. 00:00:19:08 ab Sek. 4 ab Sek. 6
    5120x2700 / 25FPS / 420 / 8Bit SSD Unbearbeitet 00:00:19:08 ab Sek. 3 ab Sek. 4
    5120x2700 / 25FPS / 420 / 8Bit SSDM.2 Unbearbeitet 00:00:19:08 ab Sek. 5 ab Sek. 8
    5120x2700 / 25FPS / 420 / 8Bit SSD + Prim. 00:00:19:08 ab Sek. 2 ab Sek. 3
    5120x2700 / 25FPS / 420 / 8Bit SSDM.2 + Prim. 00:00:19:08 ab Sek. 4 ab Sek. 7
    Projekt / Sony Kamera / 280 Mbit/s
    3840x2160 / 50FPS 422 / 10bit SSD Unbearbeitet 00:00:18:36 Tadellos Tadellos
    3840x2160 / 50FPS 422 / 10bit SSD + Prim. 00:00:18:36 Tadellos Tadellos
    3840x2160 / 100FPS 422 / 10bit SSD Unbearbeitet 00:00:22:04 ab Sek. 8 ab Sek. 10
    3840x2160 / 100FPS 422 / 10bit SSD + Prim. 00:00:22:04 ab Sek. 6 ab Sek. 8
    Projekt / Atomos / 680 Mbit/s
    3840x2160 / 25FPS / 422 / 10bit SSD Unbearbeitet 00:00:33:14 Tadellos Tadellos
    3840x2160 / 25FPS / 422 / 10bit SSD + Prim. 00:00:33:14 ab Sek. 18 Tadellos


    Das zeigt eigentlich ganz klar das die Qualität des Codecs wie es aufgezeichnet wird von Dji, GoPro und Co. einfach Probleme machen.


    LG Robert

  • Interessant zu sehen was der Robert da ermittelt hat. Dennoch entweder sind die Dateien „regelkonform“ oder nicht. Wenn sie es sind, dann haben doch Intel/NVIDIA und Konsorten ihre Hausaufgaben nicht gemacht, nämlich Quicksync oder die Grafikkartenhardware nicht 100% am Standard orientiert.


    Vielleicht muss man da auf die nächste Chipgeneration warten, bevor es zufriedenstellend läuft.