VST2 wird von Steinberg eingestellt und Edius hat noch immer den VST Stand

  • Gerade beim Stöbern auf der Steinbergseite las ich, dass VST2 jetzt schon eingestellt wird.


    Quelle: https://www.steinberg.net/de/n…ird-eingestellt-4726.html


    Gibt es für Edius irgendeine Perspektive, dass da mal auf VST3 aktualisiert wird?


    Das ist doch langsam lächerlich, oder?


    Wenn man mal bedenkt, dass gerade VST3 ein Sidechaining anbietet, womit man ein Audioducking automatisieren könnte, also Musik runterfahren, wenn der Sprecher spricht.


    Außerdem würde das auch die Welt der Plugins in Edius enorm bereichern.


    Wahrscheinlich kommt jetzt wieder das Argument Profis nutzen externe Audiobearbeitung über DAW- und Mastering-Software.

  • Hi,


    den Wunsch würde ich voll unterstützen!


    GV tut sich ja leider manchmal mit einigen "Grundverbesserungen" etwas schwer. Aber hier könnte es durchaus auch im Broadcast-Bereich ein Interesse daran geben.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Wahrscheinlich kommt jetzt wieder das Argument Profis nutzen externe Audiobearbeitung über DAW- und Mastering-Software.

    Klar kommt das Argument <X
    Wenn du schon von Steinberg sprichst, Wavelab Elements xx hat doch alles was du willst, im Audio-Montageteil auch Ducking
    oder
    wenn's es mehr sein darf,
    Cubase Elements hat sogar eine HD-Video-Spur dabei, dann kannst du den Ton bildgenau anpassen.
    Quasi einfach, gewünschtes Audio als xx.wav exportieren, in den Audio-Editor importieren und bearbeiten, und vv.i
    Beide Elements-Programm kosten doch nur "wenige" Euros
    ----------------
    Vor Jahren gab es von einem andern Video-Schnitt-Softwareanbieter (damals noch aus München) eine quasi einfache Lösung für Video und Audio.
    im Video-Teil die Clips auswählen, dann X-send und das Audio dieser Videoclips öffnete sich im damaligen WaveLab. Nach der Bearbeitung einfach mit der Taste x-????? und der Nachfrage "Audio ersetzen" oder "in neue Spur einfügen", zurück in den Videoteil.
    --------------------------
    Leider dauerte das nicht lang, dann fand eine Verkaufsorgie statt, bis der Letzte dann auch die Video-SW "killte" :cursing:


    So wie ich das sehe,
    wenn du in einer eigentlich schon sehr komplexen Videoschnittsoftware, auch noch eine viele Möglichkeiten umfassenden Audioteil einfügst, weiss niemand ohne riesigen Testaufwand ob es nicht Gegen-Reaktionen/Beeinflussungen gibt.


    Zudem die Lernkurven wird dann noch viel grösser, typisches Beispiel ist doch Sony', jetzt Magix "Vegas", das hätte/hatte einen "bessern" Ton-Teil , ist aber nie ein Verkaufshit geworden.

    -------------------
    Schnitt-PC:
    Gehäuse: Cooler Master Midi Tower Centurion 590, Netzteil Cooler Master, Silent Pro 700W, Mainboard : Asus Sabertooth X58, LGA1366, Speicher : Corsair 3x4GB, DDR3-1333, CPU : Intel Core i7 960, 3.20 GHz, LGA 1366, Kühler : Noctua CPU-Kühler NH-D14, Festplatten: 1x Samsung SSD 850EVO , 3 x 1 TB-WD Black, 1 x 4TB WD Black, Grafikkarte: NVIDIA GTX 960, OS : Win-10-64bit Pro (1909), Edius 8.53 WG, HD-Storm, 2 x 24" FHD-Monitore,

  • Na das ist ja mal 'ne Verklärung als Argument gegen "Innovationen", die in anderen NLEs längst selbstverständlich sind!
    Den Audiobereich in Edius könnte man als verwaist bezeichnen. Keine Unterstützung von Multichannel-Tracks, noch nicht einmal eine simple Audioblende lässt sich auf Anfang oder Ende zum Ein- und Ausblenden legen. Das geht nur über die Hüllkurvenveränderung. Blöd für den, der daran später noch mal etwas verändern muss.
    Das rudimentäre Set an Audiowerkzeugen wird seit eh und je kritisiert. Hier erwartet auch wirklich niemand Funktionen, die auf DAWs funktional aufschließen. Aber wegen jedem Popelkram eine externe DAW aufrufen zu müssen, nervt.
    Es würde ausreichen, wenn die Engine gängige Plugins unterstützt und eben auch 5.1 und 7.1 Audiotracktypen kennen würde. Und es wäre schon ein ganz großer Wurf, analog zu Videoübergängen, auch Audioübergänge auf Anfang und Ende eines Audiotracks legen zu können und für diese eine Überblenddynamik via Bezierkurve innerhalb des Effekt belegen zu können.


    Jim

  • Mein Softwarestand ist Cubase 9.5, Nuendo 8.2 und Wavelab 9.5.


    Dennoch wäre ein einfaches Ducking, gerade bei Audiokommentaren nicht verkehrt. Genau, weil man in Edius WG auch Audiokommentare mit dem Audiomixer einsprechen kann.


    Es würde vieles in dem Bereich einfacher machen. Genau so, wie mehr Audioplugins auch nach VST3 Standard. Compression mit Sidechannel.

  • weil man in Edius WG auch Audiokommentare mit dem Audiomixer einsprechen kann

    Wie geht das genau?

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.10.13903-WG; RESOLVE-18.6.6.0007 Studio

  • Überzeugt! Natürlich nicht einsprechen, nur mixen. Aber das zeigt doch, dass eigentlich eine grundlegende Audiobearbeitung möglich sein soll, aber das letzte Quäntchen für Ducking fehlt.


    Wenn man mit dem Mixer erst alles händisch rauf. und runterregeln muss und das so detailiert, wie ein automatisches Ducking garnicht funktioniert, dann ist man wieder auf "Lautstärkekurven" angewiesen, denen die Bezierfunktion fehlt.


    Wenn man da den Audiomixer betrachtet und Angst um die sonstige Performance bei Einbindung von VST3 hat, ist eine Automation mit vorausschauendem VST sicher sinnvoller als ein Livemischer, der total auf die Bremse drückt.
    VST kann über die Vorausberechnung der Audioverzögerung performanter sein als ein Livemix mit einem Pufferbild.


    Auch ASIO-Unterstützung wäre sinnvoll, um sich von Bild-/Tonhardware (BM, GV, AJA, ...) zu emanzipieren.


    Ich wollte es auch nur aus Aktualität wegen der Einstellung des VST2 SDK noch mal ansprechen. (Mit geringer Hoffnung, dass steter Tropfen den Stein höhlt.)

  • aber das letzte Quäntchen für Ducking fehlt

    Ich sehe Ducking eigentlich überhaupt nicht (meine damit nicht manuelles zaubern).

    Automation mit vorausschauendem VST sicher sinnvoller als ein Livemischer

    Ich trenne Voice over und diesbezügliche Lautstärke: // Es hat halt jeder seinen eigenen Workflow.
    - Ich spreche in einem ersten Schritt den Kommentar auf.
    - Danach erst stelle ich (stressfreier) die Lautstärke(n) ein.
    // Ducking (wie in anderen NLEs; etwa via PlugIn) wäre sicher unterstützender.
    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.10.13903-WG; RESOLVE-18.6.6.0007 Studio