VST2 wird von Steinberg eingestellt und Edius hat noch immer den VST Stand

  • Workgroup Version 8.5x

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • VST2 wird von Steinberg eingestellt und Edius hat noch immer den VST Stand

    Gerade beim Stöbern auf der Steinbergseite las ich, dass VST2 jetzt schon eingestellt wird.

    Quelle: steinberg.net/de/newsandevents…ird-eingestellt-4726.html

    Gibt es für Edius irgendeine Perspektive, dass da mal auf VST3 aktualisiert wird?

    Das ist doch langsam lächerlich, oder?

    Wenn man mal bedenkt, dass gerade VST3 ein Sidechaining anbietet, womit man ein Audioducking automatisieren könnte, also Musik runterfahren, wenn der Sprecher spricht.

    Außerdem würde das auch die Welt der Plugins in Edius enorm bereichern.

    Wahrscheinlich kommt jetzt wieder das Argument Profis nutzen externe Audiobearbeitung über DAW- und Mastering-Software.
  • Hi,

    den Wunsch würde ich voll unterstützen!

    GV tut sich ja leider manchmal mit einigen "Grundverbesserungen" etwas schwer. Aber hier könnte es durchaus auch im Broadcast-Bereich ein Interesse daran geben.

    Gruß
    Peter
    ASUS P9X79 - i7-4820K CPU 3,70 GHz - 32 GB RAM - PNY Quadro K2000D - 256 GB Samsung SSD + 2 x 2 TB als RAID 1 - RME Fireface 400 - Win 10 Pro - EDIUS WG 9 - BMD FUSION 9
  • KlausM schrieb:

    Wahrscheinlich kommt jetzt wieder das Argument Profis nutzen externe Audiobearbeitung über DAW- und Mastering-Software.
    Klar kommt das Argument <X
    Wenn du schon von Steinberg sprichst, Wavelab Elements xx hat doch alles was du willst, im Audio-Montageteil auch Ducking
    oder
    wenn's es mehr sein darf,
    Cubase Elements hat sogar eine HD-Video-Spur dabei, dann kannst du den Ton bildgenau anpassen.
    Quasi einfach, gewünschtes Audio als xx.wav exportieren, in den Audio-Editor importieren und bearbeiten, und vv.i
    Beide Elements-Programm kosten doch nur "wenige" Euros
    ----------------
    Vor Jahren gab es von einem andern Video-Schnitt-Softwareanbieter (damals noch aus München) eine quasi einfache Lösung für Video und Audio.
    im Video-Teil die Clips auswählen, dann X-send und das Audio dieser Videoclips öffnete sich im damaligen WaveLab. Nach der Bearbeitung einfach mit der Taste x-????? und der Nachfrage "Audio ersetzen" oder "in neue Spur einfügen", zurück in den Videoteil.
    --------------------------
    Leider dauerte das nicht lang, dann fand eine Verkaufsorgie statt, bis der Letzte dann auch die Video-SW "killte" :cursing:

    So wie ich das sehe,
    wenn du in einer eigentlich schon sehr komplexen Videoschnittsoftware, auch noch eine viele Möglichkeiten umfassenden Audioteil einfügst, weiss niemand ohne riesigen Testaufwand ob es nicht Gegen-Reaktionen/Beeinflussungen gibt.

    Zudem die Lernkurven wird dann noch viel grösser, typisches Beispiel ist doch Sony', jetzt Magix "Vegas", das hätte/hatte einen "bessern" Ton-Teil , ist aber nie ein Verkaufshit geworden.
  • Na das ist ja mal 'ne Verklärung als Argument gegen "Innovationen", die in anderen NLEs längst selbstverständlich sind!
    Den Audiobereich in Edius könnte man als verwaist bezeichnen. Keine Unterstützung von Multichannel-Tracks, noch nicht einmal eine simple Audioblende lässt sich auf Anfang oder Ende zum Ein- und Ausblenden legen. Das geht nur über die Hüllkurvenveränderung. Blöd für den, der daran später noch mal etwas verändern muss.
    Das rudimentäre Set an Audiowerkzeugen wird seit eh und je kritisiert. Hier erwartet auch wirklich niemand Funktionen, die auf DAWs funktional aufschließen. Aber wegen jedem Popelkram eine externe DAW aufrufen zu müssen, nervt.
    Es würde ausreichen, wenn die Engine gängige Plugins unterstützt und eben auch 5.1 und 7.1 Audiotracktypen kennen würde. Und es wäre schon ein ganz großer Wurf, analog zu Videoübergängen, auch Audioübergänge auf Anfang und Ende eines Audiotracks legen zu können und für diese eine Überblenddynamik via Bezierkurve innerhalb des Effekt belegen zu können.

    Jim
  • Mein Softwarestand ist Cubase 9.5, Nuendo 8.2 und Wavelab 9.5.

    Dennoch wäre ein einfaches Ducking, gerade bei Audiokommentaren nicht verkehrt. Genau, weil man in Edius WG auch Audiokommentare mit dem Audiomixer einsprechen kann.

    Es würde vieles in dem Bereich einfacher machen. Genau so, wie mehr Audioplugins auch nach VST3 Standard. Compression mit Sidechannel.
  • KlausM schrieb:

    weil man in Edius WG auch Audiokommentare mit dem Audiomixer einsprechen kann
    Wie geht das genau?
    - ASUS Z170-A, INTEL Core i7-6700K, 32 GB DDR4 RAM, GIGABYTE GeForce GTX 1070 8GB GDDR5, SAMSUNG 850 Pro, LG-BH16NS55, iiYama E2409HDS
    - WIN-10/64 PRO (1903), Firefox, DropBox, ImageBurn, PhantomDrive
    - EDIUS-9.40(5106), Mercalli-2 und 4, NeatVideo, NewBlue ChromaKeyPro, Audacity, Adobe Photoshop, Cyberlink Power-DVD, Movavi VideoConverter Premium, RESOLVE-16, Adobe InDesign, andere diverse System- und AV-Tools
  • Überzeugt! Natürlich nicht einsprechen, nur mixen. Aber das zeigt doch, dass eigentlich eine grundlegende Audiobearbeitung möglich sein soll, aber das letzte Quäntchen für Ducking fehlt.

    Wenn man mit dem Mixer erst alles händisch rauf. und runterregeln muss und das so detailiert, wie ein automatisches Ducking garnicht funktioniert, dann ist man wieder auf "Lautstärkekurven" angewiesen, denen die Bezierfunktion fehlt.

    Wenn man da den Audiomixer betrachtet und Angst um die sonstige Performance bei Einbindung von VST3 hat, ist eine Automation mit vorausschauendem VST sicher sinnvoller als ein Livemischer, der total auf die Bremse drückt.
    VST kann über die Vorausberechnung der Audioverzögerung performanter sein als ein Livemix mit einem Pufferbild.

    Auch ASIO-Unterstützung wäre sinnvoll, um sich von Bild-/Tonhardware (BM, GV, AJA, ...) zu emanzipieren.

    Ich wollte es auch nur aus Aktualität wegen der Einstellung des VST2 SDK noch mal ansprechen. (Mit geringer Hoffnung, dass steter Tropfen den Stein höhlt.)
  • KlausM schrieb:

    aber das letzte Quäntchen für Ducking fehlt
    Ich sehe Ducking eigentlich überhaupt nicht (meine damit nicht manuelles zaubern).

    KlausM schrieb:

    Automation mit vorausschauendem VST sicher sinnvoller als ein Livemischer
    Ich trenne Voice over und diesbezügliche Lautstärke: // Es hat halt jeder seinen eigenen Workflow.
    - Ich spreche in einem ersten Schritt den Kommentar auf.
    - Danach erst stelle ich (stressfreier) die Lautstärke(n) ein.
    // Ducking (wie in anderen NLEs; etwa via PlugIn) wäre sicher unterstützender.
    Gruß kurt
    - ASUS Z170-A, INTEL Core i7-6700K, 32 GB DDR4 RAM, GIGABYTE GeForce GTX 1070 8GB GDDR5, SAMSUNG 850 Pro, LG-BH16NS55, iiYama E2409HDS
    - WIN-10/64 PRO (1903), Firefox, DropBox, ImageBurn, PhantomDrive
    - EDIUS-9.40(5106), Mercalli-2 und 4, NeatVideo, NewBlue ChromaKeyPro, Audacity, Adobe Photoshop, Cyberlink Power-DVD, Movavi VideoConverter Premium, RESOLVE-16, Adobe InDesign, andere diverse System- und AV-Tools