Audio: Normalisieren und Systembelastung durch Audiomixer

  • Hallo,


    Ich versuche gerade, zu einem Video den "guten Ton" zu machen.
    Dabei ist sehr störend, dass nach dem Öffnen des Audiomixers, sowohl Bild und Ton nur noch ruckeln. Während in der Puffer- Statusanzeige ohne MIxer mindestens 25/250 (nach kurzer Wiedergabe bis 120/250) angezeigt werden, bleiben mit Mixer gerade mal 4/5,
    also eigentlich kein Wunder, dass es ruckelt. So resourcenhungrig kann der Mixer doch nicht sein? Bisher habe ich noch keinen Paramater gefunden, um den Puffer hochzusetzen. An der PC-Hardware kann es eigentlich nicht liegen: Dual-Core + 10 GB RAM.


    Normalisieren von Audio auf einen bestimmten Pegel ist an sich eine tolle Sache, um z. B. die Lautstärke der Atmo aller Clips anzugleichen. Scheint aber nicht richtig zu funktionieren.
    Habe folgende Vorgehensweise:
    - Markieren einer kompletten Spur bzw. mehrerer Clips in einer Spur.
    - Normalisieren auf z.B. -20 dB.
    Effekt: bei einigen Clips funktioniert's, bei manchen weit drüber oder drunter.
    Was sagt eigentlich bei den Clip-Eigenschaften unter Audioinfo die Verstärkung aus?


    Wer hat ein paar gute Tips?


    Gruß Jürgen

  • Hallo,
    1. Grundsätzlich kann bei der Benutzung des Audio Mixers nicht "gebuffert" werden.
    2. Ausnahme: In EDIUS 6 geht das nun, auch wenn der Audio Mixer angezeigt wird.
    Aber nur wenn alle Schalter im Audio Mixer auf "Aus" sind.
    Wird einer der Schalter auf einen der Modis gesetzt (Spur, Clip etc) wird der Echtzeit Puffer ausgeschaltet.
    3. Dual Core+ CPU muß nicht gleichzeitig heißen, dass es in der Timeline nicht ruckeln kann oder darf.
    Hierzu sollten wir mehr erfahren über das Projekt (vermutlich SD) und auch das Format der verwendeten Clips.
    Auch die Grafikkarte ist von Interesse.


    Zum Normalisieren zitiere ich hier Herrn Gavin Lucas, der auch die Lernkurse für EDIUS erstellt:
    1. Es wird der Durchschnittspegel des Audioclips errechnet
    2. Der Audioclip wird dann entsprechend verstärkt/abgesenkt, um den eingegebenen gewünschten Durchschnittswert zu erreichen.


    Daher ist es bei Edius auch durchaus üblich einen Wert von -20dB oder -15dB einzugeben, weil das als durchschnittliche Lautstärke schon ok ist.
    Diese Edius Methode hat den Vorteil, dass kurzzeitige laute Passagen nicht das gesamte Ergebnis verfälschen.


    Bringt man also in Edius mehrere Clips per normalisieren auf -10dB dann klingen die auch alle mehr oder weniger gleich laut.


    Muss man einen Clip noch feiner optimieren/manipulieren, dann ist der iZotope Effekt "Simple Mastering" die Beste wahl.
    Der hat u.a. auch einen Gain Reglerbereich von -30 bis +15 dB.

    Mit freundlichen Grüßen


    Ulrich Peters
    Products & Applications Consultant
    Grass Valley Germany GmbH

  • Vielen Dank für die Hinweise.


    MIt der Normalisierung werde ich mich noch einmal beschäftigen. Der derzeitige Algorithmus hat klar auch seine Vorteile stößt natürlich auch irgendwann an seine Grenzen.


    Der Tip zum Audiomixer hat mir weitergeholfen, das Video läuft jetzt nahezu ruckelfrei und man hört auch den Ton richtig.
    Grafikkarte in meinem System ist übrigens eine NVIDIA 9600 GT 512 MB.
    Ein keiner Nachteil ist halt, dass man den Pegel nicht mehr dirkt am Kanalregler einstellen kann, sondern nur am Rubberband.Die Bedienung am Mischpultregler in Echtzeit wäre schon besser, da man auch den Pegel im Blick hat.
    Wäre es eigentlich programm- und systemtechnisch nicht möglich, den Mixer entsprechend einzubinden, dass der Puffer aktiv bleibt (nächstes Upgrade)?
    Die Prozessorauslastung liegt bei mir z.B. bei der Wiedergabe von einer Spur mit 3 Wege Farbkorrektur (MIxer, Fenster Farbkorrektur und Vektorskop geöffnet) bei rund 30%. Da scheint bei den modernen Prozessoren offenbar noch "Luft" zu sein.


    Grüße Jürgen

  • Puffer ist nicht gleich Puffer. Man unterscheidet zwei Arten von Puffer.
    1. Der eine Puffer dient dazu den Ton unterbrechungsfrei von der Festplatte zu lesen.
    2. Der andere Puffer dient dazu den Ton unterbrechungsfrei durch den Soundchip abzuspielen.


    Während man beim 1. Puffer noch programmtechnisch bei der Verarbeitung eingreifen kann, hat man bei dem 2. Puffer keinerlei Eingriffsmöglichkeit mehr, weil dieser Puffer hardwaremäßig funktioniert. Man kann ihn zwar programmtechnisch größer oder kleiner dimensionieren, aber jede Tonmanipulation (z.B. Lautstärkeanpassung) muss vor der Übergabe an den 2. Puffertyp stattfinden. Von der Größe des 2. Puffers hängt die Verzögerung ab, wann eine Audiostream-Manipulation nach selbiger an den Lautsprechern hörbar wird. Das nennt man Latenz (Verzögerung).


    Nun kann man sich vorstellen, warum beim Mischpulteinsatz "ohne" Puffer gearbeitet werden muss. In Wirklichkeit wird dann der Puffer aber nur auf einen Minimalwert gesetzt (z.B. 128 Samples).
    (Gerade ASIO-Treiber bieten durch Einstellung dieses Wertes eine Manipulation der Latenz (abhängig von der Rechenpower des PC). Leider wird ASIO von Edius nicht unterstützt.)

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    Einmal editiert, zuletzt von homer ()

  • In den Bereich Normalisierung spielt auch ein Begriff, den ich mal in die Runde werfen möchte, um darüber nachzudenken, ob er nicht als Grundlage für einen Featurerequest dienen kann.


    Dieser Begriff heißt Lautheit, welche nach ITU Rec. BS.1770 und BS.1771 gemessen (Wikipedia: Lautheitsmesser) werden kann. Meiner Ansicht nach sollte die Lautheit genutzt werden, um vom Hörempfinden für einen gleichmäßiges Tonempfinden zu sorgen.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5