Audiomischung - welche Spur auf wieviel db aussteuern

  • Ich sitze gerade bei der Audiobearbeitung eine Reisedoku. Auf den Tonspuren liegen im Wesentlichen O-Ton, Athmo, Kommentar und Musik. Irgendwo hatte ich mal gelesen, wie die einzelnen Spuren eingestellt werden, damit sich eine harmonische Mischung entsteht. Mir ist klar, dass das Endergebnis bei -9 db liegen soll. Nun würde mich interessieren ob die folgenden Einstellungen prinzipiell passen:


    Kommentar -9 db
    O-Ton/Atmosphäre -20 db
    Musik -20 db und Absenkung unter der Kommentarstimme um weitere 3 db


    Wie macht ihr das?


    Ich glaube, dass es genau dazu schon mal hier eine Diskussion gab, allerdings vor langer Zeit und ich kann sie nicht mehr finden. Gibt es im Netz sonst wo prinzipielle Info dazu? Ich habe bislang nichts gefunden!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Hi,


    so generell kann man das leider nicht sagen. Maximal sind das grobe Anhaltspunkte - wenn überhaupt....



    Denn Deine Angaben beziehen sich ja auf den Pegel in Edius.
    Dieser sagt aber noch lange nichts darüber aus, wie "laut" die auf der Spur befindliche Quelldatei ist. Denn ich bezweifle mal sehr stark, dass Deine Audiodateien, die ja aus unterschiedlichen Quellen (Kamera, eigene VoiceOver, Musikkonserve) kommen alle einheitlich z.B. nach EBU-R 128 ausgesteuert sind.


    Wenn jetzt z.B. die Tonaufnahme aus Deiner Kamera vielleicht mit -15 dB untersteuert ist, und Du aber Dein VoiceOver mit -9 dB, oder gar auf 0 dB ausgesteuert hast, dann besteht da ja schon von vornherein ein großer Unterschied zwischen Deiner Athmo und dem Kommentar. Und schon passt die Empfehlung nicht mehr.


    Außerdem sagt die Aussteuerung auch noch lange nichts darüber aus wie "laut" ein Geräusch - bei gleichem Spitzenpegel!!! - empfunden wird. Da spielen viele Faktoren eine Rolle. Bestimmte Töne, oder Frequenzen werden eben anders "gehört".
    Wurden z.B. Kompressoren verwendet, erscheint der Ton auch noch sehr viel "lauter", weil alles verdichtet wurde, ohne dass dabei ein Spitzenpegel überschritten wird. Das Phänomen kennst Du ja bestimmt aus den Werbepausen im Fernsehen, die einem ja immer unheimlich "laut" erscheinen. Oder aus einem Film, bei dem man vor Musik und Geräuschkulisse die Sprache nicht mehr versteht. Danke liebe Kompressoren...




    Um die richtige Abmischung zu finden kann man halt nur diese beiden Dinger benutzen, die einem seitlich aus dem Kopf wachsen.


    Deshalb empfehle ich ja auch immer wieder doch auch mal was in die eigene Audioausstattung zu investieren, statt sich die vielleicht 5. Kamera zu kaufen. Ein guter Studiokopfhörer kostet nicht die Welt und halt viele Jahre. Meiner ist schon gut 20 Jahre alt und hat vor kurzem mal ein paar neue Ohrpolster spendiert bekommen.
    Und etwas besseres als der OnBoard-Sound und PC-Lautsprecher könnte es auch schon sein. Muss ja nicht alles auf einen Schlag gekauft werden. Audioequipment hält bei gutem Umgang ewig.


    Und wenn man halt mit dem OnBoard-Sound arbeitet dann aber bitte - zumindest beim Schnitt - dort evtl. eingestellte Sound-Effekte deaktivieren. Denn diese werden nur bei der Wiedergabe angewandt und nicht bei der Ausgabe in eine Datei.





    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Denn Deine Angaben beziehen sich ja auf den Pegel in Edius.

    Ja klar, aber gemeint ist nicht der Wert der Absenkung in der Timeline, sondern der angezeigte Spitzenwert im Edius-Audiomischer! Und damit hat sich deine Überlegung im nächsten Absatz natürlich relativiert:



    Wenn jetzt z.B. die Tonaufnahme aus Deiner Kamera vielleicht mit -15 dB untersteuert ist, und Du aber Dein VoiceOver mit -9 dB, oder gar auf 0 dB ausgesteuert hast, dann besteht da ja schon von vornherein ein großer Unterschied zwischen Deiner Athmo und dem Kommentar. Und schon passt die Empfehlung nicht mehr.

    Natürlich kontrolliere ich die akustisch mit Studiokopfhörer und Monitorspeakern. Ich hatte nur vor langer Zeit einmal eine Empfehlung bezüglich des Mischungsverhältnisses gelesen und hatte die wieder gesucht - aber nicht gefunden!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Also ich mache das nicht nach Lehrbuchvorgaben sondern nach Gefühl. Es muss verständlich klingen und die Musik muß zu hören sein, aber den Kommentar nicht stören.
    Es gibt manchmal Lieder, die haben Töne, welche trotz gleicher Absenkung (im Vergleich) sehr störend wirken.


    Apropos: Und wenn man Filme schaut ist es leider so, daß Stimmen oft zu leise sind und die Musik (ohne Sprechen) dann viel zu laut. Das nervt am TV wirklich, ich frage mich, welche Amateure da am Werk waren. Da steckt zwar ein System hinter, mir erschließt sich der Sinn aber nicht.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Das nervt am TV wirklich, ich frage mich, welche Amateure da am Werk waren. Da steckt zwar ein System hinter, mir erschließt sich der Sinn aber nicht.

    Hi Chris,


    wie von mir oben beschrieben liegt das dort an dem massiven Einsatz von Kompressoren. Die "drücken" die Bereiche mit hohen Pegeln zusammen.
    Gleichzeitig wird dann der Gesamtpegel aber eben um den oben "abgeschnittenen" Bereich verstärkt. Das bewirkt wiederum, dass es jetzt mehr "Ton" mit einem (gleichmäßiger) hohen Pegel gibt, es also "lauter" wird.
    Ziel dabei ist, dass es damit "gewaltiger" klingen soll.


    Insbes. beim heutigen Musikgeschmack ist es ein entscheidender Faktor, dass die Beats auch richtig "einschlagen" sollen. Ebenso bei actionreichen Filmen, der Zuschauer soll von den Explosionen möglichst "in den Sessel" gedrückt werden.
    Die Sprache im Film wird aber nicht, oder doch zumindest weniger komprimiert, denn sonst würde sich das nicht gut anhören. Also liegt die Sprache in einem breiten Pegelbereich und wird deshalb von Musik und Geräuschen, die ja eben in einem schmaleren, aber stetig hohen Pegelbereich liegen überlagert.


    Im Kino, mit den völlig anderen Soundanlagen klingt das dann vielleicht auch noch gut. Wenn das jetzt dann für den TV umgesetzt wird, kann es aber eben genau dazu führen, dass die Sprachen nicht mehr durchdringt.
    Da sind dann auch keine Amateure am Werk, sondern die Automation. Denn anhören würde ja Zeit und damit Geld kosten.



    Bei den Webeblocks ist es ein kleines bisschen anders, denn das dort gesagte soll ja verstanden werden. Also stimmt da zumindest die Abmischung.
    Um aber Aufmerksamkeit zu bekommen und dem Kunden die Botschaft im wahrsten Sinn "ins Ohr zu schreien" wird dann komprimiert.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Grundsätzlich haben meine Videos über die gesamte Lauflänge einen musikalischen Hintergrund
    der durchgehend unter dem Pegel von dem O-Ton(nicht jede O-Ton Passage ist brauchbar!) und unter
    dem eingesprochenen Kommentar gepegelt wird. Ich arbeite also nicht mit lauter Hintergrundmusik,
    die ich an den Stellen mit O-Ton und Kommentareinblendungen absenken müsste.
    Es ist für mich viel einfacher O-Ton und Kommentare in dominierender Lautstärke zu produzieren
    und dann die Lautstärke mit durchgehen vorhandenen Hintergrundmusik einmal nur abzusenken/anzupassen.

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Musik kann im Mix nach Vorne oder nach Hinten gemischt werden. Hierzu dienen die Transienten, die man verstärken oder auch abschwächen kann. Dadurch kann man die Sprachverständlichkeit erhöhen, wenn man denn künstlich Einfluss darauf nehmen möchte.


    Ebenso kann man den Ton von Stimme und Musik komprimieren, um die einzelnen Komponenten des Mixes anzugleichen und damit später besser im Verhältnis mischbar zu machen.

  • @Peter,
    ja generell ist es schon so gewünscht. Das mit "Amateur" war auch eher ironisch gemeint, aber schon mit Kritik. Im Kino würde ich das auch als halbwegs passend ansehen. Ist eine ganz andere Situation als zu Hause am TV.


    Wie in Spielfilm Ton bearbeitet wird weiß ich nicht, habe mich damit nie befasst weil es nicht mein Aufgabenbereich ist.


    Aber ein Leveler, der das automatisch macht sollte doch kein Problem sein, wenn man ein Kinofilm ins TV bringt.
    Und das selbe ist auch oft bei TV Filmen und Serien so, also da hätte man es ja machen können. Aber es ist eben nicht gewollt.


    Hatte gestern was, wo geflüstert wurde, dann normal geredet und dann laute Musik. Der Unterschied war so groß, das es in meinen Augen einfach falsch ist.


    Aber gut, muss man wohl mit leben, gibt schlimmeres....

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Ich habe mir eine ServusTV Doku aus der Terra Mater Serie hergenommen und sie nach meinen Möglichkeiten analysiert. Dazu habe ich das Material einer DVD auf die Timeline gelegt und den Audiomischer eingeschalten. Der Sprecher ist auf max. -19 db ausgesteuert. Sehr unterschiedlich ist der Rest! Musik geht teilweise auf den selben Wert hoch, dann wieder nur auf ca. -30 db. Die Athmo bewegt sich zwischen -36 db und -30 db.


    Der Kommentar dürfte übrigens sehr stark komprimiert sein. Ersten klingt er extrem dicht, was natürlich auch an der sonoren Originalstimme des Sprechers liegen kann, und zweitens ist immer wieder zwischen Sätzen in den Pausen unterlegte Musik als gleich laut ausgesteuert zu erkennen. Trotzdem Ist der Kommentar sehr gut verständlich!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Mir ist klar, dass das Endergebnis bei -9 db liegen soll.

    Wer sagt, dass der Pegel bei -9 db liegen soll? Dieser Halbwissen-Mythos ist nicht tot zu kriegen.. Spitzenpegel hat nichts mit Lautheit zu tun. Das hat @gurlt schon richtig beschrieben. Die empfundene Lautheit wird in LUFs gemessen (Edius hat ein entsprechendes Pegelmeter).


    Zitat NRWVision:


    "Im Fernsehen und im Radio war es früher häufig so, dass Sender unterschiedlich laut klangen. Werbung wirkte zum Beispiel deutlich lauter als das eigentliche Programm mit Filmen und Magazinen. Das hat Zuschauer und Hörer sehr genervt: Ständig musste man die Lautstärke anpassen.
    Deshalb hat die European Broadcast Union schon vor einigen Jahren eine Norm entwickelt, die sogenannte EBU-Empfehlung R128. Sie gibt vor, mit welcher Lautheit Hörfunk und Fernsehen ihr Programm durchschnittlich ausstrahlen sollten.
    Empfohlen wird ein Zielwert ("Taget Level") von -23 LUFS - gemessen über die Gesamtheit der Sendung. Außerdem sollte die Lautstärke nie einen Wert von -1dB überschreiten. Man sollte also immer sowohl die Lautheit insgesamt als auch die Ausschläge der Lautstärke über die komplette Sendung hinweg im Blick haben."


    Musikstücke haben heute einen LUFs Wert von ca. -13 bis -10 Lufs´, um mal einen Eindruck von der Lautheit zu bekommen.




    Kommentar -9 db
    O-Ton/Atmosphäre -20 db
    Musik -20 db und Absenkung unter der Kommentarstimme um weitere 3 db

    Wenn du nur mit den Edius db-Werten arbeitest, dann kommst du mit diesen Werten gut hin, nur weisst du ja nie ob die Musik mit 20db Spitzenpegel -13 oder -10 LUFs hat (also von der Lautheit deutlich unterschiedlich ist.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • :nick:


    :prost:

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Die empfundene Lautheit wird in LUFs gemessen (Edius hat ein entsprechendes Pegelmeter).

    Allerdings meine Pro Version leider nicht. Daher bleibt mir eben nichts anderes übrig als mit den Spitzenpegelmessung zu arbeiten. Dabei versuche ich aber visuell mehr mit dem Durchschnittspegel als mit den echten Spitzenwerten zu arbeiten. Dies funktioniert aber natürlich nur näherungsweise!


    Gibt es ein externes Tool, das man dafür verwenden kann?


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Gibt es ein externes Tool, das man dafür verwenden kann?

    Ja, wir hatten mal ein Tool in der Redaktion entwickelt:
    Freeware VST Plug-Ins - Audiocation Audio Academy

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Danke für den Tipp! Ich habe in der Zwischenzeit gegoogelt und diese Freeware gefunden: https://youlean.co/youlean-loudness-meter/


    Das LUF-Meter läuft als plugin in Edius X, ist aber offenbar ziemlich ressourcenfressend. Jedenfalls geht die Pufferanzeige in Edius X bei mir nur mehr auf 4-5 von üblichen 250 Bildern. Interessant ist, dass bei Zuschalten des Meters die Pufferanzeige auf 4/5 wechselt! Normalerweise steht hinter dem Schrägstrich immer 250.


    Grauer Tiger: kennst du die wesentlichen Unterschied bzw. Vor-/Nachteile der beiden plugins?


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Interessant ist, dass bei Zuschalten des Meters die Pufferanzeige auf 4/5 wechselt! Normalerweise steht hinter dem Schrägstrich immer 250

    Die Anzeige bekommst Du auch, wenn Du in Edius den enthaltenen Audio-Mixer nutzt (also unter dem Meter etwas anderes als Aus einstellst).
    Bei den vorherigen Versionen 7/8/9 hat Edius dann immer 8 Frames angezeigt, in Edius X sind es jetzt 5 Frames.


    Also könnte das eher Edius selbst verursachen. So richtig "echt" scheint die VST-Schnittstelle ja auch noch nicht zu sein.




    Aus solchen Gründen und den eher bescheidenen Werkzeugen in Edius mach ich alles was über eine kleine Pegelkorrektur angeht lieber extern in WaveLab, oder Cubase.
    Das, was mich der Wechsel auf das andere Programm kostet, hole ich durch die besseren Möglichkeiten im Nu ein. Und meine Nerven schone ich auch noch. :D:D:D


    Es gibt ein paar kostenlose Tool, z.B. Audacity. Häufig sind bei bestimmten Geräten (z.B. Mischpult) auch abgespeckte Versionen von namhafter Software dabei.
    Und selbst die Elements-Version von WaveLab bekommst für unter 100,- €.


    Wäre ja vielleicht eine Überlegung wert.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Das LUF-Meter läuft als plugin in Edius X, ist aber offenbar ziemlich ressourcenfressend. Jedenfalls geht die Pufferanzeige in Edius X bei mir nur mehr auf 4-5 von üblichen 250 Bildern. Interessant ist, dass bei Zuschalten des Meters die Pufferanzeige auf 4/5 wechselt! Normalerweise steht hinter dem Schrägstrich immer 250.


    Grauer Tiger: kennst du die wesentlichen Unterschied bzw. Vor-/Nachteile der beiden plugins?

    Das Plug in von Audiocation läuft in Edius bei mir ohne große Ressourcenbelastung?


    Die Unterschiede beider Plugins kenne ich nicht, weil ich mich nicht weiter damit beschäftigt habe. Mein Edius WG und WaveLab 10 haben sowas schon eingebaut.


    Den Rat von @gurlt solltest du befolgen und mal ein externes Audio-Programm benutzen. Audacity und WaveLab Pro sind da die richtigen Adressen.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Ich sitze auch gerade über einem Reise-Video und versuche mit der Lautheitsanzeige in Edius X WG zu arbeiten.


    Nun ist ja der LU-Wert ein integrierter Wert über die Zeit, eigentlich über das ganze Projekt.
    Man kann das natürlich auch unterteilen, z.B. je Sequenz - oder etwa noch kleiner?
    Oder schaut man sich am Ende das Lautheits-Diagramm an und versucht, alle Stellen der Kurve, die über dem zulässigen Wert liegen, abzusenken?


    Wie geht Ihr praktisch vor, wenn Ihr mit der Lautheit arbeitet?


    Auch ist die Eingangsfrage vom Markus eigentlich nicht beantwortet. Die LU-Werte können ja durchaus im zulässigen Rahmen sein, die Musik aber trotzdem zu laut und der Kommentar zu leise. Wobei man das natürlich praktisch lösen kann und sagen, wenn der Kommentar gut zu verstehen ist, dann ist die Sache in Ordnung. Oder habt Ihr weitere Kriterien?


    Beste Grüße
    Dietmar

    Asus PRIME Z370-A / i7 8700K CPU / 32GB RAM / 512GB Samsung 970 PRO M.2 / 2TB Samsung 970 EVO M.2 / 2TB SATA-300 / GeForce GTX 1060 Turbo 6GB / BM Mini Monitor 4K / Win10 Pro / Edius X WG + 9.52 WG / Mercalli 5 / NeatVideo 4 u.a.
    Sony FDR-AX700, Sony FDR-X3000R

    Einmal editiert, zuletzt von diruempel ()

  • Wie geht Ihr praktisch vor, wenn Ihr mit der Lautheit arbeitet?

    Ich nutze ein externes Programm wie WaveLab, um einzelne Spuren gleich laut zu bekommen. Dann kann man in Edius weiter in db-Schritten arbeiten. Also z.B. Sprecher im Edius-Mixer 0-db und Musik -20 db

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Man kann das natürlich auch unterteilen, z.B. je Sequenz - oder etwa noch kleiner?

    Das kannst du bis auf Clip-Ebene unterteilen, wenn du das in Edius machen willst.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Grauer Tiger:
    Ja, das habe ich schon verstanden, dass einige externe Software nutzen.
    Trotzdem bleibt die Frage, wie man das mit der Lautheit meinetwegen in einem externen Programm hält: Abschnittsweise messen, sequenzweise oder über das gesamte Projekt. Oder vielleicht noch ganz anders?


    Mit fehlt so ein wenig das "How to do".


    Beste Grüße
    Dietmar

    Asus PRIME Z370-A / i7 8700K CPU / 32GB RAM / 512GB Samsung 970 PRO M.2 / 2TB Samsung 970 EVO M.2 / 2TB SATA-300 / GeForce GTX 1060 Turbo 6GB / BM Mini Monitor 4K / Win10 Pro / Edius X WG + 9.52 WG / Mercalli 5 / NeatVideo 4 u.a.
    Sony FDR-AX700, Sony FDR-X3000R