Filmmaking is my passion - 96 Sekunden Kanaltrailer

  • Außerdem schneidet man grundsätzlich jedes einzelne Quellsignal, egal ob Musik oder Stimme mit einem Lowcut alles unterhalb von 60Hz ab. Das entfernt Netzbrummen und jegliche tieffrequenten Störsignale.

    Wer schneidet denn "grundsätzlich" alles ab 60Hz ab? Im Moment kratzen sich wohl alle Toningenieure am Kopf :nw:
    Netzbrummen wird mit einem 50Hz Filter entfernt, und wenn es überhaupt einen Cut gibt, dann liegt der bei 20Hz um Beschallungsanlagen vor stehenden Wellen zu bewahren.


    Es gibt innerhalb eines Mixes einer Produktion sehr wohl die Möglichkeit Lowcuts/shelfs in bestimmten Frequenzen einzusetzen, aber das macht man bei bestimmten Spuren, die dafür geeignete Instrumente beinhalten und nicht in bereits abgemischten Stereo-Mastern.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

    2 Mal editiert, zuletzt von Grauer Tiger ()

  • Ich denke auch, komplett alles unter 50 oder 60Hz abzuschneiden, ist nicht zielführend (bin aber auch kein Toningenieur). Wie so häufig ist die Situation etwas differenzierter:


    Wenn ich z.B. einen Dialog zwischen Menschen aufzeichne, kann ich bei diesem Dialog getrost alles unter 100, mindestens aber 60Hz abschneiden, weil in diesen Frequenzbereichen kein menschlicher Stimmanteil unterwegs ist, ich aber das berühmte Mikrorumpeln reduzieren bzw. ausschalten kann.


    Die Tatsache, dass man also mit einem Cut unter 60 oder gar 100 Hz störendes Mikro-Rumpeln ausschalten kann, bedeutet im Umkehrschluss, dass so ein dumpfes Rumpeln sehr wohl wahrgenommen werden kann, und dass ein Erdbeben, ein nahender T-Rex oder eine ranrollende U-Bahn genau in diesen Frequenzen sehr wohl zu hören sind. Ergo kann es nicht sinnvoll sein, ALLES unterhalb 60 oder gar 100 Hz abzuschneiden.

  • Richtig, im Kinofilm/Actionfilm schneidet man die tieffrequenten Töne nicht alle ab. Höchstens die, die man nicht für den Effekt benötigt. Für das Lowend ist der Subwoofer/LFE (LowFrequencyEffects) zuständig. Der hat aber mit den Stimmen nichts zu tun. Aber die meisten dürften hier wohl kaum über eine Kino-Anlage hören, sondern ehr am PC/Laptop/Tablet.
    Tieffrequente Töne brauchen viel Energie und produzieren im Fall dieser "Minilautsprecher" keinen hörbaren Ton, also reine Verschwendung. Mehr noch. Sie sorgen für einen Frequenzbrei, der die Ortbarkeit der hohen Töne schrumpft.
    Macht man also einen Kino-Mix für diese Mini-Quäker, ist das kontraproduktiv, weil die präzisen Höhen durch den tieffrequenten Brei schwinden. (Viele Musik-Engineere schneiden schon unterhalb von 40Hz weg.


    Beim Mixen von Musik mit mehreren Tonspuren addiert sich das Gebrumme nur zu einem Matsch, der den Ton schwammiger macht, so das man die Instrumente nicht mehr präzise orten kann. Also schneidet man, was man nicht benötigt einfach ab, so das es keinen Schaden mehr anrichten kann. So das klassische Equalizing. Heute gibt es inzwischen Ausnahmen, wie Musik von Dua Lipa (Don't start now) oder Billie Eilish (Bad Guy), wo man genau die Bässe - und fast nur die Bässe ganz prägnant überbetont und sonstige Frequenzen fast weglässt. Normal arbeitet man für kleine Lautsprecher (ohne Hoch-, Mittel und Tieftöner) sogar so, das man die niedrigen Frequenzen, die man normal über diese Lautsprecher schlecht oder gar nicht hören kann, verschiebt. Das nennt sich Frequenzshifting. Wenn man das gekonnt tut beispielsweise die 40Hz auf 160Hz verschieben, dann rutschen sie in den hörbaren Bereich, ohne viel zu stören, wenn da sonst nichts wummert. Je präziser man das tut, desto weniger Störungen oder Matsch erhält man. Für solche Techniken benutzt man beispielsweise von Brainworx den bx_digital V3. Wer hinterher noch wirklich Subtöne hinzufügen möchte, kann das mit dem bx_subsynth.


    Natürlich ist in Deutschland das Netzbrummen bei 50 Hz. Aber wenn man schon bei 60Hz alles wegschneidet, dann ist da auch kein 50Hz mehr vorhanden. Studio-Mikrofone haben auch nicht umsonst einen LowCut-Filter. Kann man auch später über Eqalizer rausfiltern, aber was schon sauber aufgenommen ist, spart Arbeit. (Windschutz, bevor man das Rumpeln in der Aufnahme hat und später nicht mehr weiß, wie man die Störgeräusche rausbekommt.)


    Übrigens die 20 oder 40 Hz beeinflussen die Vielfachen davon, indem sie hinzuaddiert werden, also 80, 160, … Und genau deshalb will man sie früh genug aus der Bearbeitungskette rausbekommen. Guckt euch mal einen Equalizer mit seinen Frequenzbändern an. Da steckt eine Rechnung hinter (beispielsweise beim 10Band-EQ).

  • Aber die meisten dürften hier wohl kaum über eine Kino-Anlage hören, sondern ehr am PC/Laptop/Tablet.

    Woher nimmst du diese Erkenntnis? Hast du eine Umfrage gemacht? Die meisten hier dürften schon höherwertige Anlagen für das Abhören des Tons haben. Und selbst dann ist die fachfremde Aussage "man trennt GENERELL alles bei 60Hz ab" tontechnisch falsch. Ich bin seit über 20 Jahren in der Musik- und Filmbranche und kann nur mit dem Kopf schütteln. Ja, es gibt Szenarien, in denen man das macht (habe ich ja ausgeführt), aber nur PUNKTUELL nicht GENERELL!



    Natürlich ist in Deutschland das Netzbrummen bei 50 Hz. Aber wenn man schon bei 60Hz alles wegschneidet, dann ist da auch kein 50Hz mehr vorhanden.

    Ja, und Rest der Frequenzen auch ??? Mir ist noch nie ein Toningenieur untergekommen, der dem Netzbrummen alle Frequenzen unterhalb 60Hz "geopfert" hätte. Dafür gibt es spezielle Filter (deHummer).
    Und - ein guter Toningenieur hat gar kein Netzbrummen in der Aufnahme :cool:



    Studio-Mikrofone haben auch nicht umsonst einen LowCut-Filter.

    Ja, haben sie - aber nicht, um diesen "generell" einzuschalten!! Sondern für dazu passende Aufnahmesituationen :rolleyes:

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Klar haben hier viele teilweise hochwertige Lautsprecher am Schnittplatz.


    Viele Pros haben aber keinen Internet am Schnitt-PC.
    Die Pros, die hochwertige Monitorboxen am Schnitt-PC haben, haben meistens nur Stereo, aber kein Surround, also kein Subwoofer/LFE-Kanal.
    Die, die ein Surround haben, haben oft nur Consumertech-Surround.
    Oft liest man hier auch: Bin unterwegs, also Smartphone/Tablet. Oder konnte am PC nichts verdächtiges von Verzerrungen hören.


    Das generell bei 60Hz war ein wenig übertrieben, aber selbst für Kommentar sollte man anständig equalizen und die Frequenzen unterhalb 40Hz abschneiden. Macht nicht jeder, muss ja auch nicht jeder. Ist nur meine Empfehlung.


    Ja, es gibt Denoiser, Decrackler, Dehummer. Jeden für sein spezielles Gebiet.
    Dennoch, was mit dem Lowcut weg ist, braucht mit dem Dehummer nicht mehr gerade gebogen werden.


    Jeder kann ja auch seine Kinoproduktion mit Bässen vollpumpen, wie er will. Machen die Großen Filmstudios ja auch, aber gezielt. Warum klagen wiederum viele, dass deutsche 3d-Mixe so wenig Effekte haben? Weil sie nur gezielt eingesetzt werden und teuer produziert werden. 3D-Soundobjekte in 7.1/9.2 zu platzieren kostet.

  • Hier habe ich mal ein Beispiel für Gesang und Podcast, wie es sich lohnt zu EQen. Ich finde ein schönes Lehrvideo, wo mancher Videograf noch was lernen kann.

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Ich finde ein schönes Lehrvideo, wo mancher Videograf noch was lernen kann.

    Richtig, in diesem Video wird ganz korrekt gesagt, dass man eben nicht "generell" bei einer bestimmten Hz-Zahl alles cutten soll (selbst bei Vocals nicht!), sondern, wie ich schon ausführte, von Fall zu Fall entscheiden muss, wo ein Cut sinnvoll ist.



    Die Pros, die hochwertige Monitorboxen am Schnitt-PC haben, haben meistens nur Stereo, aber kein Surround, also kein Subwoofer/LFE-Kanal.
    Die, die ein Surround haben, haben oft nur Consumertech-Surround.

    Woher hast du diese Fantasien? Ich bin in vielen Studios unterwegs und da steht kein Consumer-Zeug als Surround. Und die Stereo Boxen haben sehr wohl Sub-Unterstützung. Die kleinsten Studios haben als Minimum Genelec 1029A mit 1091A Sub.
    Ich kann mir nicht vorstellen, dass du je mit echten Profis Kontakt hattest.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Sicher können Profis 2.1 haben, genau so wie viele PC-Spieler was für den Extra Wums haben, aber meistens Marke Logitech und nicht unbedingt Genelec, Adam, Mackie oder Dynaudio. Ich rede ja vom Großteil der Forumsbesucher, die ich ehr semiprofessionell oder hobbymäßig einschätze, was man öfter unter dem Stichwort „Filmclub“ hört.


    Klar sind da auch ne Handvoll Profis aktiv. (Ist einfach mein subjektiver Eindruck)
    Wer ein tbone nicht vom Neumann unterscheiden kann, für den ist es mit dem Ton egal.


    Aber auch der Jonas vom Video schnibbelt sogar bei 80 Hz noch viel mehr weg. Aber auf jeden Fall das unnütze, wie ich gesagt habe. Ob da mal 20 Hz rauf oder runter gehen, das muss man möglichst auch im Analyzer sehen, wie es ja auch bei der RGB-Parade mit dem Bild ist.


    Man sollte einfach mehr wert auf guten Ton legen. Dazu gehört einfach immer ein gutes Equalizing und Kompression. Sonst wird es nichts mit dem Radiosprecher-Klang. Und darauf kam es doch eingangs an.
    Wie in einem Pro7 Trailer für einen Blockbuster mal richtig fett mit einer Stimme, die sich durchsetzt.


    Die Pro7 Trailer kann man sich mal mit dem Analyzer anschauen und darauf hinarbeiten. Es gibt sogar Programme, die den Frequenzgang abnehmen und auf eine eigene Mischung anwenden bis es sich ähnelt. Das geht DSP unterstützt mit dem TC Assimilator. Sowas ähnliches gibt es bestimmt schon als reines Plugin.


    Ideal ist, wenn man ein Interview mit einem Schauspieler als Quelle hat. Denn Musik stört doch bei der stimmlichen Anpassung. Wenn man eine ähnliche Stimme, wie das Vorbild hat, dann kann man das einigermaßen anpassen. Dann nimmst du Arnis „Hastalavista Baby“ oder anderes was deiner Stimme ähnlich ist.


    Oder so eine markante Stimme, wie Christopher Lee oder Christian Brückner doch unterschiedlich, wie Tag und Nacht.


    Ist euch schon mal im Radio aufgefallen, dass man manche Sprecher kaum außeinander halten kann? Die werden alle ähnlich bearbeitet, damit man fast nicht merkt, wenn der Sprecher wechselt. Alles dieselbe Stimmlage oder derselbe Brei. Da gibt es keinen „Elmar Gunsch“ oder „Gunter Emmerlich“. Die arbeiten heute alle „zwei Etagen höher“.

  • Dazu gehört einfach immer… Kompression

    Was man aber auch nicht übertreiben sollte, da schnell die Dynamik flöten geht.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro