Lautstärkeunterschiede zwischen SD und HD!?!

  • Wie kommt es, wenn ich in meiner Edius 4.5.1c Version, die HD-Demo-Clips der Canopus DVD auf die Timeline ziehe und unter SD-Einstellung der Ton normal ausgesteuert ist und wenn ich auf HD-Einstellungen wechsele er um einige dB in den Keller geht?


    Gruß Martin

  • Ich gehe mal davon aus, daß der Normal-Ton 16bit ist und der HD-Ton 24bit ist. Wenn dann nicht "normalisiert" wird, dann sind die oberen 8bit ungenutzt und der Ton somit leiser. Der Vollausschlag ist zwar immer die gleiche Voltzahl, aber die Trepenstufen sind unterschiedlich hoch. Der gespeicherte Pegel gibt aber nur die Anzahl der Treppchen an, nicht die Voltzahl.


    Gruß


    Marcus

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Hier eine Beschreibung, was Normalisierung im Audiobereich ist: http://de.wikipedia.org/wiki/Normalisierung_%28Audio%29


    Aktuelle Audiobearbeitungsprogramme können das alle (Wavelab, Cubase, Nuendo, Samplitude, Logic Audio, ... ) Das waren einige kommerzielle Programme. Es gibt aber auch Share- und Freeware. Da kenne ich mich aber nicht so aus. Bei Cubase weiß ich z.B. daß es bei AVI-Dateien den Ton extrahieren und auch wieder einbauen kann, was bei wmv und anderen Formaten nicht funktioniert (zumindest nicht mit der Software). Im Grunde reicht es Video und Audio einmal zu trennen. Den Audioteil zu normalisieren. Dann genügt es, wenn man beide Teile in der Schnittsoftware wieder mit gemeinsamem Startpunkt zusammenbringt (sprich auf der Timeline). Bei Edius kenne ich mich nicht soweit aus, ob eine Normalisierungsfunktion an Bord ist. Auf den ersten Blick habe ich jedenfalls keine gefunden. Ich benutze Nuendo3, CubaseSX3 und Wavelab6.


    Gruß
    Marcus

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Als VST-Plugin, das macht mich ein wenig stutzig. Das bedeutet doch, daß es offline arbeiten muss, um den Maximalpeak zu ermitteln, denn ohne funktioniert ja keine Normalisierung. Dann kann ich mir nur folgende Arbeitsweise vorstellen. Das Plugin ermittelt erstmal im Hintergrund unabhängig vom Abspielen den Peak. Erst dann kann online normalisiert werden. Dabei sind dann wiederum bestimmte Sachen zu beachten, wie ein Dithering bei Konvertierung von einer höheren Wortbreite zu einer niedrigeren. Ansonsten wäre es "unprofessionell".


    Letztendlich bedeutet das, daß man erstmal ein bischen Wartezeit hat, bis die Peaks ermittelt worden sind. Bei externer AudioWorkStation-Software ist das ja sowieso der Fall und es werden hochwertige Algorithmen zur Anpassung benutzt, wobei der PC bei externen Programmen beim Schnitt keinerlei Beeinträchtigungen befürchten muß, da ja offline berechnet wird.


    Was vielleicht im Rahmen einer Nachvertonung mit Audiokommentar funktioniert, kann bei komplexen Audiobearbeitungen, wie Mischungen von Soundeffekten, Soundtracks und Kommentaren dann das "AUS" bedeuten. Aber es macht ja nichts aus, wenn man ein kostenloses VST-Plugin einmal im Zusammenspiel mit seinem System und seinen Anforderungen ausprobiert.


    Gruß


    Marcus

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Das wäre mir jetzt neu dass die Bittiefe merklich hörbare Auswirkungen auf die Lautstärke hat... gibt es da eine Quelle als Referenz?


    Die Amplitude wird ja nur genauer abgetastet, und dadurch die Dynamik, der Rausch-Spannungsabstand sowie die Detailauflösung erhöht.



    Ich gehe mal davon aus, daß der Normal-Ton 16bit ist und der HD-Ton 24bit ist. Wenn dann nicht "normalisiert" wird, dann sind die oberen 8bit ungenutzt und der Ton somit leiser.

  • KTVstudios, das stimmt schon, daß die Abtastung bei mehr bit genauer wird, aber wenn man binär einfach ein paar bits nur abschneidet, dann wird es leiser, weil der größte Wert bei 8 bit 256 ist und wenn man die 256 in 16bit umrechnet, dann sind es immernoch 256, obwohl 65536 Werte zur Verfügung ständen. Es sei denn man normalisiert und sagt für jedes bit, welches bei 8bit verwendet wird, verwende ich 2 bit so daß ich insgesamt 16 bit zur Verfügung habe. Dann darf ich aber auch nur jedes 2 bit benutzen, um den gesamten möglichen Bitraum zu nutzen. Das entspricht dann meiner Ansicht nach der Normalisierung, also die Werte über den Möglichen Bitraum gleichmäßig zu verteilen. Da aber im Digital-Analog-Wandler jeder Zahl ein Spannungswert zugeordnet ist, und diese auf ich glaub 5Volt begrenzt ist, muß bei einem 8bit 256er Wert die gleiche Spannung anliegen, wie bei einem 16bit 65536er Wert. Aber bei einem 16bit Wandler ist die 256 dann auch nur ein Bruchteil der Spannung, die der 256er Wert bei einem 8bit Wandler hat. Somit muss der Ton ohne Normalisierung leiser sein.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Staffel, deine Logik ist leider falsch. Übrigens, wenn Edius bei Video nach der gleichen Logik arbeitet, wie du ihm bei Audio unterstellst, wie soll dann ein Video aussehen, bei dem per SDI eingespieltes 12bit Video mit 8bit DV-Video in einer Timeline liegt?


    Was den Ton angeht:
    - Natürlich kannst du jedes zweite Byte eine 0 einfügen, um von 8 auf 16 oder von 16 auf 24 Bit kommen. Dann solltest du aber auch auf die Byteorder aufpassen, wenn du Big und Little Endian verwechselt, ist es nach dieser Methode nämlich sogar nach dieser Umrechen-Aktion genauso laut wie vorher, zumindest an den lautesten Stellen. Nur hast du keine Dynamik nach unten mehr. Aber von mir aus kannst du auch die Byteorder vertauschen, eine Software, die so umrechnet, würde eh niemand kaufen wollen. Soviel aber nur als Hinweis, falls du deine abenteuerlichen Thesen wirklich in Software gießen willst.
    - Ein Umrechnen von 8 nach 16 Bit mit Umrechnung des Wertebereiches ist kein Normalisieren. Nehmen wir mal dein 8 und 16 Bit Beispiel: Angenommen du hast 8 Bit Ton der aber sehr leise ist, maximal 128. Dann hat der korrekt umgerechnet nachher 32768. Das heißt immer noch die Hälfte des neuen maximal möglichen. Würde beim Umrechnen gleichzeitig normalisiert werden, kämst du von alten 128 Spitze auf neue 65535 Spitze.
    - Du lädst voll ausgesteuerten 24 Bit Ton in ein 16 Bit Projekt - deiner Logik nach sollten dann die oberen 8 Bit einfach abgeschnitten werden? Clipping statt des üblichen Dithering? Tolle Idee.
    - Wie stellst du dir dann die Umrechnung in Floating Point Audio vor? Immerhin bietet schon alleine Single Precision Floating Point einen Wertebereich von über 10^38. Okay, nach oben hin mit sehr wenig Präzision, aber was solls... Eine Zahl mit 38 Nullen vs. poplige 65535 bei 16 Bit? Na DAS muss mal leise sein.


    Jedes halbwegs seriöse Programm, und das sollte eigentlich jedes Programm sein, das auf die Öffentlichkeit los gelassen wird und den Quick&Dirty Zustand der ersten Wohnzimmer-Programmier-Übung überschritten hat, behält die Urpsrungslautstärke beim Umrechnen bei, sei es nur bei einer normalen Umrechnung oder beim Mischen mehrerer Quellen.

  • Das mit Clipping vorzugehen totaler Blödsinn wäre, dem kann ich nur zustimmen. Auch deine anderen Ausführungen kann ich nachvollziehen, aber ob sich wer blöd anstellt oder nicht, kann ich nicht beurteilen. Ich weiß nur, daß der Ton bei MPPlay anscheinend aus irgendeinem Grund leiser wird. Und dazu habe ich eine Hypothese aufgestellt, aber keinen Beweis geliefert. Wenn es dann nicht so ist, wie ich vermutet habe, dann habe ich auf das falsche Pferd gesetzt. Schade.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5