Ton nicht synchron

  • Bei mir ist die Videodatei immer um ca. (18/16,6677) --> 8% zu lang.

    Seltsam,


    derartriges kenne ich nun überhaupt nicht.
    Bild und Kameraton sind bei mir immer synchron und haben auch die gleiche Länge.


    Probleme gibt es höchstens mal mit externen Soundaufnahmen, wenn diese mit einer falschen Samplerate, oder in irgendwelchen ungünstigen Formaten vorliegen. Da dies dann aber nicht der Originalton ist, wirkt sich das auch nicht so stark aus.
    Trotzdem umgehe ich sowas halt lieber gleich mit Resampeln. Das dauert ja nur Sekunden., schafft aber eine gewisse Sicherheit.
    Sonst achte ich schon darauf, dass ich möglichst 48 kHz WAV mit möglichst 24-bit bekomme. Das ist für unsereins eigentlich völlig ausreichend.


    Jedenfalls würde ich auch nie auf die Idee das Bild an den Ton anzupassen (Ausnahme natürlich Schnitt des Videos "auf" die Musik, aber das ist ja etwas völlig anderes).
    Beim Ton hat man doch wesentlich bessere Möglichkeiten einer nicht zu bemerkenden Einflussnahme, sei es nun durch "Stückeln" oder Audiowarp. Dafür braucht man nur ein entsprechendes Programm.



    Die Tonbearbeitung erfolgt bei mir i.d.R. mit Steinberg Cubase und WaveLab, da mir die Möglichkeiten direkt in Edius nicht komfortabel genug sind und zu wenig bieten. Diese Programme habe ich schon bei meinem früheren NLE Liquid genutzt und bin dort ausreichend eingearbeitet.
    Die zusätzlichen Exporte/Importe stellen natürlich einen gewissen Arbeitsaufwand dar, aber durch die besseren Werkzeuge und Bearbeitungsmöglichkeiten in Cubase/WaveLab hebt sich das irgendwie auch schnell wieder auf.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Bei mir ist die Videodatei immer um ca. (18/16,6677) --> 8% zu lang.
    Meine Kunden legen Wert auf den möglichst guten Erhalt der Soundqualität. ;)

    Auch hier gilt: solange alle glücklich damit sind, bittesehr... ;) Aber wenn ich an Deiner Stelle "immer" eine 8-prozentige Abweichung hätte (die ich persönlich ohne weitere Info für mysteriös viel halte), würde ich das Problem lieber mal systematisch lösen. Allein schon fürs eigene Nervenkostüm. Und natürlich in Anbetracht von Zeit und Strom, den Du da ständig rausballerst.

  • Seltsam,


    derartriges kenne ich nun überhaupt nicht.

    Tja, das kenne ich nun jetzt schon 15 Jahre als Schmalfilmdigitalisierer.
    Erster Digitalisierungsgang synchron zu der Netzfrequenz mit 3-Flügel-Projektorblende: 50/3 = 16,667 B/s
    mit Hilfe einer Synchroneinrchtung zwischen der 50Hz Kamera und dem Projektor-Antriebmotor.
    Zweiter Digitalisierungsgang nur für Audio mit 18 B/s. Nun Video und Audio miteinander synchronisieren
    wobei der Kunde die Original-Aufnahmegeschwindigkeit vom Sound bevorzugt wegen der Tonhöhe und
    Ton-Dynamik der winzig schmalen aufgeklebten Soundspuren auf dem Schmalfilm.
    EDIUS kriegt das sehr gut hin!

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Schmalfilmdigitalisierer

    Ok,


    das ist ja auch etwas völlig anderes.


    Du erzeugst ja in diesem Fall die Asynchronität selbst. Nämlich durch die für Bild und Ton mit unterschiedlichen Geschwindigkeiten vorgenommene Digitalisierung.
    Dass das dann nicht mehr zusammenpassen kann und hinterher korrigiert werden muss ist doch logisch. Und da Du in dem Fall bei der Digitalisierung die Bildfrequenz (aus technischen Gründen) "verbogen" hast = statt 18 B/s mit nur 16,667 B/s - ist es doch auch klar, dass Du in dem Fall wieder mit der Bildfrequenz arbeiten musst.




    Nur hat dies doch mit dem von @chris geschilderten Problem nicht das Geringste zu tun. Da geht es um zwei zeitgleiche separate Aufnahmen des gleichen Ereignisses, die zeitlich prinzipiell auch gleich lang sind.


    Die Asynchronität entsteht dort erst durch eine unzureichende Korrektur zweier unterschiedlicher Abtastraten = 44,1 khz und 48 kHz - durch das NLE (was leider nicht selten vorkommt), oder aber eine nicht korrekt getaktete Audioaufnahme.
    Im zweiten Fall entsteht also die Abweichung durch leicht unterschiedliche Taktfrequenzen zwischen Aufnahme und Wiedergabe. Diese liegen i.d.R. unter 1%, wirken sich aber über den Zeitablauf dann irgendwann deutlich aus.


    In beiden Fällen muss aber die Korrektur sinnvollerweise dann auch über den Audioanteil erfolgen.





    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • In beiden Fällen muss aber die Korrektur sinnvollerweise dann auch über den Audioanteil erfolgen.

    Das kommt halt darauf an wie groß der Zeitunterchied ist?

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Jetzt wäre die Frage, wie hoch der Qualitätsanspruch insgesamt ist. Wenn der Preis (und damit Aufwand) angemessen ist, würde ich den Schmalfilm auf 25p "strecken". Das bringt dann zwar auch Verluste in der Bildqualität, aber mit dem optischen Fluss hält sich das vielleicht so in Grenzen, dass der Gewinn dadurch größer ist, dass Bewegungen in Echtzeit laufen.


    Wenn Du den Ton ohnehin extra digitalisierst, würde ich das dann gleich analog auf digital in 48kHz machen. Oder aber zumindest die Tonspur in einem externen Porgramm so resamplen, dass Du auch auf 25 fps kommst. Dabei kannst Du die Tonhöhe unangetastet lassen.


    Bei (Hobby-)Schmalfilmen ist die Ausgangsqualität ohnehin meist nicht sooooo groß - da ist das Umwandeln in "echte" 25p möglicherweise der größere Gewinn.

  • Das kommt halt darauf an wie groß der Zeitunterchied ist?

    Nein, nicht für Chris. Du wirst doch nicht für eine Stunde Film Deine saubere Bildwiederholfrequenz durch doppelte oder geblendete Frames kaputt machen oder Dir den Aufriss mit dem optischen Fluss machen. Zumal die evtl. mitaufgezeichnete (nur nicht zu verwendende) Atmo ja auch synchron zum Bild ist.


    Du wirst im Fall von Chris ZWINGEND den Ton anpassen - auf die ein oder andere Weise - und einen deutlich geringeren Qualitätsverlust haben, nämlich keinen im Bild und einen kaum hörbaren im Ton.

  • Das kommt halt darauf an wie groß der Zeitunterchied ist?

    In den hier zur Rede stehenden Fällen sind das normalerweise nur Bruchteile einer Sekunde.


    Chris hat doch in seiner Aufnahme auch eine völlig korrekte Bildfrequenz. Warum sollte er diese jetzt künstlich verändern, was ja halt auch immer durch die Zwischenbildberechnung zu einer Verschlechterung der Bildqualität führen wird?


    Bei einer vernünftigen Tonbearbeitung (auf Wellendurchgang achten!) gibt es hingegen keinerlei Qualitätsverluste. Zumale ja aller Erfahrung nach sowieso eine gewisse Bearbeitung des Audiomaterials erfolgen muss (sollte). Also z.B. Korrektur von Störgeräuschen, oder "Atemhebern", Einsatz von EQ und Compressor, sowie ggf. weiteren Audiotools. Um da irgendwo an einer geeigneten Stelle vielleicht 20 bis 50 ms anzupassen ist wirklich keine große Kunst und nicht zu hören.


    Und um viel mehr kann es ja nicht gehen, da größere Abweichungen schon deutlich zu bemerken sind (Lippensynchronität). Also schon zeitlich früher eingegriffen werden müsste.




    Wie gesagt ist das mit Deiner Schmalfilmdigitalisierung etwas völlig anderes. Da wirst Du die 18 B/s von Super8 ja sowieso irgendwie auf 24 oder 25 fps bringen müssen.



    Gruß
    Peter


    Hat sich mit @Captain überschnitten....

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Da wirst Du die 18 B/s von Super8 ja sowieso irgendwie auf 24 oder 25 fps bringen müssen.

    Na klar, schon während der Digitalisierung mit der Kamera und nicht irgendwie.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Na klar, schon während der Digitalisierung mit der Kamera und nicht irgendwie.

    Nun, das kommt halt auf das von Dir verwendete Verfahren an.
    Doch da hast Du auf alle Fälle die größeren Erfahrungen.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Ich habe es ja wie beschrieben ganz gut hin bekommen ohne Stückeln zu müssen.
    Zur Not hatte ich noch ein Mikro an einem Lautsprecher hängen da mir das Aufnahmegerät vor Ort suspekt war. Stand zwar "Professionell" drauf, aber man weiß ja nie ob das klappt, ob es durch läuft, die SD Karte kompatibel ist o.ä., wenn man es nicht vorher getestet hat.
    Eigentlich kläre ich das immer vorher mit den Tonleuten, aber in dem Fall gab es niemanden.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Das Ganze war für mich Alltag. Jede Firma hat seinen eigene Clock.
    Ich habe einen Audioton mit Sony M10 sowie Bilder mit der RX100M2. Beide sind bei 2 Stunden bis auf ca. 1 Bild identisch.
    Dann kommt Videomaterial von Panasonic X929 und Canon 6D2m dazu.
    Bei der Panasonic sind es dann über die 2 Stunden ca. 0,10 bis 0,2 %.


    Mein Vorgang war immer wie folgt:
    Audiofile der Videodatei extrahieren
    Beide Audiofiles in Adobe Audition laden. (Gab es mal kostenlos)
    Die Audiofiles zieht man in den Multitrackmodus. Beide Spuren sind dann übereinander. Dann kann man beide Files vergleichen.
    Dort das reine Audiofile via Funktion Dehnen an das AudiovonVideofile angleichen.
    Danach in 48 khz umwandeln und in Edius laden.
    Beim Dehnen gehe ich bis 4 Stellen hinter dem Komma z.B. 99,8551. Dann lohnt sich dann schon wegen Syncen.
    Und ich habe dann immer das ganze File geladen und nicht immer nur eine einzelne Videodatei.
    Die RX100M2 kann via Softwareupdate volle Länge filmen. Die Panasonic sowieso.
    Danach sind es in der Regel nur noch 1-2 Bilder Unterschied. Dies ist dann einfacher nachzusyncen als bei den 0,10 % nach meiner Erfahrung.


    Gruss Johannes

  • Gibt es da nicht auch andere Schnittprogramme, die das Anpassen automatisch machen? Wäre mal ein Versuch wert.
    Ich hatte mal ein Handyscreenshot Video für meinen Neffen. Nichts wichtiges. Das lief aber z.B. nicht synchron in Edius, obwohl es ein Clip war mit Ton. Resolve Freeware hat das synchron abgespielt. Edius kam damit nicht klar.
    Hier lag es evt. an der seltsamen Bildfrequenz, die mein Handy abliefert. Aber der Ton war hier nicht mal getrennt vom Video, sondern im Clip. Also seltsame Sache, das.
    Edius passt Videomäßig ja scheinbar vieles an, beim Ton könnte vielleicht noch einiges verbessert werden.

  • Hier lag es evt. an der seltsamen Bildfrequenz, die mein Handy abliefert.

    Smartphones zeichnen halt meist mit variabler Bildrate auf. Und damit kommt halt Edius nicht so gut klar, weil es als professionelles Programm aus dem Bereich Broadcast normalerweise mit konformen Material rechnet.
    In Edius X geht das m.E. aber schon besser und vermutlich wird da GV auch noch weitere Verbesserungen machen (müssen), da ja doch inzwischen häufiger Smartphoneaufnahmen anfallen.


    Der Audiobereich in Edius ist aber auch wirklich völlig veraltet und bräuchte eine komplette Überarbeitung. Hier setzte ich Hoffnungen auf die bereits begonnene Modernisierung.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro