Ton nicht synchron

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Pee schrieb:

      Bei mir ist die Videodatei immer um ca. (18/16,6677) --> 8% zu lang.
      Seltsam,

      derartriges kenne ich nun überhaupt nicht.
      Bild und Kameraton sind bei mir immer synchron und haben auch die gleiche Länge.

      Probleme gibt es höchstens mal mit externen Soundaufnahmen, wenn diese mit einer falschen Samplerate, oder in irgendwelchen ungünstigen Formaten vorliegen. Da dies dann aber nicht der Originalton ist, wirkt sich das auch nicht so stark aus.
      Trotzdem umgehe ich sowas halt lieber gleich mit Resampeln. Das dauert ja nur Sekunden., schafft aber eine gewisse Sicherheit.
      Sonst achte ich schon darauf, dass ich möglichst 48 kHz WAV mit möglichst 24-bit bekomme. Das ist für unsereins eigentlich völlig ausreichend.

      Jedenfalls würde ich auch nie auf die Idee das Bild an den Ton anzupassen (Ausnahme natürlich Schnitt des Videos "auf" die Musik, aber das ist ja etwas völlig anderes).
      Beim Ton hat man doch wesentlich bessere Möglichkeiten einer nicht zu bemerkenden Einflussnahme, sei es nun durch "Stückeln" oder Audiowarp. Dafür braucht man nur ein entsprechendes Programm.


      Die Tonbearbeitung erfolgt bei mir i.d.R. mit Steinberg Cubase und WaveLab, da mir die Möglichkeiten direkt in Edius nicht komfortabel genug sind und zu wenig bieten. Diese Programme habe ich schon bei meinem früheren NLE Liquid genutzt und bin dort ausreichend eingearbeitet.
      Die zusätzlichen Exporte/Importe stellen natürlich einen gewissen Arbeitsaufwand dar, aber durch die besseren Werkzeuge und Bearbeitungsmöglichkeiten in Cubase/WaveLab hebt sich das irgendwie auch schnell wieder auf.


      Gruß
      Peter
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS WG X
    • Pee schrieb:

      Bei mir ist die Videodatei immer um ca. (18/16,6677) --> 8% zu lang.
      Meine Kunden legen Wert auf den möglichst guten Erhalt der Soundqualität. ;)
      Auch hier gilt: solange alle glücklich damit sind, bittesehr... ;) Aber wenn ich an Deiner Stelle "immer" eine 8-prozentige Abweichung hätte (die ich persönlich ohne weitere Info für mysteriös viel halte), würde ich das Problem lieber mal systematisch lösen. Allein schon fürs eigene Nervenkostüm. Und natürlich in Anbetracht von Zeit und Strom, den Du da ständig rausballerst.
      -------------------------------------------------------------------------------
      Intel Core i7-7820X ---- Noctua NH-D15S ---- MSI X299 GAMING M7 ACK ---- 64GB RAM 2666-15 Corsair Dominator Platinum ---- 500GB Samsung 960 EVO M.2 (system SSD) ---- 512GB Samsung 960 PRO M.2 (data SSD) ---- Aorus Nvidia GTX 1080 Ti ---- be quiet! SILENT BASE 600 Case ---- be quiet! Dark P. Pro P11 850W ---- Win10 Pro ---- Edius WG 8.53.2808
    • gurlt schrieb:

      Seltsam,

      derartriges kenne ich nun überhaupt nicht.
      Tja, das kenne ich nun jetzt schon 15 Jahre als Schmalfilmdigitalisierer.
      Erster Digitalisierungsgang synchron zu der Netzfrequenz mit 3-Flügel-Projektorblende: 50/3 = 16,667 B/s
      mit Hilfe einer Synchroneinrchtung zwischen der 50Hz Kamera und dem Projektor-Antriebmotor.
      Zweiter Digitalisierungsgang nur für Audio mit 18 B/s. Nun Video und Audio miteinander synchronisieren
      wobei der Kunde die Original-Aufnahmegeschwindigkeit vom Sound bevorzugt wegen der Tonhöhe und
      Ton-Dynamik der winzig schmalen aufgeklebten Soundspuren auf dem Schmalfilm.
      EDIUS kriegt das sehr gut hin!
      Servus, Pee
      EDIUS X WG, DVR 18 Studio, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + Diverse FP,
      NVIDIA GF-RTX 2060 Super 8GB, W10Pro(21H2), 32" LG PC-Monitor, bis zu 46" HDTV-Vorschau per BM Intensity Pro 4K
      Sony ZV-1 mit Zhiyun Crane M2 , GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Mercalli V6 SAL, Luminar 4.3.4
    • Pee schrieb:

      Schmalfilmdigitalisierer
      Ok,

      das ist ja auch etwas völlig anderes.

      Du erzeugst ja in diesem Fall die Asynchronität selbst. Nämlich durch die für Bild und Ton mit unterschiedlichen Geschwindigkeiten vorgenommene Digitalisierung.
      Dass das dann nicht mehr zusammenpassen kann und hinterher korrigiert werden muss ist doch logisch. Und da Du in dem Fall bei der Digitalisierung die Bildfrequenz (aus technischen Gründen) "verbogen" hast = statt 18 B/s mit nur 16,667 B/s - ist es doch auch klar, dass Du in dem Fall wieder mit der Bildfrequenz arbeiten musst.



      Nur hat dies doch mit dem von @chris geschilderten Problem nicht das Geringste zu tun. Da geht es um zwei zeitgleiche separate Aufnahmen des gleichen Ereignisses, die zeitlich prinzipiell auch gleich lang sind.

      Die Asynchronität entsteht dort erst durch eine unzureichende Korrektur zweier unterschiedlicher Abtastraten = 44,1 khz und 48 kHz - durch das NLE (was leider nicht selten vorkommt), oder aber eine nicht korrekt getaktete Audioaufnahme.
      Im zweiten Fall entsteht also die Abweichung durch leicht unterschiedliche Taktfrequenzen zwischen Aufnahme und Wiedergabe. Diese liegen i.d.R. unter 1%, wirken sich aber über den Zeitablauf dann irgendwann deutlich aus.

      In beiden Fällen muss aber die Korrektur sinnvollerweise dann auch über den Audioanteil erfolgen.




      Gruß
      Peter
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS WG X
    • gurlt schrieb:

      In beiden Fällen muss aber die Korrektur sinnvollerweise dann auch über den Audioanteil erfolgen.
      Das kommt halt darauf an wie groß der Zeitunterchied ist?
      Servus, Pee
      EDIUS X WG, DVR 18 Studio, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + Diverse FP,
      NVIDIA GF-RTX 2060 Super 8GB, W10Pro(21H2), 32" LG PC-Monitor, bis zu 46" HDTV-Vorschau per BM Intensity Pro 4K
      Sony ZV-1 mit Zhiyun Crane M2 , GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Mercalli V6 SAL, Luminar 4.3.4
    • Pee schrieb:

      gurlt schrieb:

      Seltsam,

      derartriges kenne ich nun überhaupt nicht.
      Tja, das kenne ich nun jetzt schon 15 Jahre als Schmalfilmdigitalisierer.Erster Digitalisierungsgang synchron zu der Netzfrequenz mit 3-Flügel-Projektorblende: 50/3 = 16,667 B/s
      mit Hilfe einer Synchroneinrchtung zwischen der 50Hz Kamera und dem Projektor-Antriebmotor.
      Zweiter Digitalisierungsgang nur für Audio mit 18 B/s. Nun Video und Audio miteinander synchronisieren
      wobei der Kunde die Original-Aufnahmegeschwindigkeit vom Sound bevorzugt wegen der Tonhöhe und
      Ton-Dynamik der winzig schmalen aufgeklebten Soundspuren auf dem Schmalfilm.
      EDIUS kriegt das sehr gut hin!
      Jetzt wäre die Frage, wie hoch der Qualitätsanspruch insgesamt ist. Wenn der Preis (und damit Aufwand) angemessen ist, würde ich den Schmalfilm auf 25p "strecken". Das bringt dann zwar auch Verluste in der Bildqualität, aber mit dem optischen Fluss hält sich das vielleicht so in Grenzen, dass der Gewinn dadurch größer ist, dass Bewegungen in Echtzeit laufen.

      Wenn Du den Ton ohnehin extra digitalisierst, würde ich das dann gleich analog auf digital in 48kHz machen. Oder aber zumindest die Tonspur in einem externen Porgramm so resamplen, dass Du auch auf 25 fps kommst. Dabei kannst Du die Tonhöhe unangetastet lassen.

      Bei (Hobby-)Schmalfilmen ist die Ausgangsqualität ohnehin meist nicht sooooo groß - da ist das Umwandeln in "echte" 25p möglicherweise der größere Gewinn.
      -------------------------------------------------------------------------------
      Intel Core i7-7820X ---- Noctua NH-D15S ---- MSI X299 GAMING M7 ACK ---- 64GB RAM 2666-15 Corsair Dominator Platinum ---- 500GB Samsung 960 EVO M.2 (system SSD) ---- 512GB Samsung 960 PRO M.2 (data SSD) ---- Aorus Nvidia GTX 1080 Ti ---- be quiet! SILENT BASE 600 Case ---- be quiet! Dark P. Pro P11 850W ---- Win10 Pro ---- Edius WG 8.53.2808
    • Pee schrieb:

      gurlt schrieb:

      In beiden Fällen muss aber die Korrektur sinnvollerweise dann auch über den Audioanteil erfolgen.
      Das kommt halt darauf an wie groß der Zeitunterchied ist?
      Nein, nicht für Chris. Du wirst doch nicht für eine Stunde Film Deine saubere Bildwiederholfrequenz durch doppelte oder geblendete Frames kaputt machen oder Dir den Aufriss mit dem optischen Fluss machen. Zumal die evtl. mitaufgezeichnete (nur nicht zu verwendende) Atmo ja auch synchron zum Bild ist.

      Du wirst im Fall von Chris ZWINGEND den Ton anpassen - auf die ein oder andere Weise - und einen deutlich geringeren Qualitätsverlust haben, nämlich keinen im Bild und einen kaum hörbaren im Ton.
      -------------------------------------------------------------------------------
      Intel Core i7-7820X ---- Noctua NH-D15S ---- MSI X299 GAMING M7 ACK ---- 64GB RAM 2666-15 Corsair Dominator Platinum ---- 500GB Samsung 960 EVO M.2 (system SSD) ---- 512GB Samsung 960 PRO M.2 (data SSD) ---- Aorus Nvidia GTX 1080 Ti ---- be quiet! SILENT BASE 600 Case ---- be quiet! Dark P. Pro P11 850W ---- Win10 Pro ---- Edius WG 8.53.2808
    • Pee schrieb:

      Das kommt halt darauf an wie groß der Zeitunterchied ist?
      In den hier zur Rede stehenden Fällen sind das normalerweise nur Bruchteile einer Sekunde.

      Chris hat doch in seiner Aufnahme auch eine völlig korrekte Bildfrequenz. Warum sollte er diese jetzt künstlich verändern, was ja halt auch immer durch die Zwischenbildberechnung zu einer Verschlechterung der Bildqualität führen wird?

      Bei einer vernünftigen Tonbearbeitung (auf Wellendurchgang achten!) gibt es hingegen keinerlei Qualitätsverluste. Zumale ja aller Erfahrung nach sowieso eine gewisse Bearbeitung des Audiomaterials erfolgen muss (sollte). Also z.B. Korrektur von Störgeräuschen, oder "Atemhebern", Einsatz von EQ und Compressor, sowie ggf. weiteren Audiotools. Um da irgendwo an einer geeigneten Stelle vielleicht 20 bis 50 ms anzupassen ist wirklich keine große Kunst und nicht zu hören.

      Und um viel mehr kann es ja nicht gehen, da größere Abweichungen schon deutlich zu bemerken sind (Lippensynchronität). Also schon zeitlich früher eingegriffen werden müsste.



      Wie gesagt ist das mit Deiner Schmalfilmdigitalisierung etwas völlig anderes. Da wirst Du die 18 B/s von Super8 ja sowieso irgendwie auf 24 oder 25 fps bringen müssen.


      Gruß
      Peter

      Hat sich mit @Captain überschnitten....
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS WG X
    • gurlt schrieb:

      Da wirst Du die 18 B/s von Super8 ja sowieso irgendwie auf 24 oder 25 fps bringen müssen.
      Na klar, schon während der Digitalisierung mit der Kamera und nicht irgendwie.
      Servus, Pee
      EDIUS X WG, DVR 18 Studio, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + Diverse FP,
      NVIDIA GF-RTX 2060 Super 8GB, W10Pro(21H2), 32" LG PC-Monitor, bis zu 46" HDTV-Vorschau per BM Intensity Pro 4K
      Sony ZV-1 mit Zhiyun Crane M2 , GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Mercalli V6 SAL, Luminar 4.3.4
    • Ich habe es ja wie beschrieben ganz gut hin bekommen ohne Stückeln zu müssen.
      Zur Not hatte ich noch ein Mikro an einem Lautsprecher hängen da mir das Aufnahmegerät vor Ort suspekt war. Stand zwar "Professionell" drauf, aber man weiß ja nie ob das klappt, ob es durch läuft, die SD Karte kompatibel ist o.ä., wenn man es nicht vorher getestet hat.
      Eigentlich kläre ich das immer vorher mit den Tonleuten, aber in dem Fall gab es niemanden.
      ---------------------------------------------
      Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).
    • Das Ganze war für mich Alltag. Jede Firma hat seinen eigene Clock.
      Ich habe einen Audioton mit Sony M10 sowie Bilder mit der RX100M2. Beide sind bei 2 Stunden bis auf ca. 1 Bild identisch.
      Dann kommt Videomaterial von Panasonic X929 und Canon 6D2m dazu.
      Bei der Panasonic sind es dann über die 2 Stunden ca. 0,10 bis 0,2 %.

      Mein Vorgang war immer wie folgt:
      Audiofile der Videodatei extrahieren
      Beide Audiofiles in Adobe Audition laden. (Gab es mal kostenlos)
      Die Audiofiles zieht man in den Multitrackmodus. Beide Spuren sind dann übereinander. Dann kann man beide Files vergleichen.
      Dort das reine Audiofile via Funktion Dehnen an das AudiovonVideofile angleichen.
      Danach in 48 khz umwandeln und in Edius laden.
      Beim Dehnen gehe ich bis 4 Stellen hinter dem Komma z.B. 99,8551. Dann lohnt sich dann schon wegen Syncen.
      Und ich habe dann immer das ganze File geladen und nicht immer nur eine einzelne Videodatei.
      Die RX100M2 kann via Softwareupdate volle Länge filmen. Die Panasonic sowieso.
      Danach sind es in der Regel nur noch 1-2 Bilder Unterschied. Dies ist dann einfacher nachzusyncen als bei den 0,10 % nach meiner Erfahrung.

      Gruss Johannes