Ton muss alle 20 min um ein bild nachjustiert werden, kann man das besser machen ?

  • Hallo, arbeite viel mit Übersetzern, welche im Livebetrieb auf separater Tonspur über einem Presonus Studiolive Mischer auf SD Karte aufgenommen werden. Später bei der Nachbearbeitung, justiere ich den Ton am Anfang des Films per Hand vom ersten Übersetzer, da man bei dem im Mikrofonhintergrund den eigentlichen Sprecher gut hört, und die restlichen Übersetzer stimmen dann natürlich auch. Nun laufen die Tonspuren alle 20 Minuten immer mehr asynchron (einen Tick zu langsam), ich muss dann einen Schnitt in den Tonspuren machen und alle Tonspuren außer natürlich der Videospur einen Frame weiter nach rechts rücken, damit es wieder stimmt.


    Habe gesehen, dass bei Rechtsklick auf eine Tonspur "Zeiteffekt" und "Geschwindigkeit" kommt. Verstehe diese Funktion leider nicht, kann man es damit vielleicht eleganter lösen ?


    Danke für die Hilfe
    Liebe Grüße
    Ralph

  • Hallo Ralph,


    welche Abtastrate haben die Audioaufnahmen der SD Karte? 44KHz kann da schon mal Probleme verursachen. Heute selbst erlebt. Am Anfang angelegt und nach ca. 10 Minuten schon asynchron.
    In diesem Fall hat eine nachträgliche Änderung der Abtastrate (48Khz) geholfen.


    Gruß
    Günter

  • Hallo Ralph,


    ich denke auch, dass die Abtastrate (Sampelrate) des aus dem Mischpult aufgenommenen Audio das Problem ist. Das wird 44,1 kHz sein und dein Projekt wird wohl auf 48 kHz eingestellt sein.
    2 mögliche Lösungen hierzu findest du im Thema
    Video und Audio nach Export als mp4 nicht syncron

    in den Beiträgen #4 und #7.


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Hallo,
    und danke für die Antworten,
    werde mir den Link von Uwe nachher mal zu Gemüte führen, kann aber jetzt schon sagen, dass das Projekt auf 48kHz ist und alle Tonspuren, auch die Videotonspur in dem Fenster " Eigenschaften " 48 kHz anzeigen,


    wenn ich mir von der wav. Datei extern im Computer die Eigenschaften anzeigen lasse kommt keine Info über kHz.


    Ich muss demnächst auch erstmal googeln, was eine Abtastrate ist, aber zurück zu meiner eigentlichen Frage :


    Habe gesehen, dass bei Rechtsklick auf eine Tonspur "Zeiteffekt" und "Geschwindigkeit" kommt. Verstehe diese Funktion leider nicht, kann man es damit vielleicht eleganter lösen ?


    Noch zur Info, das Video/Tonsignal läuft erst in einen Blackmagic Videomischer, die Übersetzer-Tonaufnahmen kommen direkt auf die SD Karte des Tonmischers, vielleicht liegt ja schon da der Hase begraben, diese Konstanten sind aber leider nicht veränderbar.


    LG
    Ralph

  • "Zeiteffekt" - "Geschwindigkeit" bietet die Möglichkeit Clips


    schneller (durch Eingabe von Werten über 100%),
    langsamer (durch Eingabe von Werten unter 100%) oder auch
    rückwärts (durch Eingabe von negativen Werten wie z.B. -100% - wäre normale Geschwindigkeit rückwärts, -50% wäre halbe Geschwindigkeit rückwärts)


    laufen zu lassen. Dazu gibt es dann noch Einstellmögliichkeiten, wie die Bilder neu berechnet werden sollen.Das ist aber nicht die Lösung deines Problems.


    Mach bitte mal in der Bin oder auf der TL auf einen Audio-Clip einen Rechtsklick und klick dann auf Eigenschaften - was steht da für eine Sampel-Rate?


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Hallo Uwe, hab Bilder angehängt, falls ich was übersehe, vielleicht fällt dir was auf,
    und danke für die Erklärung der Funktion, bei 3 Frames pro Stunde kann man die Geschwindigkeit wohl nicht so minimal anpassen 8|


    LG
    Ralph

  • Hi Ralph,


    dann wird am Audio nicht liegen. Ein Bild Versatz alle 20 Min ist auch sehr wenig. Das Problem mit unterschiedlichen Sampel-Raten erzeugt eigentlich mehr Versatz.


    Nächster Gedanke: Ist dein Videomaterial mit 25p (wie dein Projekt eingestellt ist) aufgenommen? Oder wird das von einer anderen Framerate umgerechnet?



    Nebenbei noch was, was mir in deinen Projekteinstellungen aufgefallen ist:
    - Overscangröße auf 0% einstellen
    - Resampling-Methode auf Lanczos 3 (hohe Qualität) einstellen



    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Mal noch eine ganz verwegene Idee: Kann es sein, dass der Versatz nicht am Audio, sondern am Video liegt? Gerade ältere Kameras (insbesondere die kleinen, günstigen), die noch nicht (so gut) mit großen Dateien umgehen konnten, haben sich oft des Tricks bedient, lange Aufnahmen intern in mehrere Teildateien zu zerlegen, die dann beim Einspielen in den Rechner mit der häufig herstellereigenen Software wieder zu einer Datei zusammengefügt wurden. Dabei trat ganz gern mal der Effekt auf, dass an den Schnittstellen die Frames unsauber zugeordnet wurden und dann immer genau das Frame an der Schnittstelle fehlte. Das sah man dann auch recht deutlich bei mittelschnellen Bewegungen.


    Und dann solltest Du ganz akribisch Fehleranalyse betreiben. Du schreibst einerseits, Dein Ton liefe nach 20 Minuten zu langsam. Dann schreibst Du, Du musst alle Tonspuren ein Frame nach rechts rücken. Das passt aber nicht: Wenn Dein Ton langsamer als das Video ist, dann endet er logischerweise später als das Video. Er endet also in der Timeline weiter rechts als das Video. Um das auszugleichen, würdest Du den Ton demnach nach links schieben müssen. Eine von beiden Beobachtungen stimmt also nicht, und es wäre hilfreich zu wissen, welche. ;)


    Andererseits: Solange Du die verwendeten Geräte nicht per Timecode synchronisierst, ist eine Abweichung von 1 Frame nach 20 Minuten eigentlich nicht verkehrt. 20 Minuten sind 30.000 Frames - da darf man schon mal um 1 Frame abweichen. Gerade bei den beliebten kleinen portablen Aufnahmegeräten z.B. von Zoom ist es normal, dass es bei längeren Aufnahmen irgendwann Abweichungen gibt. Eine Asynchronität von 1 Frame können die wenigsten Laien erkennen - und ich kenne ausgebildete Cutter, die 1 Frame Unterschied auch nicht sehen. Ich denke, ab ca. 3 Frames fangen die Ersten an zu stutzen - in Deinem Fall also nach einer Stunde! Das ist nicht schlecht. Wer einen höheren Anspruch hat, benötigt wie gesagt Timecode-Synchronisierung - aber die ist natürlich aufwändiger und vor allem teurer.

    Edius WG 8.53.3262 ---- Win10 Pro

    Einmal editiert, zuletzt von Captain ()

  • Danke für die Antworten, als Kameras verwende ich wie schon gesagt eine Sony FS7 sowie 3 Sony Henkelkameras, mir ist der Name entfallen, irgendwas mit NX 5 (aber jede ca. 4000 Euros, also schon ganz ok), der Videomischer ist ein Blackmagic 4k, die Kameras sind alle auf 1920 x 1080 50i eingestellt sonst meckert der Videomischer, der Ton ausgehend vom Tonmischer (2 Headsets und 4 Handmikros geht erst in die FS 7 und dann über den Videomischer auf die Festplatte, die Übersetzer (momentan 5 Mikros) laufen direkt auf eine interne Speicherkarte des Tonmischers.


    Ich hänge jetzt Bilder von den Videofiles dran.


    LG
    Ralph

  • Also die Bilder von 4 Videokameras kommen in 25i (früher hieß das 50i) zum Videomischer und werden von dort, nach dem Live-Schnitt, in 25p auf eine Festplatte geschrieben. Das alleine gibt noch keinen Versatz.


    Es könnte auch mit dem von Captain beschriebenen Umstand der Teildateien zu tun haben.
    Werden auf die Festplatte mehrere Einzeldateien (ca. 2 GB groß) oder eine Gesamtdatei geschrieben?
    Wenn es mehrere Dateien sind - mit welcher Vorgehensweise importierst du diese in Edius?


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Hi,


    Verständnisfrage -
    der Ton der 4 Kameras ist aber synchron?
    Die Asynchronität besteht nur bei den extra aufgenommenen Tonspuren?



    Videomischer ist ein Blackmagic 4k, die Kameras sind alle auf 1920 x 1080 50i eingestellt sonst meckert der Videomischer, der Ton ausgehend vom Tonmischer (2 Headsets und 4 Handmikros geht erst in die FS 7 und dann über den Videomischer auf die Festplatte


    Der BM Mischer sollte eigentlich auch nicht das Problem verursachen.
    Was ich mir vorstellen könnte wäre, dass eine Komponente - vermutl. der Tonmischer auf 44,1 kHz eingestellt ist und es deshalb zum Versatz kommt. Dieser fällt dann durch die interne Wandlung nicht so stark aus, wie "echtes" 44,1 kHz.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo Uwe, hab Bilder angehängt, falls ich was übersehe, vielleicht fällt dir was auf,

    mir ist in dem Bild noch etwas aufgefallen, nur weiss ich nicht, ob das die Ursache ist.
    Audio-Norm wäre 48khz (48'000) und 16bit. Du hast aber 24bit angezeigt.
    Versuche doch zuerst einmal, das Audio auf 48khz und 16 bit einzustellen.


    Ob sich so die kleine Differenz von 1 Bild ergibt?

    -------------------
    Schnitt-PC:
    Gehäuse: Cooler Master Midi Tower Centurion 590, Netzteil Cooler Master, Silent Pro 700W, Mainboard : Asus Sabertooth X58, LGA1366, Speicher : Corsair 3x4GB, DDR3-1333, CPU : Intel Core i7 960, 3.20 GHz, LGA 1366, Kühler : Noctua CPU-Kühler NH-D14, Festplatten: 1x Samsung SSD 850EVO , 3 x 1 TB-WD Black, 1 x 4TB WD Black, Grafikkarte: NVIDIA GTX 960, OS : Win-10-64bit Pro (1909), Edius 8.53 WG, HD-Storm, 2 x 24" FHD-Monitore,

  • mir ist in dem Bild noch etwas aufgefallen, nur weiss ich nicht, ob das die Ursache ist.Audio-Norm wäre 48khz (48'000) und 16bit. Du hast aber 24bit angezeigt. Versuche doch zuerst einmal, das Audio auf 48khz und 16 bit einzustellen.


    Ob sich so die kleine Differenz von 1 Bild ergibt?

    Man soll ja nie nie sagen, aber das dürfte eigentlich sein. Denn die Bittiefe hat ja anders als die Abtastrate keinen zeitlichen Bezug. 48kHz bedeutet ja, dass 48.000 mal pro Sekunde eine Abtastung durchgeführt wird. Die Bittiefe sagt dann "nur", wie detailliert diese Abtastung ist.

  • Captain hat recht, die Bittiefe kann (sollte) nicht die Ursache sein.
    Du hast zwar offenbar „nur“ eine Sprachaufnahme, aber trotzdem ist es - für die späteren Bearbeitung - besser mit einer möglichst hohen Bittiefe aufzunehmen. Für die endgültige Ausgabe kann man dann durchaus auf 16 Bit zurückfahren, wenn man „Platz“ sparen will.


    Was mir noch durch den Kopf gegangen ist, wäre die Funkstrecke zwischen Mics und Tonmischer. Ist die auf 44,1 kHz ausgelegt/eingestellt gilt das schon gesagte.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo,
    bei mir ist das bei den Konzerten, Shows etc. genau so. Ich zeichne mit 2 Geräten auf:
    Zoom H6 und Zoom H4n. Jeweils in 48 kHz.
    Bei 2 Stunden ist das Audio beim Zoom H6 um ca. 2 Bilder länger.... Ich wähle die Datei an "ALT e" und verkürze diese um 2 Bilder.
    Beim Zoom H4n ist die Datei um ca. 2 Bilder zu kurz, da muss ich halt verlängern.

  • Captain hat recht, die Bittiefe kann (sollte) nicht die Ursache sein.
    Du hast zwar offenbar „nur“ eine Sprachaufnahme, aber trotzdem ist es - für die späteren Bearbeitung - besser mit einer möglichst hohen Bittiefe aufzunehmen. Für die endgültige Ausgabe kann man dann durchaus auf 16 Bit zurückfahren, wenn man „Platz“ sparen will.


    Was mir noch durch den Kopf gegangen ist, wäre die Funkstrecke zwischen Mics und Tonmischer. Ist die auf 44,1 kHz ausgelegt/eingestellt gilt das schon gesagte.

    Danke, ich werde mir die audiorelevanten Geräte im Saal mal zu Gemüte fühlen, falls dies eine Lösung bringt, geb ich noch ne Rückmeldung, jetzt geht's erstmal in ein längeres Seminar. Grüße an alle!

  • Ich nehme oft Livekonzerte mit 6 Kameras auf. Und diese werden mit der Zeit unsync.
    Hintergrund ist der Timelock.
    Jede Firma hat seine n eigenen Timelock, und da nochmals in Produktlinien unterschieden.
    Professionelle Broadcast Cams aller Firmen haben den ein und gleichen Timelock.
    Dieser wird ab einer gewissen Preisklasse verwendet. Somit können die Daten weltweit getauscht werden.


    Meine Audiorecorder Sony M10 hat zb. den gleichen Timelock wie meine Sony Rx100M2.
    Meine Panasonic x909 hat einen anderen als Panasonic x929 und TM700.
    Bei 2 Std sind es 4-8 frames.
    ich synce immer mittels Bild verschieben, ich verändere nie etwas am Ton.
    Dehnen des Tones hat die Sache nur verschlimmert.

  • Danke, dass passt ja auch zu meinem Frame alle 20 min.
    Ich vermute, da ich auch mit verschiedenen Kameras, Videomischer, Tonmischer usw. arbeite, ist diese Verschiebung nicht zu vermeiden.


    Und damit schließe ich dann auch diesen Beitrag.


    Frohes Fest und guten Rutsch
    Ralph