Edius 8 mit Plural Eyes bei Sony FS7 Footage

  • Hallo,


    wir werden nächste Woche zweitägige Tagung haben wo die Aufnahmen von zwei Sony SF7 kommen.


    Laut der 1. Konzeption hätte Audiorouting so ausgesehen:


    Wireless Lavalier wird durch einen Mic Mechanic (TC Helicon) gerouter, danach geht es durch einen Behringer Digitalmixer wo Gate, EQ, Kompressor und Limiter aktiv sind und danach geht es dann zu dem jeweiligen CH 4 der jeweiligen Kamera. So hätten beide Cams denselben Ton.


    Aus Platzgründen überlegen wir uns lediglich auf einen professionellen Audiorecorder aufzuzeichnen, der dann mit dem Kameraton (direkt aus dem Raum) mittels Pluray Eyes gesyncht wird. Wenn es zuverlässig funktionieren würde, würde es uns die ganze XLR-Verkabelung zwischen Mixer und Cams ersparen.


    Wenn ich richtig weiß arbeitet Pluray Eyes als Stand Alone Programm. Sein Exportformat kann aber Edius 8 importieren und so mit dem synchronen Ton und Bild arbeiten.


    Das ganze Workflow wäre auch deshalb wichtig, weil ein Cam auf einen externen Atomos Recorder aufzeichnet. Am Ende müssen wir also mit dem Footage von Cam 1 (auf Atomos) das Original-Footage von Cam 2 und den Ton des Audiorecorders syncron arbeiten.


    Funktioniert das PE --> Edius Workflow zuverlässig auch mit unterschiedlichen Codecs und auch in 4K?


    Kann es jemand für uns bestätigen?


    Vielen Dank.


    Gr. I.

  • klingt alles ziemlich unkonventionell ... erstmal


    Wie viele Lavs sollen es denn sein? Ohne das zu wissen kann man gar nicht viel dazu sagen.


    Außerdem, falls du die Sony FS7 meinst, die hat perfekte Limiter. Zudem würde ich immer mit einem originalen Audiosignal in die Mischung gehen. Vorher schon gaten, komprimieren und equalisieren kann in die Hose gehen. Was machst du, wenn da was schief geht. Eine gute Audioaufnahme lebt von der Aussteuerung. Lieber peinlichst da auf den Pegel auchten. Den Rest kannst du ja auch in der Mischung machen. Soll heißen, ist noch irgendwie unklar, wofür du denn TCH und den Mischer brauchst ...


    lgp

  • Ich würde auch direkt in die Kamera gehen und den Rest im Schnitt machen.
    Das synchronisieren anhand der Waveform ist doch kein großes Problem. Ich lasse zu dem Zweck immer ale Kameras durchlaufen.
    Dann macht man das einmal (ggf. pro Vortrag) und es ist in Edius relativ schnell synchronisiert.


    Auch wenn es jetzt nicht hilft: In Edius 9 soll ja eine synchronisation kommen, wie die dann aussieht ist aber noch unklar.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Vielen Dank für Eure Meinungen:


    Es geht es um eine Schulungsserie für Ingenieure bei einem Maschinenhersteller zwei Tage lange. Also ca. 10 Vorträge a 50-70Min, wir filmen es inkl. "Lab-Work" mit zwei-drei Cams. Da wir ingesamt 4-5 Tage haben um alles zu schneiden und zu exportieren bzw. abnehmen zu lassen, möchte ich etwas Zeit beim Ton sparen. Ich mache jede Woche Live Radiosendungen mit demselben Mischer ... Ich kenne mich damit also gut aus.


    Unsere Editorin wird nicht dazu kommen all dies in Edius zu machen.


    Der Kunde hat ziemlich konkrete Vorstellungen was Ton und Licht betrifft:


    https://www.youtube.com/watch?v=EkEpAabh6CA
    (Dies ist keine rohe Aufnahme direkt mit der Kamera, zumindest leicht komprimiert und auch durch Gate gejagt. )


    @ Chris. schon jetzt sind wir bei geschätztem 3TB für alle Recorder... Ich kann nicht alle Cams durchlaufen. :-/
    @ Peppowagner: aus Sicherheitsgrüden zeichne ich direkt vom Digitalmischer den "unbehandelten" Ton in Reaper auf. Die Cams haben aber jeweils einen Mix wo der Ton schon durch den internen Channel Strip geht.

  • Ach so, wenn es zeitkritisch ist habe ich eine viel bessere Idee.
    Nimm doch einen BM ATEM Mischer, mit dem kannst du direkt live schneiden. Wenn du nach Hause kommst ist der Schitt quasi fertig. Nicht ganz, aber im Prinzip schon. Das spart extrem Zeit wenn man mehr oder weniger feststehende Kameras hat (die mit Kabel angebunden werden können).
    Wenn du den Ton auch schon direkt machst ist es sogar och einfacher.
    Ich habe schon mehrfach ein Setup mit 3 Kameras alleine damit betrieben und parallel live geschnitten. Besser ist es sicher mit Kameraleuten, dann kannst du Ton und Bild sichrlich alleine live mischen.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Ich verwende ebenfalls einen Atomos Ninja Blade, der allerdings nur in 25p oder 50i aufzeichnet. Statt einer Funkstrecke verwende ich oft einen Olympus LS5 - Audiorekorder mit Laveliermikrofon und synchronisiere das mit Plural eyes 4.
    Das klappt mit Edius 8 wunderbar, wenn man beachtet, dass der EDIUS-Export aus Plural Eyes nur reibungslos funktioniert, wenn das gesamte Material eine identische Bildwiederholungsrate (fps = Frames per Seconds) aufweist und in den EDIUS-Projekteinstellungen solle man die identische fps-Zahl einstellen.
    Also im Falle meines Ninja Blade muss die Aufnahme aller Kameras entweder 25p oder 50i sein, die Projektenstellungen ebenalls entweder 25p oder 50i.


    Bei der Filmpraxis gibt es unter https://filmpraxis.de/produkte…us-filmpraxis-deutsch.php ein 76-seitiges Praxishandbuch.

    Grüße
    Hans


    ________________________________________________________________________________________
    ASUS Prime Z390-A, Intel i9-9900K, GTX1660S-6G Super, BM Intensty Pro 4K

  • Vielen Dank für die Rückmeldung.


    Es hat mit PE4 auch bei uns gut geklappt. In Anbetracht der 3 x15 Stunden Rohmaterial war es natürlich extrem wichtig.


    Wir haben dabei die interessante Erfahrung, dass Plural Eyes den Ton, die schon durch den Kompressor ging nicht mehr erkannt hatte. Die verbesserte Version mussten wir also manuell synchronisieren, was in Anbetracht der identischen Länge nicht besonders schwierig war.


    Gr. I.

  • ...
    Wir haben dabei die interessante Erfahrung, dass Plural Eyes den Ton, die schon durch den Kompressor ging nicht mehr erkannt hatte. Die verbesserte Version mussten wir also manuell synchronisieren, was in Anbetracht der identischen Länge nicht besonders schwierig war.


    Gr. I.

    Wundert mich nicht, da Kompressoren das Audiomaterial nicht einfach linear lauter oder leiser machen, wie es bei näher am Mikrofon oder weiter weg ist, sondern total in der Wellenform verändern können. Aber gerade die Wellenform wird ja verglichen.