Kameraschnitte mit Blackmagic ATEM in Edius übertragen?

  • Hallo,
    habe folgendes Setup:
    3 Kameras, werden live geschnitten mit Blackmagic ATEM Production Studio 4K und der Blackmagic Software.
    Es ergibt sich ein Datenstrom der per Atomos Shogun aufgezeichnet wird.
    Ich zeichne sicherheitshalber aber immer auch noch auf dem Kameras auf, falls doch die Schnitte später geändert werden müssen.
    Oder wenn mal ein Ausschnitt einer Kamera gewählt werden muß. Dann geht das natürlich nicht mit der direkt erzeugten (live geschnittenen) Datei.


    Frage:
    Hat jemand eine Idee, wie ich diese Schnitte irgendwie geschickt in Edius "importieren" kann?


    Meine bisherigen Ideen:
    1) Wie zu Mini-DV Zeiten, wo man beim capturen eine Szenenerkennung hatte und so immer neue Clips erzeugt wurden, sobald ein Schnitt erkannt wurde. Wenn man so etwas als Plugin für Edius hätte würde das völlig reichen. Dann ist mir nämlich klar, wo die Schnitte sind (und ich kann es einfach rekonstruieren).
    2) Man könnte bei der live Aufzeichnung irgendwie versuchen die Schnitte, die ich in der Blackmagic Software vornehme auch direkt in Edius zu übernehmen. Wobei ich da keine praktibakele Lösung hätte.


    Das nur meine Ideen, die aber meines Wissen nicht wirklich umzusetzen sind.
    Vielleicht hat jemand eine andere Idee oder sieht eine Möglichkeit der Umsetzung meiner Ideen???


    Danke sehr!

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Hallo,
    ich weiß zwar nicht, ob ich alles richtig verstanden habe, aber so habe ich es gelöst...


    Die Aufzeichnung auf ninja inferno habe ich via HDMI und Intensity pro 4k mit Edius 8.5 gecaptures. Geht ja von ganz alleine... und fertig


    Gruß Peter

  • Ne, das hilft mir nicht, ich habe dann ja auch nur einen Clip ohne die Schnitte der einzelnen Kameras.
    Ich will aber in Edius wissen, wo meine Schnitte gesetzt sind....

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Hi,


    ich bin mir jetzt auch nicht sicher, ob ich es richtig versanden habe. Aber wenn ja, müsstest Du doch 4 Quellen haben:

    • 1 x Aufzeichnung des Live-Schnitt
    • 3 x Einzelaufnahme der Cam1 bis Cam 3


    Wäre es da jetzt nicht ausreichen diese 4 (synchronisierten) Spuren in Edius als Multicam zu bearbeiten?


    Den Live-Schnitt verwendest Du quasi als Referenzspur.
    Dort wo Du von dem Live-Schnitt abweichen willst, wechselst Du auf die Spur den entsprechenden Cam.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Richtig, genau so ist es.
    Einmal der live-Schnitt und die 3 einzelnen Kameras.
    Der Live Schnitt ist ja schon der bearbeitete "Multicamschnitt". So spare ich mir also einen Großteil der Postproduktion, da ich es live vor Ort mache. Das sind einige Tage bei der Menge.


    Es kommt aber vor, daß mal ein Ausschnitt einer Kamera geändert werden soll, oder daß an bestimmten Stellen eine andere Kamera gewünscht wird.
    Wenn ich den Ausschnitt einer Kamera ändern muß, dann muß ich im Live-Schnitt die Szenen der Kamera suchen, alles trennen und dann den Layouter bemühen.
    Wenn ich aber die Schnitte schon hätte bräuchte ich nur den Layouter in die Clips kopieren und fertig.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Hallo Chris,


    es gibt da einen findigen Australier, der hat einige gute Ergänzungen zu den BM Atem Mischern - unter anderem einen Event-logger, der aus dem Livemix eine EDL aufzeichnet, die Du dann in edius importieren kannst:


    http://www.lefflerpost.com.au/eventlogger/


    das ganze ist nicht ganz billig, aber wenn Du öfters Livemixe nachbearbeitest so wie ich, lohnt es sich evtl....


    Wende dich einfach an Baz Leffler:


    http://www.lefflerpost.com.au/gvg2atem/



    Gruß



    Klaus

  • Danke Klaus,
    wie findet man den so etwas?
    Das ist ja so ziemlich genau das was ich brauche.
    Habe jetzt mal einiges dazu gelesen.


    Wie funktioniert denn dann die Synchronisierung und Zuordnung der EDL in Edius mit meinem Videos der 3 Kameras und dem Live-Mitschnitt auf dem Shogun?
    Das verstehe ich noch nicht ganz.


    Danke!

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Hallo Chris


    Das findet man, weil der Australier eine Umrüstung der guten alten Grass Valley GVG110 Bildmischer mit einem Arduinio entwickelt hat, mit der man 2 Atems, Videohubs, Tallys u.v.m. steuern kann - super Sache!


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.




    Du musst natürlich deinen Mix und die einzelnen Kameraaufzecihnungen in Edius ingestieren und dann wie für den Multicamschnitt syncen. Dazu dann die vom Event-Logger erzeugte EDL einladen, Startzeit anpassen und
    schon hast Du alle Schnitte und Fades, die Du live gemacht hast - hier ein etwas umständliches Erklärvideo auf Englisch von Baz:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Hier noch ein Video zur Erklärung, zwar mit Final Cut Pro, aber in Edius funktionierts genau so - darin steht auch der Preis 245 Dollar plus Versand:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Gruß



    Klaus

  • Ja, die Videos habe ich gesehe, die zeigen es ja im Prinzip, aber leider nicht so exakt und verständlich.
    Was ich nur nicht verstehe, woher weiß Edius welche Spur nachher welche Kamera ist. Das muß man ja irgendwie zuordnen.
    Hast du es selber mal gemacht?
    Danke!

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Na ja, du musst eben so viele Spuren anlegen wie du Kameras hattest + die für den Mix und dann passend zu den Atem-Camquellen die Spur anlegen - etwas Handarbeit ist im Vorfeld schon nötig
    Aber wenn Du das richtig angeordnet hast, gehts rasend schnell flasche Schintte zu ersetzen...

  • Und dann die Synchronisierung der Spuren unter sich ist ja kein Problem. Und die EDL synchronisiert sich mit der Mitschnitt auf dem Shogun schätze ich. Damit sollte es passen.
    Das könnte sich lohnen, da ich diese Drehs öfter habe...

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).