Anfängerfrage: Flimmern bei seitlichen "Kamerafahrten" aus der Hand

  • Hallo,


    ich habe mal eine kurze Testaufnahme mit einer G91 Lumix gemacht 4K@30FPS.

    Externer Inhalt vimeo.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Obwohl ich die Verschlußzeit schon auf 1/30 erhöht habe habe ich immer noch dieses "Flimmern", bei seitlichen Bewegungen.
    Der Hauptzweck der Kamera ist zwar Interviews zu drehen, ich wäre aber gerne kreativer und würde schon ein passendes "B-Roll" mitliefern.


    Was sind die besten Ansätze dieses zu eliminieren?


    1. FPS zu erhöhen kann ich leider nicht
    2. interlaced zu drehen geht nicht und will ich auch nicht.
    3. 30FPS Footage in einem 60P Projekt bearbeiten? Ergibt es Sinn?
    4. Verschlußzeit weiter zu erhöhen geht nicht mehr.
    5. ist es bildschirmabhängig und das Problem ist bei Euch gar nicht wahrnehmbar?
    6. ich jammere auf hohem Niveau und ihr findet es gar nicht so schlimm?


    Was sind so eure Erfahrungen?


    LG
    I.

  • Du schwenkst zu schnell. Die Bewegungsmatrix kommt so schnell nicht hinterher die Bildblöcke mit ihrem Bewegungsvektor zu analysieren.

  • Ok, vielen Dank, ich dachte, sie ist schon genügend langsam.
    Ich übe dann dementsprechend mit Stativ ...

  • Das liegt am Aufzeichnungsformat bei H.26x, wo ja immer nur alle x Bilder ein vollständiger Keyframe erzeugt wird. Die Zwischenbilder werden ja nur über die Unterschiede kodiert.


    Was anderes wäre, wenn du mit einer Kamera filmst die alle Bilder als vollständiges Keyframe aufzeichnen würde. Da könnte man anschließend alles OFFLINE neu berechnen und die optimale Komprimierung mit dem optimalen Komprimierungsprofil wählen.


    Für so eine Aufzeichnung sind dann Codecs besser, wie ProRes oder DNxHD, DNxHR, HQX oder HQ. Später macht man dann ein H264 oder H265 daraus, aber mit angepasster Datenrate für das erzeugte H264/H265.

  • 30FPS Footage in einem 60P Projekt bearbeiten? Ergibt es Sinn?

    Nein, das macht es höchsten noch schlimmer.




    interlaced zu drehen geht nicht und will ich auch nicht.

    Hätte auch keinen Sinn.




    ich jammere auf hohem Niveau und ihr findet es gar nicht so schlimm?

    Doch, das sieht wirklich nicht schön aus und ist so eigentlich nicht verwendbar. Je geringer die Bildrate, desto vorsichtiger muss geschwenkt werden.
    Solche Aufnahmen sind aus der Hand eigentlich auch nicht machbar. Dafür benötigt man einen Slider, bzw. für einfache Schwenks ein Stativ mit einem Fluidkopf.


    Letztlich ist das ein Handwerk. Und dafür benötigt man dann auch das richtige und passende Werkzeug.
    Da ist die Kamera nur der Anfang. Das "Drumherum" kostet dann leider auch nochmal ein Vielfaches (kann dafür aber i.d.R. sehr lange genutzt werden).



    Das nächste Problem, was ich bei der Produktion von Interviews auf Dich zukommen sehe ist der Ton. Wenn Du versuchen solltest diesen über die in der Kamera eingebauten Mikrofone aufzunehmen, wirst Du mit Sicherheit scheitern.
    Auch dafür benötigst Du eine entsprechende Ausstattung. D.h. mindesten ein externes (Richt-)Mikrofon, welches nicht weiter als etwa 1/2 m von der aufzunehmenden Person entfernt sein sollte. Alternativ eine Funkstrecke.
    Bei mehreren Gesprächspartnern benötigst Du separate Mikrofone, oder musst zumindest Fragen und Antworten getrennt aufnehmen. Wenn es die Form einer Reportage haben kann, dann ginge natürlich auch ein Mikrofon, welches weitergereicht wird.


    Und dies muss dann entweder in die Kamera laufen, oder besser separat auf einen Audiorekorder gehen, der später mit dem Bild synchronisiert wird.
    Auf alle Fälle müsste (sollte :rolleyes: ) der Ton dann auch noch bearbeitet werden. Die in Edius vorhandenen Möglichkeiten sind da wirklich nur sehr rudimentär.






    Das ist jetzt nicht böse gemeint, aber Du solltest Dich vielleicht zunächst mit einigen Grundlagen befassen. Danach kannst Du ein Konzept aufstellen und überlegen, was Du alles benötigst. Das würde dann auch helfen (weitere) Fehler bei der Anschaffung zu vermeiden.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hi Peter,


    was du schreibst ist vollkommen richtig, was natürlich auch mir bewusst ist, wobei ich letztes Mal 2017 bei einem Imagefilm selbst gedreht habe. Seitdem habe ich nur noch News gemacht als 2. Job (ich bin eigentlich IT-Mitarbeiter an der Uni)
    News haben wir halt immer mit der alten Kamera in 1080/50i gedreht. Ich habe also die ganze DSLR Hype + Progressiv verpasst.


    Diese ganzen etwas praxisfernen Testfälle sind nur dafür da um die Grenzen der Kamera zu kennen bzw. rausfinden, was ich noch allein hinkriege.


    Zubehör wie Slider wäre natürlich toll, ich muss nur noch die Uni überzeugen, dass sie es kaufen :)


    Ton wird kein Problem sein. Wir haben ein Zoom H6 mit Sennheiser Richtmikro + ein Rode Funkset mit Lav. Ich werde den Ton in Reaper bearbeiten (EQ, Kompressor, Limiter usw.)


    LG


    I.

  • Ok, die Audio-Ausstattung hört sich sehr gut an.




    Zubehör wie Slider wäre natürlich toll, ich muss nur noch die Uni überzeugen, dass sie es kaufen

    Ein Slider ist ja primär auch nicht notwendig um ein Interview zu drehen.
    Nur wenn Du (regelmäßig) Kamerafahrten in der oben gezeigten Art machen möchtest wäre ein Slider wirklich sinnvoll. Es gäbe ja je nach Aufnahmesituation/-ort auch noch andere Alternativen, wie Stativwagen, oder Notfalls reicht da vielleicht sogar mal ein Hund (Transportroller).
    Aber es geht eben darum die grundlegenden Techniken zu kennen.




    Und natürlich musst Du Dich auch erstmal an die Kamera gewöhnen.
    Wenn ich die technischen Daten richtig gelesen habe, wäre mit der Kamera ja auch die Aufnahme von FHD 1920x1080 50p als AVCHD möglich. Evtl. solltest Du auch mal dies testen. Ich denke, dass die Ergebnisse für Deine Zwecke letztlich besser verwertbar sein könnten als die 4K-Variante.
    Dabei käme es natürlich auch darauf an, für welches Ziel (Wiedergabemedium) Du produzieren möchtest.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Wenn ich die technischen Daten richtig gelesen habe, wäre mit der Kamera ja auch die Aufnahme von FHD 1920x1080 50p als AVCHD möglich. Evtl. solltest Du auch mal dies testen.



    Ich denke, dass die Ergebnisse für Deine Zwecke letztlich besser verwertbar sein könnten als die 4K-Variante.
    Dabei käme es natürlich auch darauf an, für welches Ziel (Wiedergabemedium) Du produzieren möchtest.


    Guter Vorschlag. Das Interview selbst dreh ich mit 4K@30P, alles andere Szenen, wo die Kamera sich bewegt kann ich ja mit 1080@50-120P aufzeichnen.
    Die Videos gehen einfach aufs YouTube-Kanal der Institut.


    Das ist das erste Video dieser Reihe, die ich künftig mit einem weiteren Format ergänzen bzw. generell weiterentwickeln soll. Das erste Video ist - rein aufnahmetechnisch - nicht besonders kreativ umgesetzt worden:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Ich versuche es zumindest etwas "cinematischer", mit etwas weniger Schärfe und mit klassischer 3-Punkt Beleuchtung umzusetzen.


    Gr. I.

  • Guter Vorschlag. Das Interview selbst dreh ich mit 4K@30P, alles andere Szenen, wo die Kamera sich bewegt kann ich ja mit 1080@50-120P aufzeichnen.

    Also ob das so eine gute Idee ist....


    Von mir gemeint war ja eigentlich, dass Du komplett in FHD AVCHD aufnimmst.



    Wenn Du dann das 50p FHD-Material in einem 30p UHD-Projekt verwendest verlierst Du ja wieder die Vorteile der höheren Bildrate. Insbes. da 30/50 nicht zueinander passen.
    Da kannst Du dann lieber gleich bei UHD 30p bleiben.


    Aber m.E. würde eben für solch ein Interview über YouTube FHD auch völlig ausreichen.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Wenn dann würde ich 4K 25p machen und dann die anderen Szenen in 50p.
    Oder eben 30p Interview und 60p für die anderen Szenen.
    Vorteil: bei den höheren Bildraten der anderen Szenen: Du kannst recht gute Zeitlupen mit 50% machen. Ob du es hier brauchst vermute ich zwar aktuell nicht, ist aber bei Bedarf ganz hilfreich.
    Nachteil: Dir geht bei deiner Kamera 4K verloren um ggf. im Schnitt rein zu zoomen.


    Übrigens würde ich den Bildausschnitt anders wählen beim Interview, da kannst du näher ran, die Kopffreiheit ist viel zu groß. Dann wird der HG auch unschärfer.
    Und die Position ist etwas unglücklich gewählt weil die Lampe genau hinter seinem Kopf rausguckt.


    Intro viel zu lang. Der Spaß darf mit Frage keine 10 s dauern. Outro ebenso.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Übrigens würde ich den Bildausschnitt anders wählen beim Interview, da kannst du näher ran, die Kopffreiheit ist viel zu groß. Dann wird der HG auch unschärfer.
    Und die Position ist etwas unglücklich gewählt weil die Lampe genau hinter seinem Kopf rausguckt.


    Intro viel zu lang. Der Spaß darf mit Frage keine 10 s dauern. Outro ebenso.

    Ja, ich sehe diese Punkte auch, das Video wurde aber nicht von mir gemacht, sondern von einer Studentin, die mit der Öffentlichkeitsarbeit Ende Juni aufhört.
    Ich übernehme die Arbeit von ihr. Ich hoffe natürlich auch, dass ich die Interview-Projekte - die auch inhaltlich etwas umfangreicher sein werden - besser umsetzen kann.


    LG


    I.

  • Achso...

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Also bei dem Ton war zwar ein Lavalier am Interviewpartner, aber der Ton hat so viel Raum, da wurde anscheinen der Ton im Schnitt nicht vom Lav verwendet oder der Ton der Kamera wurde mit dem Ton des Lav gemischt. Ich würde dir generell den Weg über Reaper nicht empfehlen, sondern mal den Voxformer anschauen zusammen mit den ACON Tools (Focus auf denoise). Der Aufwand vom Workflow her (aus EDIUS exportieren, Massage des Sounds in Reaper, Import in EDIUS) im Vgl zu dem Gewinn halte ich für unverhältnismäßig. Ich selber besitze keine Funkstrecke, aber ich habe ein Zoom H1 und ein RODE Smartlav. Das kann man ganz gut in EDIUS regeln. Du solltest aber schauen das du den Gesamtworkflow im Griff hast. Ich habe den Job den du beschreibst 13 Jahre in meiner Firma gemacht. Ergebnisse werden immer schneller erwartet (Messe und dann waren heute morgen VIPs da, wann ist denn das fertig und du kannst doch auch Fotos machen, oder?). Wenn man noch deine anderen Fragen zu Objektiven und Licht aus den anderen Themen betrachtet ist weniger einfach mehr. Meine Empfehlung - behalten den Gesamtworkflow auch unter Druck im Griff sonst knallt es mittelfristig. Und ich habe das auch so nebenbei gemacht...

  • Also bei dem Ton war zwar ein Lavalier am Interviewpartner, aber der Ton hat so viel Raum, da wurde anscheinen der Ton im Schnitt nicht vom Lav verwendet oder der Ton der Kamera wurde mit dem Ton des Lav gemischt. Ich würde dir generell den Weg über Reaper nicht empfehlen, sondern mal den Voxformer anschauen zusammen mit den ACON Tools (Focus auf denoise). Der Aufwand vom Workflow her (aus EDIUS exportieren, Massage des Sounds in Reaper, Import in EDIUS) im Vgl zu dem Gewinn halte ich für unverhältnismäßig. Ich selber besitze keine Funkstrecke, aber ich habe ein Zoom H1 und ein RODE Smartlav. Das kann man ganz gut in EDIUS regeln. Du solltest aber schauen das du den Gesamtworkflow im Griff hast. Ich habe den Job den du beschreibst 13 Jahre in meiner Firma gemacht. Ergebnisse werden immer schneller erwartet (Messe und dann waren heute morgen VIPs da, wann ist denn das fertig und du kannst doch auch Fotos machen, oder?). Wenn man noch deine anderen Fragen zu Objektiven und Licht aus den anderen Themen betrachtet ist weniger einfach mehr. Meine Empfehlung - behalten den Gesamtworkflow auch unter Druck im Griff sonst knallt es mittelfristig. Und ich habe das auch so nebenbei gemacht...

    Hallo, im Allgemeinen hast du Recht. Das ganze Editing mache ich schon in Edius, ganz am Ende, wenn alles fertig ist, exportiere ich den Ton und bearbeite den kompletten Spur in Reaper. Es dauert wirklich nicht lange ...

  • Hallo,


    wir haben mal die ganze Interview-Situation in Edius X getestet, weil wissen wollten wie Multikamera-Sync funktioniert:
    (Wir wollen ein Handy als B-Cam einsetzen)


    Externer Inhalt vimeo.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    /in der ersten Hälfte sieht das Bild so aus, wie das Handy bzw. Fotocam es aufgezeichnet hat, am Ende haben wir die Farben etwas angepasst./


    Was uns auffiel:


    - In einem 4K@30P Project war der Unterschied gar nicht so groß wie ich befürchtet habe, obwohl die Handyaufnahme 1080@60P war und die der Fotocam 4K@30P.
    - Multikamera-Sync hat auf Anhieb und perfekt funktioniert, obwohl die Tonqualität des Handys bzw. der Kamera alles andere als perfekt war. :)


    Unterschiede:


    1. die seitliche Handyaufnahme hat bei minimaler Farbkorrektur schon sichtbares Banding am Gesicht und zu starke (künstliche) Schärfe
    2. die Fotocam hat natürlich viel mehr Unschärfe im Hintergrund und hat ein weicheres Bild
    3. der Kopf ist durch die Fotocam unnatürlich breit


    Punkt 3 hat uns etwas überrascht. Ist es normal, dass Motive bei 1,5m Distanz zur Kamera so in die Breite gezogen werden? Ich kann es mit Layouter anpassen, werde ich aber etwas an Schärfe verlieren, wenn ich reinzoomen muss.
    Falls jemand eine Idee hat wie es entsteht, vielen Dank für die Rückmeldung.


    LG


    I.

  • Hi,



    tut mir jetzt leid dies so hart zu sagen und ich will Dich damit auch nicht "runtermachen", sondern nur helfen auf ein gutes Ergebnis zu kommen. Aber die Aufnahmen sind aus mehreren Gründen grottenschlecht.
    Du solltest Dich wirklich mal eingehend mit den Grundlagen beschäftigen. Es gibt da auf YouTube jede Menge Tutorials die alles recht gut und leicht nachvollziehbar erklären.




    Grundfehler ist schon der absolut ungünstigen Aufbau des Sets mit dem hell überstrahlten Fenster im Hintergrund (Gegenlichtaufnahme!!!).
    Dann hast Du - wenn ich von der unbearbeiteten Smartphone-Aufnahme ausgehe - das Gesicht nicht (oder nur schwach von der Seite des Smartphons) ausgeleuchtet, was aber grade mit dem hellen Fenster im Hintergrund nicht ausreicht.
    Dadurch ist das Gesicht relativ dunkel und Du musstest die Belichtung erhöhen, wodurch das Fenster noch mehr überstrahlt. Außerdem tritt so der Hintergrund auch sehr deutlich hervor.


    Besser wäre es gewesen alles um mind. 90 Grad zu drehen, sodass das Fenster am linken Bildrand gelegen hätte und von diesem die rechte Gesichtshälte ausgeleuchtet wäre. Das Fenster selbst sollte kaum bis nicht im Bild gewesen sein.
    Dann eine leichte Aufhellung von der Gegenseite (vorn rechts) und möglichst noch eine starke Lichtquelle von hinten (links) um die Person vom Hintergrund freizustellen.


    Wenn eine "seitliche" Aufnahme aus räumlichen Gründen nicht möglich und kein besserer Ort zur Verfügung steht, dann müsste man versuchenden Lichteinfall vom Fenster zu vermindern. Doch das würde einerseits einen erhöhten Beleuchtungsaufwand bedeuten und im Bild auch eher nicht so gut aussehen.



    2. Fehler, Du hast nicht auf die Ausrichtung der beiden Kameras geachtet.


    Diese sind in der Höhe stark unterschiedlich ausgerichtet, deshalb "springen" die Einstellungen von Kamera und Smartphone sehr unangenehm.
    Achte hier unbedingt darauf, dass die Augenpartie bei beiden Kameras auf einer Höhe liegen.


    Auf dem Smartphone blickt die Person nach rechts und Du hast den Kopf in der rechten Bildhälfte platziert. Dadurch entsteht hinter der Person unnützer Freiraum, während in Blickrichtung der Person der Raum begrenzt ist.
    Richtig wäre es genau umgekehrt. In die Richtung in die die Person schaut muss "Raum" sein, hinter dem Kopf nicht. Die Augenpartie sollte etwa bei 1/3 stehen, also in dem Fall etwa dort, wo im Hintergrund die Lehne des leeren Bürostuhls ist.
    Unabhängig von dem schon zuvor zur Höhe gesagten ist da der Kopfraum auch etwas knapp.



    Bei der Kamera hast Du die Person links im Bild platziert, was jetzt grundsätzlich völlig ok wäre.
    Aber Deine geringe seitliche Lichtsetzung ist ja ebenfalls von links. D.H. die Kamera zeigt die (eher) dunkle Gesichtshälfte. Das sieht nicht schön aus und fällt nur deshalb nicht so sehr auf, weil Du mit der Lichtsetzung sowieso daneben liegst.
    Deshalb hier die Person im Bild eher rechts platzieren.




    /in der ersten Hälfte sieht das Bild so aus, wie das Handy bzw. Fotocam es aufgezeichnet hat, am Ende haben wir die Farben etwas angepasst./

    Dir ist es da zwar recht gut gelungen die Farben der Smartphone-Aufnahme an die der Kamera anzupassen (was grade bei einem Smartphone wirklich nicht leicht ist), aber -- schon die Farbe aus der Kamera sieht grausam aus.
    Es geht alles zu sehr in Richtung Gelb/Orange. Grade die Hautpartie sieht sehr unnatürlich aus. Da ist die unbearbeitet Aufnahme aus dem Smartphone fast schon besser, wenn auch etwas "flau".


    Dies liegt u.a. an der Aufbau des Sets mit dem starken Gegenlicht (s.o.).
    Aber vermutlich stimmt auch einfach der Weißabgleich nicht, bzw. wurde nicht vorgenommen.




    In einem 4K@30P Project war der Unterschied gar nicht so groß wie ich befürchtet habe, obwohl die Handyaufnahme 1080@60P war und die der Fotocam 4K@30P.

    60p "passt" halt gut zu 30p, es wird ja rein rechnerisch nur jedes 2. Frame beim Abspielen weggelassen. Insoweit ist dies eine gut machbare Möglichkeit.


    Wobei hier eben das Smartphone mit einer variablen Bildrate aufnimmt (also nicht konstant 60p), was sich aber wegen der im Projekt stattfindenden "Reduzierung" der Bildrate auf 30p dann recht gut ausgleichen lässt.





    der Kopf ist durch die Fotocam unnatürlich breit


    Punkt 3 hat uns etwas überrascht. Ist es normal, dass Motive bei 1,5m Distanz zur Kamera so in die Breite gezogen werden?

    Das liegt dann am 3. Fehler.


    Du filmst mit einer weitwinkligen Einstellung. Genau wie beim Fotografieren macht man "Portrait"-Aufnahmen mit leichtem Tele, oder wenigsten mit Normalbrennweite.
    Also bezogen auf KB 50 - 100mm. Für Deine Kamera musst Du dann eben den Crop-Faktor berücksichtigen, wodurch sich entsprechend geringere Werte für die Brennweite ergeben.


    Außerdem hat die größere Brennweite auch den Vorteil, das Du dem Interviewpartner mit der Kamera nicht "auf der Nase" sitzt, was für die Person auch angenehmer ist.





    Ich kann es mit Layouter anpassen, werde ich aber etwas an Schärfe verlieren, wenn ich reinzoomen muss.

    Das hätte auch keinen Sinn. Denn Du würdest ja nur einen anderen Bildausschnitt wählen.


    Oder meinst Du , dass Du das Bild über den Layouter "stauchen" (also die Breite zur Höhe verändern) wollen würdest, um das Gesicht schmaler zu machen?
    Das würde die Aufnahme dann ganz versauen.





    Wie gesagt ist das von mir nicht böse gemeint, sondern soll Dich weiterbringen.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

    Einmal editiert, zuletzt von gurlt ()

  • 3. der Kopf ist durch die Fotocam unnatürlich breit

    Das ist sogar ein Kardinal-Aufnahmefehler.


    Die Vorschläge von Peter unbedingt beherzigen!
    Das Internet liefert riesige Mengen Tutorials und Grundsatzerklärungen
    für die Aufnahme und Nachbearbeitung von Foto und Video.
    Gute Fachbücher gibt es ebenfalls!


    Tipp: Movie-College

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Hallo Peter, hallo Pee,


    herzlichen Dank für eure Rückmeldungen. Ich kann auf jeden Fall sehr viel mitnehmen!


    Es ist aber zu berücksichtigen, dass diese Aufnahme mit dem eigentlichen Interview kaum was zu tun hat.
    Ich habe ja geschrieben:


    "wir haben mal die ganze Interview-Situation in Edius X getestet, weil wissen wollten wie Multikamera-Sync funktioniert"


    Wir haben hier also nur getestet, wie Edius X sich verhält, wenn 1080/60P mit 4K/30P via Multicamera-Sync synchronisiert werden.
    Ich habe die sonstigen Punkte einfach nur aufgelistet, weil ich sie - auch für mich - festhalten wollte.


    Die Interviews werden auf jeden Fall in einer richtigen Umgebung, hoffentlich gut beleuchtet aufgezeichnet.
    Ich habe jetzt mein Handy auch nur auf einen Karton platziert, dass ich überhaupt ein Blickwinkel von der Seite habe.


    LG


    I.

  • "wir haben mal die ganze Interview-Situation in Edius X getestet, weil wissen wollten wie Multikamera-Sync funktioniert"

    Mag ja sein, aber trotzdem sollte man halt die grundlegenden Dinge einer Aufnahme beachten - und sei es nur um diese für den eigenen Hinterkopf zu verfestigen. Sonst könnte man ja bei der Aufnahme auch die Verschlusskappe drauflassen. :D



    Ich habe jetzt mein Handy auch nur auf einen Karton platziert, dass ich überhaupt ein Blickwinkel von der Seite habe.

    Solange das dort stabil steht - und das war den Aufnahmen nach ja wohl gegeben - sind auch solche Hilfskonstruktionen "zulässig".
    Aber trotzdem sollte der Bildwinkel einigermaßen stimmen.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Hallo Zusammen,


    herzlichen Dank nochmals für Eure Hilfe:


    Hier ist meine erste Video in dieser Reihe: https://vimeo.com/570729735/46cd6086c4


    Kleinigkeiten fehlen noch aber das Video bleibt vermutlich so ...


    (was noch fehlt:


    - Ich werde die Farben vielleicht noch etwas anpassen
    - je nach Thema kommen noch "Schnittbilder" als visuelle Ergänzung dazu ...


    Das größte Problem war, dass wir uns während des ganzen Testens unbemerkt gedreht haben. So waren Handy und Führungslicht mal 90° an der Seite statt 45° ohne es zu merken :)
    Ich konnte also die Handyaufnahme am Ende gar nicht verwenden und auch das Licht so nicht so toll aus von der Seite ...


    Wie auch immer, die anderen Videos werden vielleicht besser ...


    LG


    I.