Beiträge von gurlt

    Hi,


    das Problem bei Laptops mit Intel QS und zusätzlicher Grafikkarten ist leider oft, dass vom Gerät her immer nur eine dieser GPUs angesprochen werden kann. Also entweder QS oder Nvidia.


    Wie sich das speziell bei deinem derzeitigen Gerät aussieht, wird Dir hier eher niemand sagen können. Wende Dich dazu ggf. mal an den Support von HP.

    Generell würde die Aktivierung von QS aber über das BIOS gehen = iGPU Multi-Monitor = Enabled.



    Wenn Du auf Edius 11 umsteigen möchtet, beachte bitte, dass die damit verbundene Lizenz nur noch für 1 Gerät gilt.

    Du würdest also bei einem Einsatz von 1x PC und 1x Laptop eine Zweitlizenz benötigen, die je nach Ausführung so ab 59,- € kostet.


    Alternativ könntest Du aber auch die Einzellizenz für Edius 11 auf Deinem Schnittrechner nutzen und auf dem Laptop weiterhin (dann für Dich kostenlos) auf Edius 9 bleiben. Die Projekte lassen sich eigentlich in beiden Versionen problemlos öffnen, also austauschen.




    Da ich nun auf Windows 11 umsteigen will (der vorhandene Laptop würde ein Upgrade bekommen können - möchte ich aber nicht),

    Dürfte sich - wenn überhaupt machbar - finanziell nicht lohnen.

    Da hielte ich auch die Neuanschaffung für sinnvoller.


    Allerdings musst Du eben darauf achten, dass ggf. QuickSync und die Nvidia parallel gleichzeitig genutzt werden können.

    Das bedarf also möglichst einer kompetenten Beratung, die Du in einem Elektronikmarkt, oder den meisten Online-Verkäufern eher nicht bekommen wirst.

    Wende Dich dazu lieber an einen der Edius Händler, die auch speziell auf Edius ausgerichtete Laptops anbieten.




    Ich mache auf diesem Laptop nur Kleinigkeiten mit Edius, probiere Sachen aus (Überblendungen, Texte, Arbeit mit dem Layouter) und rechne sie dann als .m2ts raus.

    Das halte ich in mehrfacher Hinsicht eher für eine eher ungünstige Vorgehensweise - zumindest, wenn Du (wie ich denke) die auf dem Laptop begonnene Arbeit auf Deinem PC in Edius weiterführen willst.


    Hier bietet es sich eher an auf beiden Geräten je eine "Kopie" des Edius Projektes zu haben und nur die aktuelle Version der Projektdatei = .ezp-Datei dann auf das zweite Gerät zur Weiterarbeit zu kopieren.

    So sparrst Du nicht nur die bei einem Export entstehenden Renderzeiten, sondern hast eben auch keine Verluste durch das ständige Ausrechnen neuer Versionen.


    Diese beiden Projekte müssten natürlich auch "auf gleichen Stand" gehalten werden.

    Wenn Du also z.B. neue Clips importierst, oder Titel, Standbilder o.ä. erstelltst, dann müssten natürlich neben der .ezp-Datei auch diese Dateien auf den anderen Rechner "übertragen" werden. Das ist aber bei einer einigermaßen stimmigen Arbeitsorganisation normalerweis kein Problem.

    Einfach den Lapttop per USB an den Rechner anschließen und die Daten/Dateien kopieren.


    Sehr viel einfacher geht das natürlich, wenn sich beide Geräte in einem Netzwerk befinden und dort der Austausch erfolgen kann (zugelassen wird).

    Sowas lässt sich auf jedem handelsüblichen Router problemlos einrichten.




    .m2ts ist eigentlich auch ein eher veraltetes Format, welches nur noch bei der Erstellung von DVDs und BDs eine Rolle spielt.

    Wenn Du eine Datei zum Austausch zwischen zwei Edius-Geräten (wobei eben Projektdatei besser wäre), oder Edius und einem anderen Programm, wie z.B. Mercalli V6 SAL benötigst, würde sich für die Erhaltung einer höchst möglichen Qualität besser GV HQX, oder Apple ProRes anbieten.

    Da sind die Dateien zwar (wesentlich) größer, aber eben nicht so verlustbehaftet, wie bei .m2ts.



    Gruß

    Peter

    Vor der Primären Farbkorrektur würde ich mal die Auto Color Correction auflegen und mir den Reglern nachregeln,
    dann erst mit der Primären Farbkorrektur weiter machen.


    Die Auto Color Correction (ACC) gibt es erst in Edius 11, Lothar1 ist aber noch auf Edius X.


    Ich verwende den ACC und auch den bereits in Edius X mit ähnlicher Wirkungsweiser enthaltenen proDAD Picture Enhancer (PE) nicht, da sich die damit erfolgenden Korrekturen bei Anwendung weiterer Farbfilter nur sehr unzureichend korrigieren lassen.


    Aus meiner Sicht macht der ACC oder PE auch nur Sinn, wenn die als einziger, oder zumindest letzter Farbfillter angewendet werden.

    Denn diese erzeugen eben eine automatische Korrektur die als Endausgabe gedacht ist und nur über die in den Filtrern enthaltenen Regler nachkorrigiert werden sollten.

    Das ist also eher was für Quick & Dirty Anwendung.

    Wenn man sowieso eine größere Anpassung machen muss - und die ist bei Log- oder RAW-Material nunmal erforderlich - dann sind diese also ohne ACC/PE wensentlich besser gemacht.



    Wenn man aber den ACC/PE in Kombination mit dem PCC anwenden möchte, dann müsste das nach meinem Verständnis eben zwingend nach dem PCC erfolgen, denn dieser setzt das Material ja erstmal in den gewünschten Ziel-Farbraum.

    Vor dem PCC angewendet ergeben sich nach meinen Tests mit dem ACC bei meinem BRAW-Material jedenfalls Unstimmigkeiten, die sich dann nur sehr schwer korrigieren lassen.


    Und Bruno, Du verwendest m.W. Material, das sich bereits im HDR HLG-Farbraum befindet.

    Das ist was anderes als Log- oder RAW-Material.





    Ich vermute inzwischen, dass bei der Aufnahme irgendwas nicht optimal voreingestellt war

    Bei Log- oder RAW-Material hast Du halt immer einen etwas höheren Nachbearbeitungsbedarf, um den Du nicht herumkommen wirst.

    Der Sinn dieser Formate ist ja eben auch, dass man mit diesem nuancierte Ergebnisse hervorbringen kann (was auch ein bisschen Übung benötigt).



    Wichtig ist halt auch bei Log- und RAW-Material bei der Aufnahme eine gute, also stimmige Belichtung sicherzustellen.

    Aus einer solchen sind halt die gewünschten Ergebnisse wesentlich leichter zu erzielen. Diese bedürfen dann also weniger aber trotzdem immer auch einer gewissen Nachbearbeitung,


    Bei Log-/RAW-Material lässt sich aber wegen dessen "flachen" Eigenschaften die Belichtung im Kameradisplay meist nur schwer beurteilen.

    Hier sollte die Kamera aber in ihren Einstellungen die Möglichkeit bieten das Display entsprechend umzustellen.

    Meist passiert dies durch Verwendung einer LUT auf das Display!!! - diese LUT darf also nicht in das Material (also die Datei) eingebrannt werden.

    Außerdem sollte diese LUT möglichst auch auf den später als Ziel gedachten Farbraum ausgerichtet sein. Also entweder auf = "To" Rec.709, oder wenn man HDR machen möchte auf den entsprechenden HLG oder PQ-Farbraum.


    Weitere Hilfe bei der Beurteilung der Belichtung sind die in eigentlich allen Kameras zuschaltbaren Histogramme, möglichst natürlich als RGB.

    Besser geeignet sind aus meiner Sicht sogenannte False Color (= Falsch- oder Fehlfarben-) Darstellungen, die die Belichtung in Farbwerten von dunkelblau/schwarz (=unterbelichtet) bis hin zu gelb/rot (= überbelichtet) anzeigt.

    Damit lässt sich Belichtungssituation sehr genau beurteilen, auch der Einfluss von Blende, ISO-Wert und Verschlusswinkel.

    Einige Kameras bieten auch eigenes False Color an. Ob die GH6 es hat, weiß ich aber nicht

    Ansonsten hat man das eigentlich bei jedem vernüftigen Field-Monitor/-Recorder.


    Zebrawerte können ebenfalls hilfreich sein, insbes. wenn man sie auf Hautton (i.d.R. so bei 75%) einstellen kann.


    Wie gesagt erfordert das alles zunächst auch etwas Übung, ist aber machbar.





    Der PCC enthält dann eigentlich alle Möglichkeiten die primäre (= für das gesamte Bild grundsätzliche) Farbkorrektur vorzunehmen.


    Weitere, meist nur auf Teilbereiche des Bildes anzuwendende sekundäre Korrekturen erfolgen dann mit den weiteren Filter, oft auch in Verbindung mit Masken.

    Und wie gesagt, diese sekundäre Korrektur ist leichter zu erzielen, wenn man keine automatischen Korrekturfilter anwendet.


    Es gibt z.B. auf YouTube zahlreiche (kostenlose) Videos, die da gute Tipps geben können.

    Direkt im Bezug auf Edius könnte ich das (allerdings kostenpflichtige) Edius Praxistrainig #2 - Primäre Farbkorrektur von Tutorial Experts (ehemals DVD-Lernkurs) empfehlen.

    Das ist zwar schon etwas älter, aber erklärt die in Edius enthaltene Filter (bis auf eben den in Edius 11 neuen ACC) sehr verständlich.



    Gruß

    Peter

    Unter Edius-11 könnte sich auch (zB wenn alle oder viele Clips in der Timeline V-Log sind) die Benutzung eines Anpassungsclips anbieten:

    Ja, dies wäre natürlich auch möglich.


    Vorteil hierbei wäre, dass sich eine Einstellung auf alle Clips auswirkt und somit ggf. später vorzunehmende Änderungen im PCC auch sofort für alle Clips gelten, diese also nicht einzeln geändert werden müssen.



    Aus den Erfahrungen mit meinem BRAW-Material her kann ich allerdings nur sagen, dass sich der Anpassungsclip für mich für eher als sehr unpraktisch erwiesen hat. Denn - zumindest wenn die Clips in unterschiedlichen Aufnahmesituationen entstanden sind - sind i.d.R. eben auch unterschiedliche Anpassungen der übrigen Einstellungen nötig.

    Und das macht sich dann über einen Anpassungsclip halt nicht so gut, bzw. ist nur umständlicher zu machen, als wenn der Filter direkt auf den einzelnen Clips liegt.


    Auch bei "gleichartigen" Clips, die also keine oder nur wenig Änderungen bedürfen, halte ich es i.d.R. für besser dann lieber eine für einen Clip gefundene Einstellungsvariante aus der Infopalette auf die übrigen Clips zu ziehen (die Clips auf der TL markieren und PCC aus der Infopalette in einem Rutsch auf alle ziehen).


    Nur wenn man den PCC als reine "Grundanpassung", also ohne weiteren individuellen Anpassungen verwenden würde, und das individuelle Grading der Clips dann über einen zusätzliceh Filter, wie die 3-Wege-Farbkorrektur machen würde, könnte der Anpassungsclip evtl. eine Variante sein.

    Nur würde man dann einerseits die eigentlich sehr guten Möglichkeiten, die einem der PCC bietet, vergeuden und hätte halt zusätzliche Arbeit in einem anderen Filter, die man auch gleich in einem auf dem Clip bezogenen PCC machen könnte.



    Das ist aber sicherlich auch abhängig von der eigenen Arbeitsweise und natürlich von dem vorliegenden Material.



    Gruß

    Peter

    Hi,


    Edius bringt da mit dem Filter Primäre Farbkorrektur (PCC) grundsätzlich schon alles mit, was Du benötigst.

    Diesen findest Du in der Effekt-Palette unter Videofilter > Farbkorrektur und wendest ihn dann auf der TL auf jeden der V-Log-Clips an.


    Der PCC sollte dann eigentlich den Farbraum des Quellmaterials, also den Clip Deiner Aufnahme, eigenständig erkennen.

    • Das kannst Du ggf. auch schon vorab überprüfen, indem Du in Edius die Clip-Eigenschaften öffnest;
    • unter dem Reiter Video > Farbraum sollte da eben auch schon V-Log stehen, dann sollte als funktionieren


    Dann sollte der auf einen der Clips angewendete PCC in den oberen Zeilen etwa so aussehen:


    Also also Farbraum > Quelle Panasonic V--Gamut/V-Log, V-Log L eingetragen sein.

    Der Screenshot stammt aber aus Edius 11und ich weiß nicht mehr, ob es diesen oder einen ähnlichen Farbraum auch schon in Edius X gab.


    Dann brauchst Du nur noch über die weiteren Einstellungsmöglichkeiten des Filters das grundsätzliche Grading (= Farbeinstellungen) vorzunehmen.


    Im Anschluss kannst Du bei Bedarf dann auch noch andere Filter aus dem Bereich Farbkorrektur (3-Wege Farbkorrektur/ Farbabgleich /Farbrad / YUV-Kurve) auf diesen Clip anwenden, also immer nach dem PCC.




    Eine LUT benötigst Du deshalb also nicht.


    Es gibt aber von unterschiedlichen Anbietern auch LUTs, teilweise sogar kostenlose.

    Meist erzeugen die diese eine "Stimmung", färben das Material also in die eine oder andere Richtung ein.

    Da muss man dann aufpassen für was diese LUTs ausgelegt sind, also auf welchen Farbraum eingestellt.

    Danach richtet es sich dann auch, wie damit im PCC umzugehen ist.




    Sollte es in Edius X (widererwartend) noch keinen passenden Farbraum für V-Log, bzw. für die GH6 geben, dann bräuchtest Du eine entsprechende LUT für die Konvertierung.

    Diese müsstest ie dann im PCC als Farbraum Ziel/LUT angewendet werden.

    Der Import erfolgt dann (einmalig) über das "Zahnrad" hinter Ziel/LUT.




    Gruß

    Peter

    Ich kann mich Grauer Tiger nur anschließen...


    Auf meinem System kann ich mit Edius 11 durchaus störungsfrei und produktiv arbeiten, habe damit auch schon einige Projekte abgeschlossen.


    Stören tut mich, dass in der Bin noch immer einige Funktionen nicht oder nicht so gut umgesetzt wurden, wie es sein könnte.

    Hier hoffe ich jetzt mal auf die für ca. Juli angekündigte "BIN Version 3".


    Ein weiterer Punkt der mir nicht gefällt, ist die derzeitige Einbindung über OFX.

    Die Schnittstelle als solche scheint zwar gegeben zu sein, aber "das Dahinter" - also wie Edius selbst dann mit den PlugIns kooperiert - funktioniert offenbar nur sehr eingeschränkt und bewirkt eben, dass nur sehr wenige OFX-PlugIns in Edius wirklich anwendbar sind.

    Ich vergleiche das immer so "ich verstehe ja was Du willst, aber ich möchte (erlaube Dir) das nicht..."


    Trotzdem sehe ich für mich und meine Arbeit bei Edius 11 große Vorteile ggü. den älteren Versionen, einschl. Edius X.

    Insbesondere seit der Bereitstellung von BAT-Server / Edius PowerTools, die einige interessante Möglichkeiten bieten und für mich inzwischen zu einem häufig verwendeten Tool geworden sind, auf das ich auf keinen Fall mehr verzichten möchte.


    Auch ich wüsste für mich wirklich keine Alternative zu Edius.

    Der Workfolw in Resolve - für die ich über meine Kamera sogar die Studio Version besitze - ist für mich unakzeptabel und kostet mich nur Nerven und Zeit.

    Von Avid MC habe ich von deren Nutzern ebenfalls ähnliche Beschwerden gehört, wie sie Grauer Tiger nennt.

    Magix macht m.E. den Fehler sich zusehr zu verstricken und sich mit eigenen Produkten Konkurrenz zu machen. Das wird auf Dauer so nicht gut gehen.

    Und von Adobe Premiere hatte schon lange vor dem Abo-Model abstand genommen und mich für ein Edius recht ähnliches NLE (Liquid) entschieden, was dann aber von AVID übernommen und "eingestampft" wurde.


    Von dem für Edius vom MMM betriebenen Support kann ich ebenfalls nur das aller Beste berichten.

    Grade dieser ist für mich auch immer wieder ein absolutes Plus für Edius.



    Gruß

    Peter

    Da Du kein Equipment für HDR(HLG) oder HDR(PQ) hast musst Du zwangsläufig in Rec.709 filmen.

    ....

    Alternativ kannst Du natürlich in HDR filmen, dann braucht man für die Konvertierung zu BT.709 jedoch eine passende LUT.
    Ein jedes mal mit PCC in den zu BT.709 für die Vorführausgabe zu konvertieren wird sonst zu mühsam und Du bekommst
    dann nur Farben mit weniger Leuchtkraft.

    Genau das scheint aber mit dem iPhone 16 Pro nicht möglich zu sein.

    Denn auf der (nicht sehr informativen) Seite der technischen Daten gibt Appel bei diesem Gerät nur immer Dolby Vision, also eine HDR-Technologie an.



    Hierbei wird ja dann eben auch als Ziel Gamma HLG verwendet, nicht PQ. Insoweit könnte ich es durchaus nachvollziehen, dass Appel auf eine im Prinzip veraltete direkte Aufnahmemöglichkeit als Rec. 709 verzichtet.

    Da ich das Gerät nicht besitze, kann ich aber nicht sagen, ob in den Geräteeinstellungen eine Umstellung des Farbraums möglich ist und wie sich das dann auswirkt. Aber ich vermute eben, hier wird es keine andere Möglichkeit geben.


    Und auch bei Speicherung auf externer SSD als HEVC oder ProRes übergibt das Gerät diesen "iPhone HLG" Farbraum.

    Das hat also auch nichts mit der verwendeten Kamera-App zu tun, sondern mit den Möglichkeit, die das Gerät vorgibt.



    Eine LUT benötigst Du höchstens für das Display, wenn dieses den Farbraum nicht richtig darstellen kann.

    Das sollte aber bei einem solchen Smartphone unnötig sein, bzw. automatisch passieren.

    Deshalb wäre die LUT wohl eher etwas, wenn statt der SSD ein externer Monitor, bzw. Field Recorder angeschlossenen wird.


    Zumindest wirkt sich aber das "Einbrennen" der von Klaus genannten Apple Log To Rec.709 LUT aber äußerst negativ aus und macht das Material in meinen Augen unbrauchbar. Wäre also aus meiner Sicht auf alle Fälle zu vermeinden.



    Die Anwendung des PCC in Edius ist eigentlich auch nicht weiter kompliziert oder umständlich.

    Er muss halt nur einmal auf die Clips auf der TL gezogen werden, was ja auch durchaus nach entsprechender Markierung für alle gleichzeitig erfolgen kann.


    Problem in diesem besonderen Fall ist halt nur, dass bei den extern gespeicherten Dateien die Angeben zu den Farbräumen in den Metadaten nicht richtig erfasst werden. Das ist aber nicht die Schuld von Edius, sondern erfolgt ja schon bei der Speicherung auf der SSD.

    Dadurch erkennt halt Edius den Quellfarbraum nicht richtig, weshalb er manuell vorgegeben werden muss.


    Hierfür habe ich aber die wirklich einfach zu realisierende Abhilfe geschlidert, das Anlegen einer eigene PCC-Vorlage mit fest eingestelltem Farbraum Quelle = iPhone HLG.



    Und der PCC passt halt das vorhandene Quellmaterial nur an den gewünschenZielfarbraum Rec.709 an, also hier z.B. nach Rec.709.

    Da dieser Farbraum "kleiner" ist als der aufgenommene iPhone HLG, können darin natürlich auch nur die dort vorhandenen Werte dargestellt werden.

    Aber es geht halt nichts gegenüber einer direkt in Rec. 709 erstellten Aufnahme "verloren".

    Das HLG Quellmaterial bietet sogar einen größeren Bearbeitungsspielraum für Rec.709, wirkt sich also auch im Endergebnis durchas positiv aus.


    Ein "Verlust" tritt also nur im Vergleich mit HDR-Material ein, nicht mit direkt als Rec.709 aufgenommenen Material.




    Kodiert sind meine Videos in HEVC(H.265), mein PC schafft das und die Dateien sind klein genug und gegenüber ProRes Aufnahmen visuell nicht schlechter im Ergebnis.

    H.265/HEVC koprimiert halt sehr (extrem) stark, wodurch grade im Vergleich zu ProRes oder auch GV HQX natürlich sehr viel kleinere Dateien entstehen.


    Die dadurch ziemlich rechanaufwändige Decodierung des Materials beim Abspielen, oder für die Bearbeitung auf der TL stellt dabei nur einen Faktor dar.

    Die heutigen modernen Systeme bieten da eigentlich auch inzwischen genügend Leistung, sodass die Echtzeitwiedergabe i.d.R. auch im Schnitt funktioniert, solange nicht noch rechenintensive Effekte aufgelegt werden.


    Der zweite Faktor, der H.265 halt nicht unbedingt zu einem guten Aufnahmeformat macht, ist eben der durch die hohe Komprimierung eintretende Informationsverlust.

    Dieser kann sich halt bei bestimmten komplexen Bearbeitungen (z.B. nachträgliche Stabiliesierung) stärker bemerkbar machen und im Extremfall zu Bildfehlern, wie Artefakten führen, da eben bestimmte Bereiche des Bildes nur "entfeinert" vorliegen.


    Zugegeben, das mag in den meisten Fällen nicht auftreten, bzw. direkt bemerkt werden. Aber zumindest sollte man sich halt dieser Problematik bewußt sein.


    Und ich neige eben zugegebenermaßen auch dazu möglichst mit entsprechend hochwertigen Materialien zu arbeiten, weshalb ich mich ja auch für BRAW entschieden habe, was nochmals einen größeren Dateiumfang führt.


    Aber ich schrieb ja auch schon (#8), dass hier natürlich jeder die für sich selbst angemessene Entscheidung treffen muss, was er denn verwenden möchte.


    Für das Endprodukt "Film" ausschlaggebend ist letztlich sowieso eher die inhaltlichen Qualität, nicht unbedingt die technische.


    Gruß

    Peter


    Zu hell werden die Tageslichtaufnahmen wenn man ohne ND-Filter arbeitet, dann reichen selbst nachteilige kürzeste Belichtungszeiten nicht aus um das überschüssige Licht bei ISO 50 wegzunehmen. Man muss also lernen wie man mit der manuellen Aufnahmen mit der BM-Camera-App aufnehmen muss.

    Nun, die Angaben der mir vorliegenden Dateien zeigen da alle (s. oberster Bereich) eine Blende von F1.8 an. Da dürfte wohl evtl. der Grund liegen.

    ISO 76 und die extrem kurzen Verschlusszeiten 1/1800 können das dann offenbar nicht ausgleichen.


    Aber da muss man halt schon ausprobieren, was wann gut ist. Bei der BMD App kann man ja eben auch alles manuell einstellen.

    Klaus ist ja jetzt auch noch am Testen und wird sich da vermutlich erst mal auf die Automatik verlassen haben. Das ist ja auch ok, um zu sehen was man denn evtl. ändern muss.


    ND-Filter auf einem Smartphone sind natürlich auch eine Möglichkeit. Aber eigentlich widerspricht das ja dem „immer bereit“ Gedanken.

    Externe SSD, ND-Filter, vielleicht auch noch externe MIC und ein Gimbal, da ist dann auch kaum noch ein Unterschied zu einer kompakten Cam.

    So,


    Klaus hat mir mal einige auch von den Aufnahmeeinstelllungen her unterschiedliche Clips zur Verfügung gestellt.

    Damit ließ sich doch schon recht viel anfangen.



    Datei "ProRes HD mit iPhone" wurde offensichtlich mit der im Gerät vorhandenen Kamera-App von Apple aufgenommen;

    • neben der ggü. den anderen Aufnahmen geringeren HD Auflösung sehe ich hier auch die variable Bildrate (24.000 fps bis 26,087 fps) als äußerst ungünstig für die Bearbeitung an und würde schon deshalb die Apple App nicht verwenden;
    • diese Aufnahme erfolgte im HDR-Farbraum Bt.2020 HLG (lt. Apple als Doby Vision);
    • folgerichtig wird sie auch in einem Edius Bt.2020/Bt.2100 HLG Projekt einwandfrei angezeigt;
    • in einem Edius (SDR) Rec. 709 Projekt wirkt das Bild deshalb überbelichtet und entsättigt, muss also erst mit dem Filter Primäre Farbkorrektur (PCC) nach Rec. 709 konvertiert werden;
    • hierbei erkennt der PCC auch automatisch den Farbraum Quelle als iPhone HLG, erzeugt also bei Anwendung auch im Rec. 709 Projekt ein stimmiges Bild.





    Die übrigen Aufnahmen wurden offenbar alle mit der Blackmagic Cam-App gefertigt und haben UHD Auflösung.

    Bis auf eine dieser Aufnahmen (...C025) haben diese auch alle eine konstante Framrate.


    Wodurch diese Abweichung eingetreten ist, kann ich nicht feststellen.

    Aber Du solltest darauf achten, dass hier immer mit konstanter Bildrate aufgenommen wird.



    Zwei der Aufnahmen (...C023 und ...C024) wurden im HEVC-Format (also H.265 Codec) aufgenommen und haben mit jeweils um die 40 Mb/s eine deutlich geringere Bitrate, sind also sehr stark komprimiert, und haben nur 8 bit Tiefe!!!

    Insoweit wäre das nicht unbedingt meine Wahl, auch wenn natürlich die geringen Dateigrößen verführerisch erscheinen mögen.

    Aber hier muss halt jeder selbst entscheiden.



    Die als ProRes 422 gefertigten Aufnahmen (...C022, ...C025 und LUT...) sind da natürlich mit einer durchschnittlichen Bitrate von um die 480 Mb/s natürlich deutlich größer, liefern aber auch die größere Bittiefe (Edius zeigt hier 10 bit an).

    Damit erhältst Du ein wesentlich günstigeres Ausgangsmaterial, was sich auch besser bearbeiten lässt.





    Bei allen diesen Dateien, also sowohl den HEVC, als auch den ProRes wird als Farbraum (Rec.) Bt.709 angegeben.

    Doch ist dies eindeutig falsch!!!


    Auch dieses Material befindet sich weiterhin im iPhone HLG-Farbraum. - eine Konvertierung ist also nicht erfolgt!

    Die Angaben in den Metadaten stimmen also nicht.



    Daher entsteht halt im Rec.709 Projekt ein falscher Farbeindruck, der auch bei den HEVC-Clips gegeben ist.

    Dort fällt er nur nicht so stark auf, da es eben HLG ist. Aber wirklich stimmig ist das nicht und bedarf eigentlich einer Nachbearbeitung mit dem PCC.


    Da aber leider die Metadaten nicht stimmen, muss im PCC manuell eingegriffen werden und als Farbraum Quelle eben iPhone HLG eingestellt werden.

    Dieser ist in Edius 11 in der Liste ganz unten als letzter Eintrag zu finden.:



    Also verwende diesen Quellfarbraum und Du bekommst (bis auf eine Ausnahme = s.u.) auch ein vernünftiges und gut zu bearbeitendes Bild.


    Allerdings erscheinen mir alle Aufnahmen auch gundsätzlich sehr hoch belichtet und es muss da schon etwas mehr eingegriffen werden.

    Aber wie gesagt, solltest Du mit dieser Einstellung auch bei einem Ziel Rec. 709 relativ einfach zum Ziel kommen.


    Meine Empfehlung für Dich wäre,

    1. für einen Clip im PCC einmal den Quellfarbraum iPhone HLG einzustellen;
    2. diesen PCC dann aus dem Info-Fenster in das Effekte-Fenster zu ziehen - so erhältst Du eine eigene Vorlage mit dieser "Grundeinstellung";
    3. diese Vorlage dann künftig aus dem Effekte-Fenster auf Deine iPhone-Clips anwenden, für andere Clips den Standard-PCC.





    Ein letzte Sache noch...


    bei der Datei "LUT in BMC angezeigt" wurde die von Dir genannte Apple Log to Rec.709 LUT in das Material "eingebrannt".




    Die durch diese LUT erfolgten Veränderungen liefern ein stark übersättigtes Bild mit "seltsamen" Farben und Dynamik und sind auch nicht rückgängig zu machen. Jedenfalls bekomme ich da nichts vernünftiges hin.


    Das Material ist daher aus meiner Sicht daher völlig unbrauchbar geworden.

    Hier solltest Du also darauf achten, dass die LUT nur auf das Display angewendet wird, aber nicht in die Datei eingerechnet.




    Gruß

    Peter

    Ich hatte In und Out gesetzt.

    Mit dem Setzen von IN/OUT kannst Du halt "Bereiche" festlegen um damit z.B. gezielt Cliplängen zu erzeugen.


    Wenn Du also schon vorher weißt, Dein Titel soll statt der in den Benutzereinstellungen vorgegeben 5 sec. vielleicht 10 sec. dauern, kannst Du ihn damit gleich mit in der gewünschten Länge erzeugen.

    Wobei das halt nicht nur für den QuickTitel gilt, sondern auch für alle anderen Arten von Clips, also z.B. für Videoaufnahmen, die auf die TL übertragen werden sollen.


    Edius besitzt (wie auch andere NLEs) einige vielleicht nicht gleich ganz so ins Auge springende Funktionen, die einem die Arbeit aber sehr erleichtern können.

    Neben dem kostenlosen Schnelleinstieg und den Edius Podcast gibt es noch viele weiterführende Videos z.B. auf YouTube, oder (kostenpflichtige) Lernkurse von Tutorial Experts, die einem doch sehr helfen können.


    Gruß

    Peter

    Hi,


    mein iPhone (13) verwende ich nur außerst selten für die Aufnahme von Videos.

    Eigentlich auch nur für Clips, die ohne weitere Bearbeitung und nur "temporär" entstehen, also nach einiger Zeit gelöscht werden.

    Aber wenn mache ich das mit der BMD-App, die ich wirklich für sehr gut halte.

    Trotzdem kann ich Dir in der Hinsicht nur weniges aus eigener Erfahrung raten.



    Die auch noch nicht beantwortete Frage wäre, ob Du Deinen Film im SDR Farbraum Rec. 709, oder als HDR Bt.2020/Bt.2100 HLG oder PQ.



    Leider sind die Angaben, die ich bei Apple zum iPhone 16 Pro gefunden habe auch eher dürftig und nicht so genau.

    Wenn ich es richtig verstehe, sind aber halt Speicherungen auf externen Medien (SSDs) nur in ProRes möglich.

    Das ist aber ein wirklich gut zu be- und verarbeitender Codec.

    Diesen Vorteil erkauft man sich halt mit sehr großen Dateien. Doch enthalten diese eben im Gegensatz zu den hochkomprimierten Formaten, wie H.265/HEVC, einen höheren Informationsvorrat. Das macht sich insbes. bei nachträglichen komplexen Bearbeitungen sehr strak bemerkbar.


    Auch Edius kommt mit ProRes vergleichbar gut, wie mit dem eigenen GV HQX zurecht.

    Insoweit also eine durchaus gute Wahl.



    3. Farbraum: Rec 709
    4. LUT: Apple Log To Rec 709

    OK,


    dies deutet eigentlich darauf hin, dass hier tatsächlich in einem Log-Verfahren = mit flachem Bildprofil aufgenommen wird.


    Meine Vermutung wäre, dass die unter 4. genannte LUT ggf. nur auf das iPhone-Display wirkt und (sinnvoller Weise) nicht in die Datei "eingebrannt" wird.

    Damit würden sich auch der "grauenhaft(e) und farbmatte" Eindruck erklären, weil die Clips erst in den Projektfarbraum gebracht werden müssen.


    Hier muss also in Edius dann eben eine Korrektur mit dem Filter Primäre Farbkorrektur (PCC) erfolgen.

    Allerdings konnte ich da keine Vorlage Apple Log finden, sondern nur 3 unterschiedliche Apple -Display P3 Farbräume, die offenbar für, bzw. auf sRGB (annähernd Rec. 709) HDR HLG und HDR PQ gelten.

    Sollten die nicht erkannt werden, so könntest Du diese mal als Farbraum > Quelle probieren und schauen, wie dann der Eindruck ist.

    Als Ziel/LUT dürften die nach meiner Einschätzung eher nicht taugen, aber auch das kannst Du ja mal probieren.


    Wenn sich jetzt an dem Eindruck des Quellmaterials auch bei Anwendung dieser Apple Farbräume nichts grundlegendes ändert, dann benötigst Du entweder eine LUT, oder musst selbst versuchen mit den im PCC möglichen Einstellungen das Material zu graden.


    Für die LUT könntest Du ggf. im Netz fündig werden.

    Theoretisch lässt sich so eine LUT aber auch gut mit Resolve selbst erstellen und dann in Edius importieren.


    Nur das benötigt schon eine gewisse Erfahrung.

    Und möglichst sollte das dann auf Grund einer "Testaufnahme" mit einer genormten und in Resolve enthaltenen Farbtafel, wie z.B. aus der ColorChecker Linie vom Hersteller Calibrite erfolgen.



    Problem ist halt, dass Apple - zumindest auf der iPhone 16 Pro Webseite - keine wirlich belastbaren Erklärungen gibt, was da genau stattfindet.

    Dankenswerter Weise scheint Apple sich jetzt zwar für Dolby Vison entschieden zu haben, was eine hervorradende HDR-Technologie ist, die sich wohl auch in Zukunft durchsetzten wird.

    Allerdings werden sie vermutlich doch auch wieder nur bei HLG geblieben sein und nicht auf das umfangreichere PQ gehen.


    Diese Unsicherheit, dann auch noch in Verbindung mit einer Speicherung als ProRes, bei der man nicht genau weiß ob, oder welche Anpassungen (Konvertierungen) dabei gemacht werden, macht es recht schwierig da etwas zu raten - bzw. ist es eben alles mehr ein Raten, als ein Rat.


    Ich hoffe aber Dir zumindest die Richtung vorgegeben zu haben.

    Und vielleicht gibt es ja irgendwo (YT?) auch in der Richtung noch etwas mehr.


    Du kannst mit gern auch mal einen (unbearbeiteten) kurzen Clip zukommen lassen, damit ich mir das mal anschaue.

    Der Inhalt wäre relativ egal, sollte aber schon so sein, dass man daraus daraus auf die Farbgebung schließen kann (also keine Schneelandschaft im Nebel :) ).


    Gruß

    Peter

    Hi,


    Du müsstest einerseits die genauen Aufnahmeeinstellungen angeben. ProRes ist nur ein Codec und sagt nicht unbedingt aus, welcher Farbraum das ist, oder ob z.B. in einem Log-Verfahren aufgenommen wurde, was das „flache Bild“ erklären würde.

    Je nachdem wie die Speicherung auf die externe SSD erfolgt, könnten dazu auch in den Meta-Daten der Dateien falsche Angaben stehen. Also ist da auch MediInfo nicht immer eine Hilfe.


    Zweites kommt es darauf an, in welchem Farbraum Dein Edius-Projekt steht.

    Nach dem was Du schreibst, vermute ich ein HDR-Farbraum (?).

    Hier kommt es auch ein bisschen darauf an, ob Du HLG oder PQ eingestellt hast.


    Und gleich als Hinweis…

    Wenn Du tatsächlich HDR machen möchtest, benötigst Du für die Vorschau auch eine durchgehende und stimmige HDR-Wiedergabe. Also mindestens einen HDR-Monitor und möglichst auch eine HDR-fähige Schnittlösung, wie das BMD UltraStudio 4K Mini.


    Soweit erstmal die „Grundschritte“.


    Gruß

    Peter


    Jedenfalls müsstest Du auf die Clips auf der TL den Filter Primäre Farbkorrektur (PCC) anwenden.

    Wenn die Angaben im Quellmaterial korrekt sind, Edius also das Material richtig erkennt, dann sollte es automatisch in den Projektfarbraum (also ggf. auch nach dem normalen Rec.709) konvertiert werden und nicht mehr „flach“ wirken.


    Funktioniert das nicht, musst Du im PCC bei Farbraum Quelle den richtigen Farbraum des Material einstellen.

    Mit Setup-Manager 4.5?

    Ja, bisher ist das noch immer die Version 4.5.



    Aber ist eigentlich auch völlig egal.

    Sobald der Edius Septup-Manger ausgeführt wird prüft er als erste Maßnahmen (nach Kontakt mit dem Server) selbstständig ob es ein Update für ihn gibt.

    Wenn ja wird das automatisch installiert und der Sepup-Manger startet danach neu.


    Gruß

    Peter

    Hi,


    mein erster Gedanke wäre, dass Du IN und Out gesetzt (?) hast und der Titel halt auf diese Länge (zwischen IN/OUT) erstellt wurde.

    Einfach mal IN/OUT mit Taste "X" löschen, oder eine neue Sequenz ohne IN/OUT anlegen und dort überprüfen.


    Wenn es das nicht ist, bitte mal einen Screenshot der Sequenz mit TL-Hearder (die Spalten links vor den Clips.



    Gruß

    Peter

    Kennt jemand ein tool, das mir die Verschlußzeit eines einzelnen Bildes in einem Video anzeigt ?

    Es gibt div. (auch kostenlose) Tools, mit denen sich Metadaten auslesen oder sogar überschreiben lassen.

    Diese findest Du (z.B. im Downloadbereich einschlägiger Computerzeitschriften) über entsprechende Suche im Netz.


    Nur können die Dir halt auch nur das anzeigen, was im Datensatz gespeichert wurde.

    Und es sieht halt so aus, als wäre das nicht erfolgt. Denn sonst würdest Du schon in den Edius Eigenschaften/Bin Dateiinfos entsprechende Angaben finden.

    Nur ist der Ball nicht ganz rund.

    Ok,


    wenn Du also weniger Bewegungsunschärfe möchtest, dann musst Du die Belichtungszeit natürlich weiter verkürzen.

    Dabei musst Du dann aber beachten, dass sich für eine ausreichende Belichtung evtl. auch die Blende ändert und damit der Schärfebereich des Bildes.


    Bisher waren wir halt davon ausgegangen, dass Du Bewegungsunschärfe eben eben erzeugen willst.


    Da diese bei dem Ball ja schon jetzt relativ gering zu sein scheint, könntest Du diese auch in der Nachbearbeitung durch Schärfefilter oder Werkzeuge vermindern.




    Also im Foto-Modus geht es, im Movie-Modus nicht.

    Ja, da speichern die Kameras halt je nach Modus eigentlich generell unterschiedliche Metadaten.



    Gruß

    Peter

    Nein Peter, dieser Vorschlage führt nicht zum Ergebnis.

    Ok, ich hatte Dich so verstanden, dass die Bewegungsunschärfte noch zu gering wäre.

    Dann ist ja in der Hinsicht alles gut.




    1. Peter, dieser screenshot ist doch nicht von mir!

    2. Bei mir wird im Reiter "Expansion" und nur unter ihm gibt es den Schieberegler, nicht das Gewünschte angezeigt.

    1. Ok, das hatte ich jetzt übersehen.
    2. Bei Edius X, was Du ja nach Deiner Signatur noch verwendest, waren Metadaten Informationen auch noch im unteren Bereich des Bin-Fensters zu finden (bei Edius 11 ist das jetzt in einer neuen Spalte auf der rechten Seite).
      Hier könnten ggf. mehr Infos als unter Eigenschaften zu finden sein.

      Dazu muss aber natürlich der entsprechende Clip in der Bin auch ausgewählt/markiert sein.
      Du kannst dann auch dort scrollen, bzw. die Trennlinie dieser beiden Bereiche der Spalte verschieben.

      Aber wie schon am Angang gesagt, kann natürlich nur das angezeigt werden, was die Kamera auch erfasst hat.



    Gruß

    Peter