Kameraeinstellung in neues Projekt automatisch 1:1 in EDIUS übernehmen, geht das?

  • Das braucht man nicht und mit KI hat das null zu tun und dafür braucht es auch keine KI.

    "Das braucht man nicht" kann ich nicht gelten lassen. Das ist Apple Weltanschauung. Wer was braucht soll jeder selbst entscheiden. Und warum man Funktionen, die mittlerweile selbstverständlich sind, nicht einbaut, erschließt sich mir nicht. Man kann die automatische Anpassung ja einfach ablehnen. Ich fände sie ganz praktisch.

    Dass diese Funktion keine KI benötigt versteht sich von selbst. 90% der als KI verkauften Funktionen sind simple "wenn-dann" - Programmierungen. Verkauft sich halt besser, wenn man "KI" dranschreibt.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Ich gehe mal kurz auf die Ursprungsfrage ein. Vor Edius, also sehr langer Zeit, hatte ich Liquid Edition. Wenn man dort Quellmaterial nur aus einer Kamera verwendet hat wurde das Eingangsformat unverändert in die Timeline übernommen. Das hatte den Vorteil das nur bearbeitete Bereiche wie z.B. Übergänge usw. gerendert wurden. Unveränderte Bereiche wurden beim Rendern übersprungen und letztendlich so ausgegeben wie sie auch reingekommen sind. Das ausgegebene Material entsprach somit dem der Kamera. Wenn man dort einfach nur Clips zu einem Film aneinander fügen wollte wurde zwar bearbeitet aber nicht gerendert. Das ging natürlich ohne viel Rechenleistung sehr flott.

    Nicht falsch verstehen.....ich bin hier gerade Geschichtenerzähler aber denke das diese Funktion dem entspricht was der Threedstarter meinte. LE gibt es nicht mehr und Edius ist dafür extrem flexibel.

  • Das hatte den Vorteil das nur bearbeitete Bereiche wie z.B. Übergänge usw. gerendert wurden. Unveränderte Bereiche wurden beim Rendern übersprungen und letztendlich so ausgegeben wie sie auch reingekommen sind. Das ausgegebene Material entsprach somit dem der Kamera.

    Das hat aber nichts damit zu tun, ob die Projekteinstellung automatisch übernommen werden. Das sind 2 verschiedene Dinge, die erstmal nicht direkt etwas miteinander zu tun haben.


    Edius kann das übrigens auch, zumindest für bestimmte Formate, weiß aber jetzt aus dem Kopf nicht mehr genau für welche, ich glaube aber nur mp4. Man möge mich hier berichtigen, wenn ich falsch liege.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Vor Edius, also sehr langer Zeit, hatte ich Liquid Edition.

    Hi,


    als Liquid Edition eingestellt wurde, bin auch ich auf Edius umgestiegen. Liquid war ja auch in vielen Bereichen ähnlich wie Edius.


    Du übersiehst da leider nur eine Sache.

    Zu den Zeiten, auf die Du Dich beziehst, gab es halt auch nur wenig unterschiedliches Quellmaterial und die meisten hier werden sicherlich auch mit DV-Bändern gearbeitet haben. Da brauchte halt nicht unbedingt gerendert werden, weil das Material quasi immer "vollständig" vorlag. Insoweit stelle das für den "Normalbetieb" auch kein Problem dar.

    Hier war dann eher die Frage ob 4:3 oder 16:9 aufgenommen wurde. Und vom PAL-System dürfte auch nur selten abgewichen worden sein. Und wenn wirklich mal NTSC-Material "hineingemischt" werden sollte, so musste dies auch vorher in PAL konvertiert werden, nicht erst auf der TL.


    Es kam zwar dann ab LE 6 noch HDV (mit dem es in LE bis zum Schluss Probleme gab) hinzu, was vom Material her auch abweicht, aber die moderneren Codecs (AVCHD) hat LE nach meiner Erinnerung nie beherrscht. Zu der Zeit wurde es halt eingestellt.



    Die heutigen Kameras verwenden eine viel breitere Palette an Codecs. Und das dann auch noch mit sehr unterschiedlichen Komprimierungsverfahren und z.T. eigenen Containern (z.B. XAVC). HDR verwendet andere Farbräume. Außerdem haben sich spätestens mit den Smartphones auch hierzulande die "amerikanischen" Bildraten von 30 oder 60 Bildern verbreitet. Und auch die Wiedergabe des geschnittenen Films erfolgt heute über sehr unterschiedliche Medien, was ggf. bei der Ausgabe des Films beachtet werden muss.

    Und das alles findet dann i.d.R. halt auch direkt auf der TL statt und nicht mehr in separten Programmen oder zumindest Arbeitsgängen.


    Es ist also sehr viel komplizierter geworden und nicht mehr vergleichbar mit den früheren Verhältnissen.



    Gruß

    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Das ist mir schon klar. Ich habe auch nur geschrieben weil ich im Anfangsthreed bzw. in der Frage dort mich an LE erinnert habe und vhr.media genau darauf abzielte. Ich glaube auch mich zu erinnern das ich hier im Forum vor langer Zeit mal die gleiche Frage gestellt zu haben. Hier gibt es dazu ja viele kompetente Antworten die zum Verständnis beitragen. Und es stimmt...es ist alles komplizierter geworden.

  • War ja auch wirklich nicht negativ gemeint. :beerbros: (sollte es so rübergekommen sein)

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro