Export in welchem Dateiformat

  • Heißt das also, dass H. 265 mit 10bit abspielbar ist aber H. 264 mit 10bit nicht? Muss man das verstehen?

    So könnte es lt. Samsung Spezifikation sein.


    Hintergrund bei sowas sind halt die Lizenzgebühren, die die Rechteinhaber = Urheber von den Herstellern für jedes Gerät einfordern. Wenn man da etwas sparen kann...

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Das Video sieht auch in 8bit unglaublich beeindruckend aus. Die Kamera ist der Wahnsinn.

    Das ist eigentlich die wichtigste Aussage der ganzen Diskussion applause Das Thema 10Bit wird hier manchmal derartig mystifiziert, dass man denken muss, 8 Bit besteht nur aus Klötzchen. Es gibt tatsächlich wenige Situationen, in denen man - auch nur im direkten A-B Vergleich - überhaupt einen Unterschied sehen kann.


    Natürlich will man möglichst alles nutzen, was heutige Kameras bieten, aber manchmal muss man auch "die Kirche im Dorf" lassen. Es kommt ja wohl hauptsächlich auf die Motive an und nicht auf die Anzahl und Verteilung der Pixel.
    Also, mein Panasonic kann H264 in 10 Bit, dein Samsung eben nicht. Du bist begeistert vom Bild - warum dann nicht in 8 Bit speichern? Was nützt dir die (theoretisch) beste Auflösung, wenn du den Film nicht siehst? Selbstverständlich kann man da durch einen Neukauf dieses Problem lösen, aber ob das dann wirklich so viel "besser" aussieht? Oder ist in deinem Kopf durch die Diskussionen schon festgesetzt, dass 8 Bit ja "schlecht sein muss"?


    Es ist wie mit einem Wein. Da sind manche unsicher und fragen: "Ist das ein wirklich guter Wein"? Meine Gegenfrage ist dann immer: "Schmeckt dir der Wein"? Antwort: "Ja, sehr" Ich sage dann immer: "Dann ist es ein guter Wein"! Das ganze theoretische Wissen über Rebensorten und Anbaugebiete ist an dem Punkt ad absurdum geführt, wenn einem der vermeintlich "gute Wein" gar nicht besser schmeckt.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • :thumbup: Da kann man Dir nur Recht geben.
    Hab (bisher) noch immer meine Sony FX-1 im Einsatz, also HDV 50i. Und trotzdem bekomme ich damit einen Film fertig, den sich Leute anschauen, ohne dass ich die Türen verriegeln muss.


    Allerdings sollte man m.E. selbst bei 8-Bit Quellmaterial möglichst in einem 10-Bit Projekt arbeiten (wenn der Rechner nicht zu schwach ist). Bei Farbkorrekturen bekommt man so ein zuverlässigeres Ergebnis. Die Ausgabe reicht dann wieder in 8-Bit.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Allerdings sollte man m.E. selbst bei 8-Bit Quellmaterial möglichst in einem 10-Bit Projekt arbeiten (wenn der Rechner nicht zu schwach ist). Bei Farbkorrekturen bekommt man so ein zuverlässigeres Ergebnis. Die Ausgabe reicht dann wieder in 8-Bit.

    Genauso ist es...
    Es besteht dann kaum die Gefahr, dass man "Banding" - https://www.burosch.de/video-technik/423-displaybanding.html - hineinfabriziert bei Farbkorrektur/Grading.

    Servus, Pee
    EDIUS 11 WG, DVR 19 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Ich habs jetzt in H. 264 10bit entwickelt und anschließend mit einem Konverter in H. 265 umgewandelt. Jetzt funktionierts am Samsung TV.
    Ich muss sagen, dass das Bild noch einen Hauch knackiger und schärfer aussieht.
    Somit klappt es jetzt um 2 Ecken ohne Einbußen.

  • Ich muss sagen, dass das Bild noch einen Hauch knackiger und schärfer aussieht.

    Bessere Farbverläufe kann ich noch nachvollziehen, aber mehr Schärfe wegen 10 Bit nach 2 x Konvertieren ? Der Glaube kann manchmal Berge versetzen, aber Hauptsache, du bist zufrieden. :D

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Bessere Farbverläufe kann ich noch nachvollziehen, aber mehr Schärfe wegen 10 Bit...

    Evtl. macht ja das auch das TV-Gerät über die gewählten Einstellungen. Deshalb sind ja auch bei vielen HDR-Geräten die Bilder so "hübsch bunt".




    Jetzt funktionierts am Samsung TV.

    Freut mich.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Das Video sieht auch in 8bit unglaublich beeindruckend aus. Die Kamera ist der Wahnsinn.
    Aber 10bit wäre noch besser gewesen.

    Hierzu 2 Dinge:
    1) Die Kamera der Mavic 2 Pro ist okay, aber "Wahnsinn" und "unglaublich beeindruckend" ist was anderes. Gut, für den Preis passt es schon, aber man sieht schon recht matschige Bilder im Vergleich zu "richtigen" Kameras. Mir fehlen in den Aufnahmen oft Details und Strukturen.
    2) 10bit sieht man nicht im vergleich zu 8 bit. Das kann das Auge gar nicht unterscheiden. 10 bit machen Sinn, wenn man graded. Mit 8 bit kommt man schnell an die Grenzen. Aber sehen tut man keinen Unterschied in identischen Aufnahmen. Kann man auch gut sehen, wenn man in Edius von 10 bit auf 8 bit umstellt. Das sieht genau gleich aus. Dazu braucht man natürlich einen 10 bit Monitor.


    Ich habs jetzt in H. 264 10bit entwickelt und anschließend mit einem Konverter in H. 265 umgewandelt. Jetzt funktionierts am Samsung TV.
    Ich muss sagen, dass das Bild noch einen Hauch knackiger und schärfer aussieht.

    Hier muß ich mich den Vorrednern anschließen, es kann nicht knackiger und schärfer werden. Es sei denn irgendwer schärft in dem Prozess nach.


    H265 ist auch nicht generell besser als H264. Es kann nur besser komprimieren und spart so Speicherplatz.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Ja, Chris,


    die Konvertierung in H.265 erfolgt auch nur, weil der TV von @Benni_S H.264 leider nicht in 10-bit wiedergibt. In H.265 kann er es.

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Achso, hatte nur überflogen.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).