1440x1070 Canopus HQ - Welche Einstellung

  • Es handelt sich um ein 25p Projekt.

    Projekt = FHD oder UHD?
    kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-18.6.6.0007 Studio

  • Hi,


    die Frage wäre halt auch, in welchem Codec Du ausgeben willst - H.264/AVC oder H.265/HEVC?


    Wie gesagt ergibt H.265 wesentlich kleinere Dateien und Du könntest (wenn gewünscht) sogar als 10-bit ausgeben. Da das Abspielgerät dann ja vermutlich ein Laptop sein dürfte, sollte H.265 eigentlich auch kein Problem sein.
    Bei meinen UHD 50p-Exporten habe ich mit H265 10-bit und 50 Mbit/s gute Erfahrungen gemacht. Bei höheren Raten kann ich auf einem 75" TV jedenfalls keine Verbesserungen erkennen.
    Selbst bei niedrigeren Raten sah das alles durchaus gut aus. Da ich aber nicht mit Speicherplatz geizen muss, nehme ich halt überwiegend 50 Mbit/s.



    Vielleicht als Richthilfe -

    • UHD Blu-ray haben soweit ich weiß eine Datenrate von 82 Mbit/s und verwenden H.265;
    • YouTube empfiehlt für den Upload von 25p als H.264 (SDR) 35-45 Mbis/s, für 60p 53 - 68 Mbit/s;
    • Streamingdienste (wie Amazon/Netflix) liefern UHD-HDR Inhalte meist nur bit 25 Mbit/s.


    Wenn es Dir möglich ist, dann mach doch mehrere kurze Exporte in unterschiedlichen Raten und schau es Dir über den Beamer an.




    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Projekt = FHD oder UHD?

    Es handelt sich um um FHD. Bin nun aber doch überrascht, dass du Peter Projekte mit 50 Mbit codierst.
    Das habe ich noch nie gemacht! Bislang auch noch nie in H.265. Meine (vielleicht falsch), dass da etliche Laptops ins stottern kämen.
    Ich gebe zu, dass ich kein 'Ausprobierer', also Tester bin. Nehme das, was ich kenne und gut läuft, und bleibe dabei, s. folgend.


    Ich codiere ala YT-Vorschlag HD meist nur mit 9 Mbit. Sogar 50p Material. Auch wenn ich das Material per Beamer auf größerer Leinwand zeige.
    Wäre die Quali bei 20, 30, 40, 50... MBit sichtbar besser?
    Möglicherweise mache ich einen Denkfehler. Meine nämlich, dass ein betagterer Laptop 9 Mbit 'leichter' abspielen kann als z.B. besagte 50 Mbit, weil viel größere Datei.
    Aber stimmt das überhaupt?

    Bernd aus Duisburg
    ---------------------------------------------------------------------------------------------------------------------------------------------------------
    Intel i9 7940X 14 x 3,1-3,8 GHz - X299 - 32 GB DDR4 RAM3000 - Win 10 64bit+ 1GB VME 960 Samsung - nVidia Geforce GTX 1060 mit 6 GB Ram - BM Intensity Pro 4K

  • Es handelt sich um um FHD. Bin nun aber doch überrascht, dass du Peter Projekte mit 50 Mbit codierst.

    Bei mir handelt es sich ja auch um UHD, und das auch mit 50p und nicht wie bei Dir nur 25p.
    Da Du von Wiedergabe über einen UHD-Beamer geschrieben hast, ging ich natürlich davon aus, dass es auch ein Film in UHD sein. Was aber ja wohl falsch ist.




    Für FHD 25p sind natürlich geringere Datenraten möglich.
    Dort empfiehlt YouTube tatsächlich 8, bzw. 12 Mbit/s. Das entspricht auch etwa dem Wert, was Streamingdienste als FHD liefern.
    Als Vergleich, eine Blu-ray Video Disk ist auf knapp 54 Mbit/s, davon (40 Mbit/s für das reine Video) begrenzt. Hat also eine wesentlich höherer Rate.



    Grundprinzip ist halt, dass eine geringere Datenrate eine höhere Komprimierung erfordert. Abhängig von Bildinhalt (insbes. Bewegung, feine Strukturen, etc) kommt es bei einer niedrigen Datenrate eben ab einem gewissen Punkt zu sichtbaren "Fehlern" im Bild, z.B. Blockbildung.
    Je höher die Datenrate und damit geringer die Komprimierung ist, desto geringer ist die Gefahr, dass sowas auftritt. Auf der anderen Seite bringt aber halt auch wieder ab einem gewissen Punkt eine höhere Datenrate keine sichtbaren (höchsten noch messbare) Unterschiede.
    Die "Kunst" ist halt sich im Rahmen dieser beiden "Pole" zu bewegen. Und solange die Dateigröße keine entscheidende Rolle spielt, würde ich da schon lieber etwas höher gehen und es für FHD 25p vielleicht mal mit 25 Mbit/s probieren.


    Das gilt jetzt alles für eine Datei, die zur reinen Wiedergabe des Films bestimmt ist.
    Die meisten Kameras nehmen natürlich mit wesentlich höheren Datenraten auf, z.T. halt sogar nur mit Intra-Frames (also ohne Bezug auf benachbarte Frames dekodierbar). Doch das ist halt der späteren Bearbeitbarkeit im NLE geschuldet.




    Was jetzt Dein Laptop leisten kann, ist aus der Ferne nicht zu sagen. Das müsstest Du ausprobieren.
    Aber ich denke, dass er ja vermutlich auch eine Blu-ray abspielen könnte. Also sollten da eigentlich selbst 50 Mbit/s kein Problem sein. Doch wissen kann das hier niemand.


    Moderne Software-Player - wie z.B. VCL - spielen H.265 gut ab. Die reine Wiedergabe als Datei sollte also eigentlich auf so gut wie jedem Rechner möglich sein. Aber auch hier müsstest Du sehen, was Dein Gerät leistet.
    Auch moderner TV-Geräte und Media-Player können H.265 problemlos abspielen. Insoweit ist halt H.265 durchaus ein guter Codec für eine Wiedergabedatei und hat in dieser Beziehung H.264 schon fast ersetzt.
    Nur können halt ältere TV-Geräte /Media-Player nicht mit dem Codec umgehen, weshalb einige Nutzer auch heute noch damit nichts mit H.265 anfangen können.
    Und vielen NLEs bereitet H.265 halt bei der Bearbeitung auch Probleme, weshalb es als Quellmaterial auch noch nicht so ideal ist.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Grundprinzip ist halt, dass eine geringere Datenrate eine höhere Komprimierung erfordert. Abhängig von Bildinhalt (insbes. Bewegung, feine Strukturen, etc) kommt es bei einer niedrigen Datenrate eben ab einem gewissen Punkt zu sichtbaren "Fehlern" im Bild, z.B. Blockbildung.
    Je höher die Datenrate und damit geringer die Komprimierung ist, desto geringer ist die Gefahr, dass sowas auftritt. Auf der anderen Seite bringt aber halt auch wieder ab einem gewissen Punkt eine höhere Datenrate keine sichtbaren (höchsten noch messbare) Unterschiede.
    Die "Kunst" ist halt sich im Rahmen dieser beiden "Pole" zu bewegen. Und solange die Dateigröße keine entscheidende Rolle spielt, würde ich da schon lieber etwas höher gehen und es für FHD 25p vielleicht mal mit 25 Mbit/s probieren.

    Finde ich gut, darauf (wieder) einmal hinzuweisen.
    Denn die Frage nach der besten Qualität wird wesentlich öfter gestellt als etwa nach der kleinsten Datei.
    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-18.6.6.0007 Studio

    Einmal editiert, zuletzt von kpot11 ()

  • Dankeeee!

    Bernd aus Duisburg
    ---------------------------------------------------------------------------------------------------------------------------------------------------------
    Intel i9 7940X 14 x 3,1-3,8 GHz - X299 - 32 GB DDR4 RAM3000 - Win 10 64bit+ 1GB VME 960 Samsung - nVidia Geforce GTX 1060 mit 6 GB Ram - BM Intensity Pro 4K