Deiniterlace beim Codieren?

  • Was ist eigentlich die qualitativ beste Methode ein 50i SD Material in 25P SD zu codieren?
    1. Die Timeline in 25P umstellen und dann rauscodieren (deinterlace passiert automatisch??) ? oder
    2. Die Timeline in 50i lassen (wie das Ausgangsmaterial) und dann beim codieren die Funktion "Umwandlung aktivieren" verwenden.


    Bin mir unsicher, wie das Deinterlacing in Edius arbeitet. Habe auch keine konkreten Angaben dazu gefunden :nw:

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Ich stelle das Projekt auf progressiv um und wende den Anti-Flicker-Filter an. Als Quick-and-Dirty-Variante sieht das gar nicht so übel aus. Jetzt könnte man zusätzlich zum Filter mal die Halbbilddominanz auf progressiv umstellen und gucken, was einem bezüglich der Bewegungsauflösung besser gefällt!
    Testen!

  • OK, Jim, erst mal vielen Dank! Das werde ich testen.


    Aber weiß irgendjemand ganz genau, ob was beim "umwandeln" passiert? Beim bloßen Umstellen der Timeline scheint nämlich kein deinterlacing stattzufinden, da man ohne den Anti-Flicker-Filter noch Streifen in den Bewegungen hat. Beim Umwandeln nicht.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Ich bin mir nicht sicher, aber ich gehe davon aus, dass im dem Fall einfach ein Halbbild weggelassen wird und das verbliebene auf Vollbild aufgeblasen wird. Am besten mal mit einem künstlichen Motiv testen! Mit einem Testmuster, das aus aus abwechselnd s/w Linien besteht. Man kann noch eins draufsetzen und diagonal eine Bruchkante erzeugen und das Muster auf der einen Hälfte um eine Zeile versetzen. Dann sieht man, ob es zu einem Antialiasing oder zu einer betont gezackten Linie kommt.


    Jim

  • Was ist eigentlich die qualitativ beste Methode ein 50i SD Material in 25P SD zu codieren?
    1. Die Timeline in 25P umstellen und dann rauscodieren (deinterlace passiert automatisch??) ? oder
    2. Die Timeline in 50i lassen (wie das Ausgangsmaterial) und dann beim codieren die Funktion "Umwandlung aktivieren" verwenden.


    Bin mir unsicher, wie das Deinterlacing in Edius arbeitet. Habe auch keine konkreten Angaben dazu gefunden :nw:

    Am besten gar nicht in Edius. Ich empfehle dazu Handbrake, weil es unterschiedliche (und gute) De-Interlace-Algorhythmen verwendet, die im Ergebnis ziemlich gut aussehen. Da ich ohnehin aus Edius kein mp4 ausgebe, sondern in MPG2 (SD oder HD) mit ordentlicher Datenrate exportiere (= Archiv-Master), rechne ich in Handbrake das MPG2 in mp4 um, und zwar in der langsamsten (= besten) Stufe. Bei diesem Prozess werfe ich auch den De-Interlacer an, wenn nötig. Dann ist alles in einem Abwasch.

  • @Captain
    Wo dir so an Qualität gelegen ist, warum exportierst du nicht nach HQ oder HQX und lädst die dann direkt in Handbrake? Ich habe nie verstanden, warum man dieses verlustbehaftete Format als Intermediate Format nutzt, um dann nochmal einen verlustbehafteten Codec drauf zu rechnen. Ich weiß, dass Anton das so macht, aber wenn ich den Workflow sauber halten will, wäre das mein erster Punkt, an dem ich anders entscheiden würde.


    Deinterlacer kann man als Filter auch recht gut in "Virtualdub 2" oder in "AVI-Demux" anwenden. Die neueste VDub-Version kann sogar nach ProRes QuickTime oder MP4 exportieren.
    Eine andere Alternative ist ein professionell gepflegtes FFMPEG-GUI -> myffmpeg, das ich für rund 20 € wärmstens empfehlen kann. Dieses Tool wird zusammen mit FFMPEG zu einem vollständigen und flexiblen Konverter und Alleskönner. Viele Codecs und Filter sind nutzbar. Der Support ist sehr freundlich und zuvorkommend.


    Gruß
    Jim

  • Wo dir so an Qualität gelegen ist, warum exportierst du nicht nach HQ oder HQX und lädst die dann direkt in Handbrake?

    Kann nur zustimmen. Diese Hin- und Her-Konvertieren kann das Material nicht besser machen und ist einfach zu zeitaufwändig.


    Nach meinen bisherigen Tests ergibt eine 50i Timeline mit Ausgabe H264 Codierung + "Umwandlung in 25P" das beste Ergebnis.
    Da man bei einer 25P Timeline immer noch "Antiflicker" anwenden muss um keine Kämme zu bekommen, scheint da was mit dem automatischen Deinterlace zu klemmen.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Gerade neuen Test mit einem Testbild gemacht, wie Jim vorgeschlagen hat.
    Das Testbild mit Kreisen und Linien sieht am besten mit Jims Methode aus (Timeline 25P und Antiflicker). Subjektiv scheint die Ausgabe eines bewegten Films über "Umwandeln" besser auszusehen. Bin verunsichert.... Mache weitere Tests.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • Die Kämme entstehen ja durch das Verwerfen eines Halbbildes. Es fehlen dann halt alle geraden oder ungeraden Zeilen, die dann aus dem nicht verworfenen Halbbild interpoliert werden.


    Wie exportierst du das H264? QuickTime- oder H264-Exporter? Oder bist du schon in Handbrake?


    Ich glaube beim Export aus 25i Timeline nach 25p setzt der Exporter automatisch auf (Halb)Bildvermischung = Blending!


    Ich schiebe den Anti-Flicker-Filter immer vor den Layouter und lege am Ende manchmal noch den Schärfefilter on top. Der schafft ausgleichend etwas mehr Kantenschärfe, weil der Anti-Flicker ganz leicht rummatscht.


    Ich muss gestehen, dass ich die Variante mit dem Anti-Flicker in der Regel nur auf Interviews anwende. Da ist kaum Bewegung, weshalb der Anti-Flicker hier ganz gut funktioniert. Ich hab ansonsten ausschließlich mit progressiven Material zu tun.


    Jim

  • Wie exportierst du das H264? QuickTime- oder H264-Exporter? Oder bist du schon in Handbrake?

    Ich exportiere H264/AVC.
    Handbrake ist mir zu umständlich. Das wäre ein Codierungsvorgang mehr. Ich muss hunderte U-Matic und VHS Analogvideos digitalisieren. Die Qualität soll ansprechend sein aber auch vom Aufwand muss das im vertretbaren Verhältnis stehen. Das dauert sonst Wochen länger.

    Mainboard Gigabyte Z790 UD AX, Intel Core i9 14900k, 32 GB DDR5 RAM, 1 x SSD 2TB, 1 x M.2 SSD 500GB (System), 1 x M.2 SSD 2GB, Geforce RTX3060 12GB, Blackmagic Intensity Pro 4K, RME HDSPe AIO, Windows 11 Pro-64 (23H2), Adobe Production Suite CS5, WaveLab 11, Prodad Adorage, Vitascene 3, Heroglyph 4, Acon Audio Restauration Suite 2, Acon Deverberate 3, Acon Extract Dialogue, Neat Video 5, NewBlue Amplify plus, Hide 1.5, Mercalli 6, Izotope RX10

  • @Captain
    Wo dir so an Qualität gelegen ist, warum exportierst du nicht nach HQ oder HQX und lädst die dann direkt in Handbrake? Ich habe nie verstanden, warum man dieses verlustbehaftete Format als Intermediate Format nutzt, um dann nochmal einen verlustbehafteten Codec drauf zu rechnen. Ich weiß, dass Anton das so macht, aber wenn ich den Workflow sauber halten will, wäre das mein erster Punkt, an dem ich anders entscheiden würde.

    Da hast Du einerseits wahr. Da meine Kunden andererseits nichts mit HQ(X)-Avis anfangen können, bekommen Sie neben der "schick-aber-klein"-gerechneten mp4 noch eine "größere", "bessere" Masterdatei, die sie archivieren können, ergo MPG2-HD mit 50Mbps. Mag ja sein, die wollen den Film zehn Jahre später nochmal ausschnittsweise verwenden oder bearbeiten... Falls ich noch mal ran muss, kann ich ja ohne Qualitätsverlust vom Originalprojekt arbeiten, aber der Kunde hat eben auch eine einigermaßen qualitätsvolle Masterdatei, die (soweit absehbar) ziemlich universell abspielbar ist.


    "Früher" haben wir auch auf einem Digi-Beta-Masterband geschnitten, davon eine Digi-Beta-Kopie gemacht (die der Kunde sich mangels Abspielgerät nur ins Archiv gestellt hat), und dann gab es ggf. hundert(e) VHS-Kopien zum Verteilen.


    Man müsste in der Tat mal eine Handbrake-mp4, die aus einer HQX-Avi entstanden ist, vergleichen mit einer, die einer MPG2-Datei mit 50Mbps entsprang. Wenn es da Unterschiede gibt, die man sieht, steige ich sicherlich um. Dann habe ich zwar einen Rechenschritt mehr (denn die MPG2-Datei brauche ich ja wie beschrieben trotzdem), aber wenn es einen Qualitätsvorteil bringt, bin ich der letzte, der da nein sagt... ;)

  • Ja, das verstehe ich!
    Es kommt natürlich immer auf das Umfeld an, in dem man tätig ist und welche Exporte man vorhalten muss.
    Ich verfolge aus Konsequenzgründen eine kurze Workflow-Kette die qualitativ möglichst sauber ist, so lassen sich mögliche Fehler und Probleme schneller ausfindig machen.


    Man müsste in der Tat mal eine Handbrake-mp4, die aus einer HQX-Avi entstanden ist, vergleichen mit einer, die einer MPG2-Datei mit 50Mbps entsprang. Wenn es da Unterschiede gibt, die man sieht, steige ich sicherlich um. Dann habe ich zwar einen Rechenschritt mehr (denn die MPG2-Datei brauche ich ja wie beschrieben trotzdem), aber wenn es einen Qualitätsvorteil bringt, bin ich der letzte, der da nein sagt... ;)

    In der Tat, diesen Test habe ich auch noch nicht gemacht.
    Natürlich ist es so, dass z.B. ein XDCAM HD422 = Sendequalität bedeutet! Es wirkt dadurch vielleicht wie Jammern auf hohem Niveau, ist aber nur Konsequenz. Dann und wann weiche ich auch mal ab, wenn es das Szenario erlaubt.


    Ich hatte für mich lediglich mal einen Test des Edius H264-Encoders gemacht und ihn gegen Handbrake (X264) antreten lassen. Wie erwartet, fiel natürlich das Ergebnis zu ungunsten des Edius-Encoders aus. Zumal 2-pass Encoding auf allen Ebenen ein Fremdwort in Kobe zu sein scheint und damit viel theoretisches Potenzial nicht genutzt werden kann. Ich habe es für mich einfach mal quantifizieren wollen.


    Gruss
    Jim