1440x1080 auf 1920x1080 ausrechnen...

  • Die HDV Files von der DV Kassette sind ja 1440x1080.
    Wenn ich die Projekteinstellungen in Edius auf 1920x1080 ändere und dann die Timeline ausrechne - ist dann die Qualität schlechter oder gleich bleibend?
    Sehe auf dem Monitor keinen wirklichen Unterschied.



    LG
    MANNI

  • Hi Manni,


    meine persönliche Meinung:
    Umrechnen füht immer zu Verlusten. Edius muss ja Pixel dazu erfinden, die vorher nicht da waren. Da es aber nur horizontal mehr Pixel sind, und auch der Unterschied zwischen 1440 und 1920 nicht so groß ist, ist es wohl kaum oder nicht sichtbar. Bestimmt kannst du die Qualität auch über die passende Resamplingmethode noch optimieren. Ich gehe davon aus, dass du den HDV-Standard 50i so beibehällst.


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Servus Manni,


    du kannst, sofern du in dem Projekt ausschließlich HDV (und Fotos) verarbeitest, bei den Projekteinstellungen 1440x1080 bleiben. Sogar die BR lässt sich so anschließend brenen. Ich hab das auch jahrelang gemacht. Dadurch fällt jegliche Umrechnerei weg und das Ergebnis ist sicherlich nicht schlechter als wenn due die Einstellung1920x1080 verwendest!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

    • Offizieller Beitrag

    hallo ... sorry, die Annahme der Umrechnung + deren Verluste ist imho nicht korrekt


    HDV wird nur wegen der 25 Mbit Limitation der Kassette, mit einem anderem Pixel Aspect Ratio (PAR) als 1:1 abgespeichert.
    Bei HDV mit gestauchten Pixel = mit PAR 1.3333


    Auf die normale Darstellung .. und die ist IMMER 1920x1080 wir von jeder Darstellung bereits bei der Arbeit
    IMMER auf PAR 1:1 hochgerechnet (dargestellt) ... denn wir haben NUR mehr quadratische Pixel = PAT 1:1 zur Verfügung in Monitoren Beamern / TVs

    • von ihrem Monitor am PC
    • von ihrem Quell oder Recorder Monitor in ihrem Edius (sie sehen ja keine gestauchten Eierköpfe bei der Arbeit... oder??)
    • vom Windows Media-Player ... und allen anderen SW/HW Playern
    • von Ihrem TV ...usw. usw.

    Wenn sie NICHT (wegen der der 25 Mbit Limitation) zurück auf die Kassette exportieren müssen
    bleiben sie bitte von Haus aus bei einer 1920x1080 Projekteinstellung


    Jeder Titel / jedes Standbild / jede Verarbeitung erfolgt mit 1:1 klarer und besser ... als in einem Matsch vom square + non square Pixel
    die letztendlich dann doch NUR als 1:1 square Pixel dargestellt werden können/müssen


    Mit freundlichem Gruß ...Hans ^^

    Grass Valley Moderator 2 / freiwilliger firmenunabhängiger Foren-Moderator
    Wichtig: Dies ist kein Grass Valley Support Forum.! Dies ist ein moderiertes Anwender zu Anwender Forum.


    i9-7980XE 18cores/36threads - PCIe-M.2 960 PRO 512GB - PCIe-M.2 970 Pro 1TB - 32GB DDR4-3600 - Zotac GeForce GTX 1080 8GB - DeckLink Mini Monitor 4K - Win_10prof
    Edius X WG + VisTitle

  • IMMER auf PAR 1:1 hochgerechnet

    Hi Hans,


    dass 1440 rechteckigen Pixel (im Seitenverhältnis 1 : 1,33) die gleiche Bildbreite ergeben, wie 1920 quadratischen Pixel (im Seitenverhältnis 1 : 1) ist mir klar. Aber wie du auch geschrieben hast, wird das ja umgerechnet. Es wird ja nicht einfach das Pixelseitenverhältnis geändert. Sonst wäre ja das Bild zu schmal. Es müssen ja noch Pixel dazu "erfunden" werden.


    Also: 1440 ändern in 1920 - muss gerechnet werden = Qualitätsverlust.
    Oder hab ich´s noch nicht ganz verstanden?


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Also: 1440 ändern in 1920 - muss gerechnet werden = Qualitätsverlust.
    Oder hab ich´s noch nicht ganz verstanden?

    Ich würde mit HQX arbeiten um den Qualitätsverlust praktisch unsichtbar zu halten,
    final dann in MP4 rauskodieren. Lege mal die Angst vor Qualitätsverlusten ab...


    Kannst ja hier zeigen zu welchen Qualitätsverlusten das geführt hat.

    Servus, Pee
    EDIUS 11 WG, DVR 18 Studio, Mercalli V6 SAL, ASUS Prime Z390-P, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + SSD-Schnitt, Diverse FP,
    NVIDIA GF-RTX 2060 Super 8GB, W10Pro(22H2), 32" LG PC-Monitor, 32" HDR(HLG)-Vorschau TV per BM Intensity Pro 4K
    Sony ZV-1 mit Zhiyun Crane M2 , Pana FZ-300, GoPro Hero 7 Black, DJI Pocket 2, DJI Mavic Mini, Huawei Mate 20 Pro

  • Hi Pee,


    ich hab ja keine Angst davor. In #2 hab ich ja schon geschrieben, dass der Verlust kaum oder nicht zu sehen ist. Und auch Manni sieht keinen Unterschied.
    Mir ging es nur darum, dass rein technisch ein Verlust vorhanden ist.


    Gruß Uwe

    Edius 11 Pro, Rechner: Intel i9 9900K, 32 GB RAM, Asus Prime Z390-A ATX, Asus GeForce RTX2060 S, Win 10 Pro, 500 GB M.2 SSD, 4 TB HDD, 2x 27" UHD Monitor,ShuttlePRO v2, Adobe Lightroom, Affinity Photo, Affinity Designer

  • Hi,


    ich habe auch noch eine HDV-Cam (Sony FX1) im Einsatz.


    Meine Projekte lege ich generell als 1920x1080 50i (10bit) an und gebe sie dann natürlich auch als FHD aus.


    Der Vorteil liegt dabei aus meiner Sicht darin, dass Standbilder, Titel, Animationen, etc. in 1920x1080 verarbeitet werden können.
    Nach meiner (subjektiven) Meinung ist in diesem Bereich der Qualitätsgewinn ggü. Bilder, Titel usw. in einem 1440x1080 Projekt höher, als der "Verlust" durch die Umwandlung des HDV-Materials in einem 1920x1080 Projekt.


    Und wie Hans schon ganz richtig bemerkt hat - spätestens bei der Wiedergabe muss ja das 1440 sowieso in 1920 gewandelt werden. Und dass macht Edius mindestens so gut wie irgendein Gerät.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Es müssen ja noch Pixel dazu "erfunden" werden.


    Also: 1440 ändern in 1920 - muss gerechnet werden = Qualitätsverlust.
    Oder hab ich´s noch nicht ganz verstanden?

    Na ja, "erfunden" wird da eigentlich nichts.


    Ein zu digitalisierendes Bild wird mit einem definierten Raster versehen - z.B. 1440 x 1080, oder 1920 x 1080. Jedes "Feld" dieses Rasters ergibt eine Bildinformation, aus der dann später das Bild "rekonstruiert" wird.


    Da das (Ur-)Bild ja die gleiche Größe und Abmessung behält, egal welche Rasterung man verwendet, ist das einzelne "Feld" bei einer 1440iger Rasterung logischerweise "größer", "länglicher", sprich gröber, als bei einer feineren 1920iger Rasterung. Betrachtet man jetzt einen bestimmten Bereich des Ur-Bildes, so weichen deshalb die Werte der Pixel bei einer 1440iger und 1920iger Rasterung voneinander ab - bzw. können voneinander abweichen.
    Können weil: wenn Du eine homogene Farbfläche hättest, wäre es "qualitativ" egal, ob Du die mit 1920, 1440 oder weniger rasterst, da ja sowieso alles "eine Suppe" wäre.



    Wenn jetzt das mit 1440 Rasterung digitalisierte Bild auf 1920 Rasterung "umgestellt" wird, wird also im Prinzip zunächst das Bild aus den vorhandenen Informationen wiederhergestellt.
    Auf dieses wiederhergestellte Bild wird dann das 1920iger Raster angewendet. Und daraus ergeben sich dann die einzelnen Pixelwerte des neuen (1920iger) Bildes.


    Vergleichst Du jetzt die Pixelwerte dieses "umgewandelten" 1920iger Bildes mit den Pixelwerten des sofort in 1920 gerasterten Ur-Bildes, werden (bzw. können s.o.) Abweichungen bestehen. Diese Abweichungen wären quasi der "Qualitätsverlust".


    Ob da bei der endgültigen Wiedergabe des Bildes (sichtbare) Unterschiede zwischen einem in 1440x1080 aufgenommenen und auch so gespeicherten und einem in 1440x1080 aufgenommenen aber in 1920x1080 "umgewandelten" Bild bestehen, bezweifele ich auf Grund meiner Erfahrungen in Edius.


    Anders sieht es aus mit Bildern (z.B. Fotos, oder Animationen), die bei der Bearbeitung ursprünglich in 1920x1080 vorliegen.
    Verwendest Du diese in einem HDV 1440x1080-Projekt, werden diese zunächst in das gröbere Raster gewandelt. Bei der Wiedergabe erfolgt dann theoretisch eine "Rückwandlung" in 1920x1080.
    Das (2-fache Umwandlung) kann schon eher merkliche Spuren hinterlassen.


    Ebenso können bestimmte Schriften o.a. Inhalte in Titeln in einem HDV-Projekt nicht ganz so gut wirken.



    Deshalb meine Empfehlung auch HDV-Material in einem 1920x1080 FHD-Projekt zu bearbeiten.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Danke für Eure Statements und Meinungen - die haben mir sehr geholfen.
    Hatte bisher immer alles auf die Timeline "geworfen" was auch immer ich für Files bekommen hatte
    und das Ergebnis in 1920x1080 50i war immer zufriedenstellend.
    Finde EDIUS macht das super.


    LG
    MANNI