Frage zu 4K nach HD

  • Hat du dir schon die Sony AX700/Sony NX80 überlegt? Angeblich schärfer und mit besserem Steadyshot und Autofokus als die Canons und Panasonics. Die habe ich als nächste am Radar!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Allerdings ist mir ein 12x Zoom zu wenig.

    Die haben aber das sogenannte Clear Image Zoom. Dabei zoomt die Cam zunächst 12x optisch und dann nochmals elektronisch. Angeblich ist das auf Grund der hohen Auflösung des 1´Chips tatsächlich sehr gut zu gebrauchen! Und letztlich kannst du in der post nochmals reinzoomen, falls du in FHD ausgibst.


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Dabei zoomt die Cam zunächst 12x optisch und dann nochmals elektronisch.

    Das ist nichts anderes, als das skalieren im NLE.


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Das ist nichts anderes, als das skalieren im NLE.

    Jein! Der Unterschied ist, dass ich beim Clear Image Zoom nicht nur den Ausschnitte verkleinere, sondern auch gleichzeitig beim Filmen noch den Bildinhalt ändern kann. Es ist ja möglich, die Blickrichtung dabei zu ändern. Und genau das geht natürlich nachher in der NLE nicht mehr!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Der Unterschied ist, dass ich beim Clear Image Zoom nicht nur den Ausschnitte verkleinere, sondern auch gleichzeitig beim Filmen noch den Bildinhalt ändern kann. Es ist ja möglich, die Blickrichtung dabei zu ändern. Und genau das geht natürlich nachher in der NLE nicht mehr!

    Das verstehe ich noch nicht ganz:
    Wenn ich in der NLE in den Clip hineinzoome, dann kann ich mit dem Layouter den Ausschnitt ändern. Etwa deswegen, weil ich zB den nun größeren Vogel besser in den goldenen Schnitt einpassen will.
    // Du meinst mit Blickrichtung vermutlich mehr als mein Beispiel.
    Gruß kurt

    HW: ASUS Z170-A; Proz: i7-6700K; RAM: 32 GB DDR4; GPU: RTX-3070, 8GB GDDR5; SSD: SAMSUNG-850-Pro, 500 GB
    SW: WIN-10/64 PRO (22H2-19045-2364), Firefox u.a.
    NLE: EDIUS-11.11.14138-WG; RESOLVE-18.6.6.0007 Studio

  • Hi Markus,


    ich verstehe das leider auch nicht.
    Auch der Clear Image Zoom scheint doch nichts anderes zu sein als Cropping, nur evtl. mit einer rechnerischen "Aufhübschung".
    Oder habe ich da was falsch verstanden?


    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Im Nahbereich 2-3m könntest Du dann auch nachtaktive Tiere mit Infrarot (schwarz/weiß) aufnehmen...

    das kann die Panasonic HC-x1500 auch, hab ich getestet. Man kann auch eine Funktionstaste damit vorbelegen, sodass man schnell umschalten kann.


    Gruss Torsten

  • Ja, Sony hat da ein paar nette Algorithmen dazu gepackt und zieht den Vergleich "cropping on steroids". Angeblich sieht es wohl gut aus, aber ich schätze, das muss man wie so oft auf die eigene typische Anwendung hin testen.

  • Ich habe mal geyoutubed. Es gibt da einige Videos zum Thema clear images Zoom bzw. Klarbild Zoom. Damit versteht man wie es funktioniert. Dolle Funktion.
    Erstaunlich ist das sogar meine alte G30 eine ähnliche Funktion hat. Allerdings mit minimalen Qualitätsverlust da der Chip pixelmäßig auf HD angepasst ist. Heißt ... nur soviel Pixel wie fürs Filmen gebraucht werden. Das hat zu Folge das sie sehr lichtstark ist.


    Das aber nur nebenbei. Hier eines der Videos die ich gefunden habe.


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Damit versteht man wie es funktioniert. Dolle Funktion.

    Nun, auch wenn da im Video wirklich schön erklärt wird wie es funktioniert, es ist nichts anderes als Cropping. D.h. es wird nur ein Teilbereich des Sensors ausgelesen. Bis zu diesem Punkt passiert also genau das, was man auch später im NLE machen kann.


    Der Unterschied besteht nur darin, dass die Kamera - wie @Captain ganz richtig schreibt - für die Skalierung besondere ("KI") Algorithmen verwendet, die auf Grund vorgegebener "Erfahrungswerte" nachbearbeitet.
    Diese Algorithmen liefern auch zugegebenermaßen oft sehr gute Ergebnisse, trotzdem bleibt es aber ein berechnetes Bild.
    Wie im Video das Beispiel Tapete auch zeigt, können solche Berechnungen auch schiefgehen, weil die Aufnahme falsch interpretiert wird. Dabei treten dann eben die im Beispiel Tapete gezeigte "Glättung", also Weichzeichnung, oder eben das Gegenteil eine übermäßige Schärfung auf. Und sowas sieht man halt in letzter Zeit auch häufig bei mit dem Smartphone erstellten Aufnahmen. Denn auch in den meisten moderneren Smartphones werden derartige Algorithmen verwendet.


    Letztlich passiert aber in einem NLE nichts anderes. In Edius spielt hier dann die eingestellte Resampling-Methode eine Rolle. Hier kann man durch geschickte Auswahl ggf. auch ein besseres Ergebnis erzielen.
    Natürlich verfügen die NLEs (bisher) meist nicht über die modernen Algorithmen, wie sie die Cam verwendet. Aber es gibt da inzwischen auch Filter-PlugIns, die derartiges bieten sollen. Habe ich aber noch nicht selbst ausprobiert.




    Übrigens die Erklärung im Video, dass dann beim "Hineinzoomen" mit Clear Image Zoom dann angeblich sonst nicht genutzte Pixel der Randzonen des Sensors genutzt werden sollen halte ich für unsinnig.
    Denn durch das Cropping wird ja weniger Sensorfläche genutzt als zuvor. Wie sollen da diese - tatsächlich vorhandenen - Randzonen, die dann ja völlig außerhalb des Bildbereiches liegen etwas bewirken????


    Richtig ist, dass diese Randzonen-Pixel i.d.R. durch den internen Stabilisator genutzt werden. Dieser "entwackelt" also, indem er den Bildausschnitt kontinuierlich um die verursachte Bewegung verschiebt.
    Ich vermute, dass Sony da nur meinte, dass auch bei dem gecroppten Bild entsprechende Randzonen mitverwendet würden.




    Ich will diese Technik damit nicht schlecht machen. Das wird schon in einem sehr guten Maße funktionieren und ist auf alle Fälle "besser als nichts".
    Aber man sollte m.E. eben auch wissen, was wirklich dahintersteckt. Ein optischer Zoom mit einem guten Objektiv ist doch noch was anderes.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Nun, auch wenn da im Video wirklich schön erklärt wird wie es funktioniert, es ist nichts anderes als Cropping. D.h. es wird nur ein Teilbereich des Sensors ausgelesen. Bis zu diesem Punkt passiert also genau das, was man auch später im NLE machen kann.

    Der Vorteil von digitalem Zoom (bei hoher Auflösung), daß ich trotzdem in 4K Aufnehmen kann.
    Wenn ich im Schnitt in HD ausgebe kann ich im Schnitt nochmal digital zoomen, also 2 mal ohne Quslitätsverlust.


    Ich nutze das oft bei der Sony A7R, wenn mir der Telebereich von 200 mm nicht reicht. Da kann man 1,6x croppen, komme also auf ca. 300 mm, bleibe aber in 4K.
    Im Schnitt kann ich nochmal vergrößern, wenn mein Endprodukt HD ist.
    Spart mir in Kombination ein weiteres Teleobjektiv, da ich mit solchen Brennweiten wirklich nur sehr selten arbeite.

    ---------------------------------------------
    Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).

  • Hi Markus,


    ich verstehe das leider auch nicht.

    Einen wesentlichen Punkt hat chris im Posting darüber bereits beschrieben.


    Was ich meine ist folgendes: wenn ich mein optisches Zoom in die volle Teleposition gebracht habe und nun filme, ist der Ausschnitt festgelegt. Ich kann mich später in der NLE nur mehr in diesem Bildausschnitt vergrößernd bewegen. Wenn ich aber in meiner Cam noch einen CIZ oder Extender habe, komme ich vielleicht während der Drehs drauf, dass ich meine Position als Filmer jetzt besser verändere und fünf Meter zur Seite gehe. So habe ich später im Schnitt zwei unterschiedliche Einstellungen zur Verfügung. Ich hoffe, dass mein Gedanke jetzt besser verständlich ist!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Oh, durfte ich den Youtube Link hier nicht posten? Er ist kommentarlos verschwunden.

    Ist bei mir immer noch vorhanden, falls du den aus #30 meinst!


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional

  • Was ich meine ist folgendes: wenn ich mein optisches Zoom in die volle Teleposition gebracht habe und nun filme, ist der Ausschnitt festgelegt.

    Das ist ja logisch.


    Aber das ist doch auch bei diesem CIZ nicht anders. Der Ausschnitt kann doch immer nur ein Teilbereich der "Vollauflösung" sein. Und das ist eben die von Dir beschriebene max. Stellung des optischen Zooms.
    Der Unterschied besteht doch nur darin, dass Du den Ausschnitt halt schon während der Aufnahme festlegst, bei einer Skalierung im NLE eben hinterher.


    Natürlich ist es angenehmer schon bei der Aufnahme den richtigen Ausschnitt beurteilen zu können, aber letztlich würdest Du ja auch später im NLE genau diesen Ausschnitt wählen können.
    Etwas, dann nicht aufgenommen wurde, kann Dir (bis jetzt) auch die beste Elektronik nicht herbeizaubern.



    Wenn ich aber in meiner Cam noch einen CIZ oder Extender habe, komme ich vielleicht während der Drehs drauf, dass ich meine Position als Filmer jetzt besser verändere und fünf Meter zur Seite gehe. So habe ich später im Schnitt zwei unterschiedliche Einstellungen zur Verfügung.

    Aber doch auch nur während des Drehs... ?(
    Oder muss ich das jetzt so verstehen, dass ich beim CIZ nach erfolgter Aufnahme dann auch noch zum zuvor nicht gewählten Bildausschnitt "schwenken" kann???
    Also von der Cam in Wirklichkeit doch das "Vollbild" gespeichert wird und über CIZ sozusagen eine "bewegliche Lupe" auf die Datei gelegt wird. Da wäre ich dann schon überrascht, wenn das ginge.



    Gruß
    Peter

    ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, BMD UltraStudio 4K Mini, RME Fireface 400, Win 11 Pro , EDIUS 11 WG

    Steinberg Cubase Pro, WaveLab Pro, SpectraLayers Pro

  • Aber doch auch nur während des Drehs...

    Ja genauso!


    Wahrscheinlich ist der wichtigere Unterschied, dass ich durch das CIZ ein voll aufgelöstes 4K-Bild erhalte, in das ich im NLE nochmals reinzoomen kann, wenn ich in FHD ausgebe.


    Markus

    EDIUS 8.53 Pro; Edius X Pro; Asus Z170-A; i7 6700K; Noctua NH-D14; G.Skill RipJaws 32GB DDR4-2133; Samsung SSD 850 Evo 250GB M.2; MSI GTX 960 4GD5T OC 4GB; 3x HGST Deskstar NAS 3TB SATA; Exsys EX-6450; Fractal Design Define R5; Win10 Professional