Alter Film in 1920x1080

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Alter Film in 1920x1080

      Guten Abend,
      habe Montag abends einen alten Film (schwarz/weiß) mit James Steward gesehen. Wie können die einen so alten Film bearbeiten, dass keine Verzerrung dabei entsteht?
      Gruß Käferl
      -Windows 10 Professional 64bit, i9-9900k mit 8 Kernen und 3,6 bis 5,0GHz und 16MB Cache und Hyperthreading statt i7-9700k mit 12MB Cache ohne Hyperthreading
      -Mainboard Asus Motherboard mit Highspeed M2/S-ATA/S-ATA, NVIDIA RTX 2060 6GB-Intel UHD 630 Grafik mit Qick Sync H.264-Beschleunigung
      -EDIUS WG 9 PRO 9.52 (6153), Arbeitsspeicher 32 GB (2x16GB) DualChannel DDR4 Ram
    • Hi,

      das ist halt alles mal auf "echtem" (chemischen) Film im Kinoformat gedreht worden.

      Solches Material besitzt eine sehr hohe Qualität und kann natürlich dann entsprechend auch mit hohen Auflösungen (theoretisch auch in 4K oder höher) digitalisiert werden. I.d.R. ist das auch schon vor Jahren vollzogen worden um den Film zu archivieren, als DVD/BD auf den Markt zu bringen, oder sogar in modernen Kinos digital zu zeigen.
      Von Filmen die eine große Verbreitung hatten, wird es auch noch genügend gut erhaltene (Film) Kopien geben. Diesen kann man dann also auch jetzt noch jederzeit mit der aktuellen Technik neu digitalisieren.


      Gruß
      Peter
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, RME Fireface 400, Win 10 Pro , EDIUS WG X
    • Grauer Tiger schrieb:

      Das bedeutet tatsächlich, dass wir mit den heutigen 4k Kameras gerade mal den Analogfilm erreicht haben
      Das hängt aber davon ab, welche Empfindlichkeit das Filmmaterial hatte.
      Theoretisch wären bei einem KB Film wohl rund 40 MP möglich.
      ---------------------------------------------
      Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).
    • chris schrieb:

      Das hängt aber davon ab, welche Empfindlichkeit das Filmmaterial hatte.
      Die Empfindlichkeit des Films bezieht sich auf die Fähigkeit Lichtabstufungen darzustellen und hat nichts mit der Auflösung in Pixeln zu tun.
      Ein 35mm Film hat horizontal ca. 4000 Pixel (wenn man dass auf heutige Verhältnisse umrechnet, denn ein Film hat natürlich gar keine Pixel). Ob innerhalb dieser Pixel Verläufe besser oder schlechter dargestellt werden hängt tatsächlich von der Empfindlichkeit ab. Aber - weiche Farbverläufe, die wir heute mühsam mit 10 Bit erreichen, zeigte der 35mm Film schon immer besser.
    • Grauer Tiger schrieb:

      Die Empfindlichkeit des Films bezieht sich auf die Fähigkeit Lichtabstufungen darzustellen und hat nichts mit der Auflösung in Pixeln zu tun.
      Das stimmt nicht. Je empfindlicher ein Film, desto größer die Körnung und so geringer die Auflösung.
      Das kann man beim Entwickeln von hochempfindlichen Filmen sehen, wenn man das mit normalen vergleicht.
      ---------------------------------------------
      Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).
    • chris schrieb:

      Das stimmt nicht. Je empfindlicher ein Film, desto größer die Körnung und so geringer die Auflösung.
      Das kann man beim Entwickeln von hochempfindlichen Filmen sehen, wenn man das mit normalen vergleicht.
      Ich glaube, wir reden aneinander vorbei. Natürlich entsteht je nach Empfindlichkeit mehr oder weniger Körnung. Das ändert aber nichts daran, dass ein 35mm Film mit üblicherweise 4k digitalisiert wird (dann inkl. Körnung).
      Der analoge Film selbst hat ja gar keine Pixel. Man versteht bei Analogfilm unter Auflösung etwas anderes als beim Digitalfilm. Da habe ich mich möglichweise missverständlich ausgedrückt. Sorry!

      Ausgangsfrage war ja, warum alte 35mm Filme genau so gut aussehen können wie Digitalfilme (Beschädigungen und Ausbleichungen mal außen vor)
    • Empfindlicher Film hat größers Korn.
      Weniger empflindlicher Film hat kleineres Korn.
      Also größeres Korn = weniger Auflösung (Bei gleicher Sensorgröße)
      Wie bei einer Digitalkamera auch.

      Grauer Tiger schrieb:

      Natürlich entsteht je nach Empfindlichkeit mehr oder weniger Körnung. Das ändert aber nichts daran, dass ein 35mm Film mit üblicherweise 4k digitalisiert wird (dann inkl. Körnung).
      Die Körnung entsteht nicht durch die Empfindlichkeit, sondern die Empfindlichkeit entsteht durch die Körnung.
      Ob mit 4K digitalisiert wird oder nicht ist nicht Thema meiner Aussage, hat damit ja auch nichts zu tun. Ich kann mir aber denken, daß dies aktueller Stand der Technik ist und es daher so gemacht wird.
      ---------------------------------------------
      Mainboard Asus Prime Z370-A, CPU Coffeelake i7-8700 mit CPU-Grafik HD Graphics 630, NVidia GTX 1050 Grafikkarte, Win 10 (64 bit).
    • Guten Abend,
      danke für die Erkärungen dazu. Den Film, welchen ich gesehen habe, war wirklich eine sehr gute Qualität. Wenn man sich alte VHS oder Video8 Videos ansieht, ist da qualitätsmäßig ein haushoher Unterschied. Ich habe vom ORF die neue Produktion von Hugo Portisch Österreich I+II gekauft, das war aufgeblasen und verzerrt. Im Fernsehen sieht man diese alten analogen Videofilme meistens im 4:3 Format mit unscharfen Hintergrund, weil da doch noch die beste Qualität heraus kommt. Meine alten Super 8 Filme habe ich digitalisieren lassen, die sind aber alle im .mpeg Format umgewandelt worden, die hätten das ja auch zumindest im HD Format umwandeln können, oder ist das eine Kostenfrage?
      Gruß Käferl
      -Windows 10 Professional 64bit, i9-9900k mit 8 Kernen und 3,6 bis 5,0GHz und 16MB Cache und Hyperthreading statt i7-9700k mit 12MB Cache ohne Hyperthreading
      -Mainboard Asus Motherboard mit Highspeed M2/S-ATA/S-ATA, NVIDIA RTX 2060 6GB-Intel UHD 630 Grafik mit Qick Sync H.264-Beschleunigung
      -EDIUS WG 9 PRO 9.52 (6153), Arbeitsspeicher 32 GB (2x16GB) DualChannel DDR4 Ram
    • Hi,

      Du schmeißt da leider einige Sachen völlig durcheinander, die wenig bis nichts miteinander zu tun haben:
      1. die Ausstrahlung die Du gesehen hast lief vermutlich auf einem HD-Sender und auch der dort gezeigte Film dürfte eine entsprechende hochwertige Digitalisierung gewesen sein;
      2. VHS und Video 8 war analoge Technik, die noch nicht einmal die "Qualität" der (SD-) PAL-Fernsehnorm gebracht hat, das ist selbstverständlich nicht vergleichbar mit einen Film in FHD, oder gar UHD;
      3. selbst wenn Du die von Dir genannten Filme als DVD gekauft haben solltest, wäre das noch immer nur SD-Format, auf einem FHD oder gar UHD-TV-Gerät muss das also entsprechend "aufgeblasen" werden;
      4. wenn es sich um eine Fernsehproduktion handelt (wie eine alte Fernsehshow, oder Serie), dann ist das kein Film, sondern in Fernsehnorm aufgenommenes Material, also auch wieder SD, evtl. sogar noch analog, das kann man dann nicht verbessern;
      5. der Fernsehsender kann immer nur das ausstrahlen, was er hat, wie beschrieben kann man zwar Kinofilme hochwertig digitalisieren, aber das heißt ja nicht, dass dies auch gemacht wurde, evtl. liegt dem Sender der Film auch nur in minderer Qualität vor;
      6. ein Super 8 Film ist ja nun auch wesentlich "kleiner" (Fläche), als das für Kinofilme genutzte Material, schon aus diesem Grund kannst Du da nicht die gleiche Qualität erwarten, selbst FHD dürfte da kaum möglich sein, hinzu kommt, das Super 8 meinst nur 18 oder 21 Bilder/Sekunde hatte, Kinoproduktionen 24 Bilder;
      7. MPEG (1-4) sind lediglich definierte Standards, das können ganz unterschiedliche Codecs sein, und selbst der Codec sagt nichts über die vorliegende Auflösung aus, oder darüber ob das Material progressiv (Vollbild) oder interlaced (Halbbilder) digitalisiert wurde, und mit welcher Bitrate.
      8. außerdem gibt es auch noch verschieden Techniken wie ein Film digitalisiert wird, das fängt beim einfachen Abfilmen einer Leinwand an und geht bis zur hochwertigen Digitalisierung mit Aufarbeitung, wie es eben im kommerziellen Bereich mit Spielfilmen gemacht wurde.


      Gruß
      Peter
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, RME Fireface 400, Win 10 Pro , EDIUS WG X
    • käferl schrieb:

      Im Fernsehen sieht man diese alten analogen Videofilme meistens im 4:3 Format mit unscharfen Hintergrund, weil da doch noch die beste Qualität heraus kommt.
      Auch hier bitte nichts durcheinanderbringen! Der unscharfe Hintergrund hat nichts mit der Bildqualität zu tun, sondern ist nur ein ästethisches Mittel:

      Wenn Du einen für sich stehenden Film oder eine Serie in 4:3 hast, dann wird das auch heute noch in 4:3 gezeigt (z.B. "Alf"). Du hast dann eben schwarze Flächen an den Seiten. Das mit dem unscharfen Hintergrund macht man, wenn 4:3-Material in einer Sendung mit 16:9-Material vermischt wird. 16:9 ist der Standard, aktuelles Material ist 16:9, und wenn man dazwischen jetzt 4:3-Szenen zeigen muss, dann wirkt es seltsam, wenn plötzlich die schwarzen Flächen an den Seiten auftauchen bzw. wieder verschwinden. Deswegen legt man bei 4:3-Material dieselben Szenen synchron in den Bildhintergrund, zieht sie bildfüllend groß und macht sie unscharf. So hat man in diesen Momenten nicht diese fiesen schwarzen Blöcke oder irgendeinen Hintergrund, sondern Farben, Verläufe und Bewegungen, die optisch und dynamisch zum eigentlichen Inhalt passen (denn sie SIND ja ursprünglich der eigentliche Inhalt).

      Das hat aber nichts mit der Auflösung zu tun, sondern lediglich mit dem Seitenverhältnis. Du würdest dieses Verfahren in FHD genauso anwenden wie in UHD (oder damals sogar noch in SD). Nur dass Dein Ausgangsmaterial natürlich trotzdem SD bliebe, was Du aufpusten musst.


      Es gibt zu der 4:3/16:9-Thematik einige interessante Alltagsfakten:

      # Die Sitcom "Two And A Half Men" z.B. wurde in den ersten ein, zwei Staffeln noch in 4:3 gesendet. Inzwischen sieht man die vollständig in echtem 16:9. Warum? Große Serien wurden bis weit in die 90er und darüberhinaus auf Filmmaterial gedreht oder später zwar auf Video, aber schon FHD. Da selbst in der ersten Hälfte der 2000er viele Leute noch einen 4:3-Fernseher hatten, man aber "normale" Serien nicht mit 16:9-Balken ausstrahlen wollte, hat man das Material, das in 16:9 vorlag, auf 4:3 beschnitten. Das war der Fernsehstandard, fertig. Damals gab es noch eine sehr strikte Trennung zwischen TV und Kino - auch in der Optik. Beim Dreh von "Two And A Half Men" (und vielen anderen Serien) hat man den späteren 4:3-Bereich schon einkalkuliert, sodass in der Beschneidung nix relevantes verloren ging. Umgekehrt bedeutete das, dass in den (mitaufgezeichneten) Außenbereichen nichts Relevantes sein durfte, weil das ja in der Fernsehfassung abgeschnitten worden wäre. Heute erkennt man das manchmal daran, dass das 16:9-Material an den Seiten zwar vollständig ist, aber häufig viel leerer Hintergrund zu sehen ist.

      # Auf diese Weise war der große Teil von "Baywatch" z.B. damals nur in 4:3 zu sehen, läuft heute aber in 16:9 als wäre nie was anderes gewesen. Der Grund: die Serie wurde auf Film gedreht, sodass man später das Material einfach neu abgetastet hat und sich logischerweise die künstliche Beschneidung auf 4:3 gespart hat. Daher gibt es Baywatch in echtem HD in 16:9, obwohl man es ursprünglich als 4:3 kennt.

      # Anders ist es bei Serien wie "Star Trek Deep Space Nine" oder "-Voyager". Das wurde zwar auch auf Film gedreht, und man könnte denselben Vorgang anwenden wie bei Baywatch. Aber bei Star Trek waren die Kulissen und technischen Spielereien aufwändig und teuer. Damals waren die Budgets nicht so hoch, und so hat man zwar auf Film (=16:9) gedreht, aber auch in dem Wissen, dass man später im Fernsehen nur den 4:3-Bereich sehen würde. Deswegen stehen im Filmmaterial an den Seiten z.B. Techniker oder eine zweite Kamera oder ein Scheinwerfer im Bild, oder die Kulisse reichte gar nicht vollständig bis in den 16:9-Raum. Für 4:3 war das kein Problem, aber 16:9 geht dadurch nicht. Deswegen sind DS9 und Voyager bis heute nicht in 16:9 zu sehen.
      Intel Core i7-7820X ---- Noctua NH-D15S ---- MSI X299 GAMING M7 ACK ---- 64GB RAM 2666-15 Corsair Dominator Platinum ---- 500GB Samsung 960 EVO M.2 (system SSD) ---- 512GB Samsung 960 PRO M.2 (data SSD) ---- Aorus Nvidia GTX 1080 Ti ---- be quiet! SILENT BASE 600 Case ---- be quiet! Dark P. Pro P11 850W ---- Win10 Pro ---- Edius WG 8.53.2808
    • Guten Abend,
      vielen Dank an Peter und Captain für die ausführliche Beschreibung zu diesem Thema. Wenn man so vor dem FS sitzt und sich so alte Filme, Serien etc. ansieht, machen sich wahrscheinlich nur wenige Betrachter Gedanken über die notwendigen Bearbeitungen solcher Aufzeichnungen. Ich selbst habe mir schon Gedanken darüber gemacht, habe aber (bis zu eurer Information) keine Ahnung gehabt, wie dies funktioniert.
      Gruß Käferl
      -Windows 10 Professional 64bit, i9-9900k mit 8 Kernen und 3,6 bis 5,0GHz und 16MB Cache und Hyperthreading statt i7-9700k mit 12MB Cache ohne Hyperthreading
      -Mainboard Asus Motherboard mit Highspeed M2/S-ATA/S-ATA, NVIDIA RTX 2060 6GB-Intel UHD 630 Grafik mit Qick Sync H.264-Beschleunigung
      -EDIUS WG 9 PRO 9.52 (6153), Arbeitsspeicher 32 GB (2x16GB) DualChannel DDR4 Ram
    • Nochmal zur Abtasttechnik. Die Leinwand abfilmen ist die „Billigtechnik“. Im Gegensatz dazu gibt es noch die Laserabtastung, wo das Bild exakt Pixelweise mit einem Laserscanner abgetastet wird. Dadurch kann die Auflösung der einzelnen Pixel akkurat eingestellt werden und jeder Bildpunkt hat die eingestellte Farbgenauigkeit. Was eine Videokamera in Echtzeit komprimieren muss, beim Abfilmen von der Leinwand, das kann beim Laserabtasten später offline komprimiert werden und hat üblicherweise dadurch eine bessere Qualität. Dieser Aufwand wird aber nur für hochwertige Scans betrieben und ist entsprechend der Technik sehr teuer.
    • Richtig.

      Das Abfilmen einer (einfachen) Leinwand wurde auch eher nur zu Anfangszeiten, oder zur Erstellung von (schlechten) Raubkopien kommerzieller Filme genutzt. Oder eben von Privat, wenn man eigene Super8-Filme selbst "digitalisieren" wollte.

      Zu den hochwertigen Verarbeitungsmethoden habe ich mal einen Filmbericht über die Digitalisierung eines Disney-Zeichentrickfilms (Sleeping Beauty - Dornröschen von 1959) gesehen. Hier fand nach der eigentlichen Digitalisierung eine aufwändige "Säuberung" der Farben statt, die einen wirklich sehr großen Unterschied ausmachte und das digitalisierte Video dann in "neuem Glanz" erstrahlen ließ. Aber sowas ist halt für private Aufnahmen nicht bezahlbar.

      Außerdem muss man auch einmal bedenken, dass Super8 halt nur ca. 1/16 der Fläche eines 35 mm Kinofilms hat. Deshalb schrieb ich ja, dass von Super 8 noch nicht einmal vernünftigen FHD möglich sein dürfte.
      Und im Kino gab es ja auch noch den 70mm-Film, zumindest für teurere Produktionen. Auf Grund der wesentlich höheren Kosten sind die Geräte dafür aber wohl kaum noch anzutreffen.


      Gruß
      Peter
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, RME Fireface 400, Win 10 Pro , EDIUS WG X
    • gurlt schrieb:

      Das ist nur für 16mm und 35mm Film - also für Super8 ungeeignet...
      Und der Preis ist für Hobbyfilmer vielleicht auch etwas zu hoch:
      "Der Nettopreis des Scanners beträgt 26.925 Euro, optional ist das 16mm-Gate für weitere 1.345 Euro zu haben."
      :nw:
      - ASUS Z170-A, INTEL Core i7-6700K, 32 GB DDR4 RAM, GIGABYTE GeForce GTX 1070 8GB GDDR5, SAMSUNG 850 Pro 500-GB, LG-BH16NS55, iiYama E2409HDS
      - WIN-10/64 PRO (20H2), Firefox, WeTransfer, ImageBurn u.a.
      - EDIUS-X-WG, Mercalli, NeatVideo, NB ChromaKeyPro, Audacity, Adobe Photoshop, Cyberlink Power-DVD, Movavi VideoConverter Premium, RESOLVE- Studio-17.0.00009, Adobe InDesign u.a.
    • gurlt schrieb:

      Deshalb schrieb ich ja, dass von Super 8 noch nicht einmal vernünftigen FHD möglich sein dürfte.
      Das geht schon, allerdings mit sichtbaren Filmkorn...
      Man kann das Filmkorn mit bestimmten Tools auch etwas "verschleifen", dann sieht
      es aber eher nach "Seifenoper" aus, der Filmlook geht verloren.
      Servus, Pee
      EDIUS X WG, i9-9900K mit Intel HD-630, 32GB RAM, SSD-System + Diverse FP, NVIDIA GF-RTX 2060 Super 8GB, W10P-WS-V2004, 32" LG PC-Monitor, bis zu 46" HDTV-Vorschau per BM Intensity Pro 4K
    • Pee schrieb:

      Man kann das Filmkorn mit bestimmten Tools auch etwas "verschleifen", dann sieht
      es aber eher nach "Seifenoper" aus,

      gurlt schrieb:

      Deshalb schrieb ich ja, dass von Super 8 noch nicht einmal vernünftigen FHD möglich sein dürfte.
      Machen kann man natürlich viel, nur ist die Frage was es bringt. Der Aufbereitung geringwertigeren Quellmaterials sind einfach mal Grenzen gesetzt. Irgendwo ist dann ein Punkt erreicht, wo es einfach keinen Sinn macht.

      Schau Dir mal einfach einen alten DV-Film in "voller" Schönheit, sprich auf volle Bildschirmgröße aufgeblasen, auf einen der heutigen 75" Smart-TVs oder größer an. Dann wirst Du sicherlich sehr schnell zum Schluss kommen, dass es besser ist die Skalierung des Quellmaterials geringer zu halten und ringsum "Balken" in Kauf zu nehmen.
      So entspricht das gezeigt Bild ja immer noch der Größe eines damals üblichen Röhrenbildschirms.
      ASUS Prime X299-A II, i9-10980XE, 64 GB, Nvidia RTX 2080Ti, RME Fireface 400, Win 10 Pro , EDIUS WG X