Was man(n) alles machen könnte wenn....AVCHD vers. HQ

  • Warum kann man denn nicht nativen Schnitt machen? Diese Intra-Frame Codierung kann man doch intern auflösen. Jede GOP kann doch in 15 Intra-kodierte Bilder aufgelöst werden. Von mir aus auch in 4:2:2 oder 4:4:4. Dann müsste man doch mit mehreren Kernen, wie Du schreibst die Quadranten gleichzeitig dekodieren können. Das daraus gewonnene 4:2:2 kann direkt gemischt und mit Bearbeitungen, wie Blur, Farbkorrektur versehen werden. Dann hat man wieder seine 15 Bilder im internen Speicher und sie können nach AVCHD "übersetzt" werden. Das muss doch technisch machbar sein. Aus meiner Sicht kommt es da nur auf den Puffer und die CPUs an, damit das live passieren kann. Sogar, wenn innerhalb einer GOP nur ein Rechenkern dekodieren kann, kann man x Kerne hintereinander schalten, wo jeder Kern eine GOP auflöst. Hat man 8 Kerne, dann werden nacheinander 8 GOPs aufgelöst und gepuffert. Dann hat man bei 15 Bildern pro GOP 4,8 Sekunden Verzögerung (bei 25Fps) was aber anschließend in Echtzeit weiterläuft, weil immer 8 GOPs zugleich berechnet und gepuffert werden. Wenn man dieses Verfahren perfektioniert, dann kann man mit einer Art Cache vorwärts und rückwärts puffern. Baut man jetzt noch entsprechend RAM-Speicher in den Rechner, kann man mit einem 64bit Betriebssystem entsprechend puffern. Arbeitet man dann noch mit einem relationalen Dateisystem, kann man die jeweils zwischengespeicherten Bereiche passgenau auf der Festplatte zusammenstückeln und hat am Ende einen zu Intraframes fertig kodierten Film auf der Platte. Je mehr Prozessoren benutzt werden, desto weiter reicht mein vorkodierter Puffer, so daß man bei einer genügenden Zahl von Prozessoren der Live-Darstellung sogar schneller vorauseilen kann, als live abgespielt wird.


    Das wäre ein hochprofessionelles System, welches aufgrund seiner Kosten für CPUs, RAM und Mainboard im Semiprofibereich kaum Abnehmer finden könnte. Welches aber nach 4,8 Sekunden Livestatus erreichen könnte.


    Kombiniert man obiges mit GPU-Effekten und Bildberechnungen (Filtern) , dann hätte man die ideale AVCHD-Live-Schnitt-Kombination.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    Einmal editiert, zuletzt von Grass Valley Moderator 2 ()

  • Die Farbraumbeschränkung der GPUs hat TGV doch angeblich gerade mit seinen GPU-Effekten aufgehoben. D.h. 4:2:2 ist doch schon TGV-Standard. Das Bild muss, wenn es zu viele Daten werden, einfach in Quadranten geteilt werden und den Prozessoren zur Verarbeitung übergeben werden. Ist die Aufteilung in Quadranten nicht möglich, dann kann man mit dem zuvor beschriebenen Puffer arbeiten, der dann 4,8 Sekunden braucht, um vollzulaufen. Notfalls kann man über eine zweite, dritte oder vierte Grafikarte per Crossfire abwechselnd bildweise die Übergänge und Titel einblenden und berechnen. Die Bitmaps brauchen ja dann nur einfach 1:1 in die 4:4:4 Farbauflösung als zusätzliche Daten übergeben werden. Zwei Bitmaps miteinander zu verknüpfen ist ja heutzutage Standard. Das sind dann einfach zwei volle Bilder oder Quadranten, die übereinander gelegt werden.


    Noch ein bischen zur Technik. Bei Steinberg im Audiobereich arbeitet man mit Floating Point. Dieses Verfahren könnte man sich bei der Bildmischung ebenfalls zu Nutze machen, um keine Überläufe zu erhalten und die Qualität hoch zu halten.


    Die benötigten Berechnungen braucht man nicht erst zu starten, wenn jemand auf den Play-Knopf drückt, sondern man kann schon beim Drag and Drop des Titels oder des Übergangs mit den Berechnungen und der Befüllung des Pufferbereichs starten. Das hat dann mit der kleinen Startverzögerung von rund 5 Sekunden anschließend Echtzeitqualitäten.


    Auch kann weiter getrickst werden, wenn man davon ausgeht, daß normalerweise, wenn ein Effekt auf einen Clip gezogen wird, nicht von der derzeitigen Position des Cursors gestartet wird, sondern ab Effektbeginn oder ein, zwei Sekunden vorher. Dazu bedarf es einer Software, die "mitdenkt".


    Datenmengen und Vollbild? Die heutigen Server-Boards arbeiten schon mit Quad-Channel. Das ist natürlich das Manko der Consumer-Boards, die einfach oder höchstens Dual-Channel besitzen.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    Einmal editiert, zuletzt von homer ()