Kann Edius über Windows seine 8 Tonkanäle ausgeben, wenn die Soundkarte entsprechend viele hat? (Ist Edius MIDI-Controller-steuerbar?)

  • Folgender Hintergrund: Ich habe ein DSP-Audio-System mit flexibler Verdrahtung (Software), die sowohl mehrfache Windows-Wav-Kanäle unterstützt als auch MIDI-Daten senden und empfangen kann. Es handelt sich um eine ScopeFusionPlatform von SonicCore.


    Wie in Bild Routing zu sehen, könnte ich, wenn Edius die 8 Tonkanäle in irgendeiner Form softwaremäßig ausgibt (wave-Source, ASIO, wave-Interleaved, ...) das Edius-Routing direkt in mein DSP-System übernehmen, digital mit Effekten versehen und digital abmischen. (Bild: Routing)


    Weiter interessiert mich, da Edius über BehringerController oder JD-Controller steuerbar ist, ob das per MIDI-Controller funktioniert. Dann könnte ich ebenfalls mein DSP-System dazu nutzen die Controllerdaten mit Lautstärke und Panorama über meine Steueroberfläche zu steuern. Dazu wäre es wiederum notwendig, daß Edius auch im Hintergrund weiter laufen würde, wenn eine andere Anwendung den Focus hat, damit das DSP-System die Steuerdaten per Maus erzeugen kann, um sie in Edius zu nutzen. (Bild: Mischung)


    Gibt es zur Controllingdatenverarbeitung von Edius irgendwelche White-Papers oder Anleitungen? Gibt es zu den softwaremäßigen Audio-Schnittstellen (DirectX, DirectSound, Windows, VST) von Edius Infos, um ein solches von mir angedachtes System zu impementieren?

  • Hi Markus,


    das wird wohl ein feuchter Traum bleiben schätze ich. Das Edius keine ASIO Unterstützung hat weisst Du doch, und Edius läuft auch nicht weiter wenn es den Focus verliert, wie auch die nötigen Audioanwendungen


    wie Cubase. Und auch wenn Du einen shared Konfig bzgl. des Asiotreibers in Cubase einstellst wird davon immer abgeraten, weil das nie ohne Komplikationen funktioniert.

    ################################################
    #### Ciao und Servus
    #### Armin


    HD Storm Plus -- Win7 64bit Ultimate -- CPU i7 920 -- GigaByte GA-EX58-UD4P -- 15 GB G-Skill Ram -- Asus GTX280 -- Yamaha N12 -- Blu-Ray LG BH08LS20 --
    Sony HXR-NX5E -- Sony HDR XR-500 -- Nikon D7000 -- HD-Vorschau Monitor-LG FLATRON W2261 VP -- SD-Vorschau Monitor-Sony PVM-14M2E

  • Irgendwie mag ich die Hoffnung nicht aufgeben, daß GV es irgendwann schafft Edius weiterlaufen zu lassen, um einerseits Soundcards bei laufendem Edius einstellen zu können und andererseits z.B. die MIDI-Controllerdaten per Sequenzer/Controller an Edius übergeben zu können, wie es derzeit nur Behringer und JC können. (Ich befürchte fast die haben Exklusivverträge, wie hier der Deckel auf dem Topf gehalten wird.)


    Wenn windowskonform mal die Audiostreams (jetzt haben wir ja endlich die 8Kanäle, die wir uns doch schon lange gewünscht haben) nicht nur an die HD Spark gehen würden (da sie über HDMI doch so gut, wie keiner nutzen kann), sondern auch über Windows an Soundcards, wie es heutzutage schon etliche (Motu, RME-Audio, Digidesign, M-Audio, ... ) mit 6-10 Kanal gibt.


    Es ist doch Quatsch, wenn ich 8Kanal Audio an die HD Spark leite, aber so gut, wie kein Gerät diese 8Kanal PCM unterstützt, aber das, was heute sehr viele zuhause haben (eine gute Soundcard) nicht unterstützt wird. Das mag ja sein, daß Edius niemals als ASIO arbeiten kann, aber dann sollen wenigstens die Streams umbiegbar z.B. RTAS oder Windows mehrfach Stereo-Ausgänge nutzen. So könnte ich den Ton direkt in meiner DSP-Karte verarbeiten.


    Zumal Edius hat doch schon diese "Hinkebeinstruktur" der Stereokanalbündelung (3 Stereo-Kanäle für 5.1). Da wäre es doch nur konsequent diese auch so nach Außen zu geben. Könnte ich die 3 oder 4 Stereo-Kanäle so abgreifen, hätte ich über mein virtuelles Mischpult mit Surround-Panner eine komfortable Steuerung und DSP-Effekte noch dazu.


    Auch für viele Andere wäre es eine prima Möglichkeit diskrete 6 Kanäle über eine Soundkarte abzuhören, da es viele AV-Receiver gibt, die L R C LFE LS RS Eingänge haben. Damit kann man ohne DolbyDigital-Wandlung direkt Probehören (in Echtzeit), wenn GV doch endlich den Schritt machen würde.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Homer,
    merkst du eigentlich, dass du hier wesentliche Eigenschaften von Audioanwendungen auffährst um EDIUS daran zu messen? Da ist nun wirklich Quatsch!
    Wenn du Audiogeräte und Filmmaterial synchronisieren willst, so empfehle ich dir mal einen Blick in Nuendo reinzuwerfen. Wenn du damit fertig bist, wirst du wahracheinlich im Steinberg Forum rumnörgeln, dass Nuendo nicht vernünftig cutten kann.
    Ich bin nicht innovationsfeindlich, denn eine vernünftige Audioschnittstelle wie z.B. ein ASIO Interface würde ich mir auch wünschen. Aber gehe einfach davon aus, dass Edius keine Audioanwendung ist und damit seinen Fokus nicht auf Audiofunktionen richten wird und ganz sicherlich keine Audioanwendung wird.
    In EDIUS geht es um andere Fragen! Nämlich, dass angeschlossene AV Peripherie synchron und in Echtzeit gesteuert wird.
    Da ist es wichtig, dass ein Black Burst Signal richtig interpretiert wird. MIDI macht bei NLE nun wirklich relativ wenig Sinn.


    Die Engine müsste derart brachial verändert werden um etwas zu integrieren, was dann in etwa geschätzte 0,01Prozent der User nutzen würden.
    Weisst du eigentlich, wie schwer es ist, vernünftige Echtzeitsysteme zu programmieren? Bei Betriebssystemen wie LINUX ist das eine ganz eigene Disziplin.


    Homer, denkst du eigentlich manchmal auch darüber nach, wie sinnvoll deine Ergüsse so sind?
    Ich meine nur, resultiert dieser Thread aus einem echten Bedarf heraus oder sind das Fragen eines Technikjunkies, der nur mal wieder wissen will, was geht?


    Jim

  • Homer,
    merkst du eigentlich, dass du hier wesentliche Eigenschaften von Audioanwendungen auffährst um EDIUS daran zu messen? Da ist nun wirklich Quatsch!
    Wenn du Audiogeräte und Filmmaterial synchronisieren willst, so empfehle ich dir mal einen Blick in Nuendo reinzuwerfen. Wenn du damit fertig bist, wirst du wahracheinlich im Steinberg Forum rumnörgeln, dass Nuendo nicht vernünftig cutten kann.



    Als Quatsch kann man das nun wirklich nicht abtun. Manch andere Videoschnittprogramme können vernünftiges Audiorouting via ASIO oder Mehrkanal-WDM.
    Und das EDIUS im Bereich Audio eine ganze Menge nachzuholen hat ist auch ein offenes Geheimnis.
    Es geht hier denke ich auch nicht darum, irgendwelche selten genutzte Wunschfunktionen in EDIUS zu implementieren, sondern die bestehenden Funktionen (Mehrkanal Audio, unter EDIUS 6 mit bis zu 16 Kanälen!) vernünftig nutzbar zu machen.

  • Hallo Gavin!


    Da hast du mich leider im falschen Kontext zitiert!
    Ich habe in meinem Posting auch erwähnt, dass ich mir eine ASIO Schnittstelle wünschen würde, über die es möglich wäre, die entsprechenden Audiokanäle zu routen!
    Auch die Möglichkeit, z.B 5.1-Audio-Streams auszugeben ist nicht gerade intuitiv gelöst!
    Ich streite überhaupt nicht ab, dass EDIUS im Audiobereich etwas nachzuholen hätte, aber warum nun ausgerechnet MIDI?
    Sorry, die Verständnisebene erreiche ich einfach nicht!


    Homers merkwürdigen Wünsche lassen leider oftmals Praxis- und Realitätsnähe vermissen.
    So würde ich mich doch sehr darüber freuen, wenn konkrete und sinnvolle Aspekte benannt würden, die auch greifbar sind.
    MIDI isses jedenfalls nicht!


    Jim

  • Ich arbeite unter anderem mit Nuendo4 und möchte es nicht zur Schnittapplikation erweitern :D , bin da ganz Gavin's Meinung.


    Ich habe keine Ahnung, wie die Kommunikation zwischen Behringer BC2000 und Edius6 funktioniert. Ob das Midi oder Mackie HUI oder was für ein Protokoll das ist. Ich bin nur davon ausgegangen, daß MIDI eine der einfachsten Möglichkeiten ist. Statuswort + Controllernummer + Wert. Deswegen mein Ausflug zu MIDI. Wenn sie das Euphonix Protokoll für ein "MC Controll V2" unterstützen würden, wäre ich dem auch nicht abgeneigt gegenüber. Und das ist eine andere "Zubehör"-Klasse als Behringer und JCooper.


    Was die Ein- und Ausgänge angeht, ist es nun kein Zauberwerk 6 Audiokanäle als Stream über WDM rauszuführen. Das macht jede AudioWorkstation mit 20-100 Kanälen. Premiere unterstützt übrigens WDM/ASIO (seit ich glaub Premiere Pro).


    Wenn man auf der anderen Seite sieht in welcher Liga GV spielt (RoboterCameras, KayenneSwitch, AuroraProductionsystem), dürfte ein Windows-Audio-Routing von 6 oder 8 Audiokanälen ehr Peanuts sein. Das Edius nicht nur Schnittsystem ist, zeigt wohl der integrierte Audiomixer für Voiceover (mit Latch, Touch, ...) . Und ich sag mal, was reingeht, sollte auch wieder rauskommen (Ton). Wobei der von mir angestrebte Weg über 3Stereo-Wege als 5.1 doch kaum was anderes ist als wie es doch offensichtlich in Edius vorliegt. Das ich mit meinem DSP-System noch ein bischen "Bunte Verpackung" drumrum habe, ist unerheblich. Die Ausgänge wären auch für andere "Amateurschnipsler" von Vorteil, die eine Audiokarte, wie Fireface, Multiface, Motu828MK3, M-Audio ProFire 2626, FOCUSRITE Saffire PRO 24 DSP, Presonus FireStudio Project oder ähnliches betreiben möchten und eine AVCHD-Kamera mit 5.1 Sound besitzen.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Hi Markus,


    ok, Du wünscht Dir was von der Audiosektion. Kannst Du mir bitte erklären wie Dich das in Deiner Praxis weiterbringt, und was dann hinten rauskommen soll ?

    ################################################
    #### Ciao und Servus
    #### Armin


    HD Storm Plus -- Win7 64bit Ultimate -- CPU i7 920 -- GigaByte GA-EX58-UD4P -- 15 GB G-Skill Ram -- Asus GTX280 -- Yamaha N12 -- Blu-Ray LG BH08LS20 --
    Sony HXR-NX5E -- Sony HDR XR-500 -- Nikon D7000 -- HD-Vorschau Monitor-LG FLATRON W2261 VP -- SD-Vorschau Monitor-Sony PVM-14M2E

  • Hmmm ...


    also ich schiebe MIDI-Streams über meinen Büro-PC und dem guten alten Cubasis AV an mein Keyboard raus und nehme das Stereo-Audio dann mit dem Schnittrechner auf. In einfachen bzw. schnellen Fällen direkt mit der Voice-Over Funktion in die Timeline resp. Bin.


    Ich wüsste nicht, wozu ich irgendeine MIDI-Funktion in Edius benötigen würde.



    Viele Grüße
    Peter

  • Mistral:
    Also von der Audio-Sektion erwarte ich, daß ich Audio abhören kann und zwar live. Edius splittet doch intern den DolbyDigital5.1 Stream intern auf 3 Stereokanäle auf. Diese Kanäle sollten meiner Meinung nach auch über eine Audiokarte, die genügend Audioausgänge hat auch über diese zur Beurteilung des Tons nach außen gegeben werden, so daß man die 6 einzelnen Kanäle einzeln über z.B. seinen AV-Receiver oder aktive Studiomonitorboxen probehören kann ohne den Film erst neu mit einer DolbyDigitalspur kodieren zu müssen.


    Unterlegt man sein Video mit den gesplitteten 5.1 Sound zusätzlich mit Hintergrundmusik, dann kann diese ja Stereo oder sogar 2xStereo über Edius auf die entsprechenden L R SR SL-Kanäle geroutet und per Edius-Mixer in der Lautstärke eingestellt werden. Heraus kommt das Mischsignal zwischen Video und Hintergrundmusik. Das erwarte ich, soll ohne erst ein DD kodieren zu müssen direkt an 6 Lautsprechern (pro Audiokanal diskret/einzeln) abhörbar sein, damit ich das Mischungsverhältnis direkt probehören kann, ohne eine DVD/BD oder die "Keksdose" mit einem fertigen Film (Video + DD-Audio) beschicken zu müssen.


    Das war jetzt der einfache Fall, den man genau so gut noch um einen Audiokommentar erweitern kann, der dann an den Center Kanal und anteilig an L R geschickt werden soll (wieder direkt abhörbar zu O-Ton und Hintergrundmusik). Im Grunde ist das ja nur die Ausgabe des Routings, wie es ja intern in Edius ja schon besteht. Nur, daß es über die Soundkarte direkt abhörbar ist.


    Irgendwie sollte also das Audio live aus Edius herauskommen. Da bietet sich dann nun mal an eine vorhandene Spezifikation, wie ASIO oder WDM dafür zu nutzen. Technisch böte sich auch der 8Kanal ADAT-Standard an, um den Ton diskret/pro Kanal auszugeben, ist aber dann doch auch aus meiner Sicht zu speziell, so daß ich Abstriche mache und mit ASIO zufrieden bin, wie es andere Schnittapplikationen auch nutzen. Auch sehe ich von einer Implementation von DolbyLive, wie es für Spiele für die live-Dolby-Codierung benutzt werden kann ab, da die Kodierung unnötige Resourcen beanspruchen würde, die Edius besser zugute kommen. (Ich weiß schon, was es für Möglichkeiten gibt, wenn man über den Tellerrand schaut.)


    Durch Nutzung der Standard-Schnittstellen, wie ASIO wäre es z.B. möglich (anders als z.B. ein Powercore-DSP-System, welches nur als VST-Effekt eine VST-Schnittstelle voraussetzt,) meine ScopeFusionPlattform (SFP) für erweiterte Live-Tonbearbeitung einzusetzen, ohne auf Nuendo zurückgreifen zu müssen. Die SFP kann sowohl den O-Ton, wie auch Kommentar und Hintergrundmusik live "aufmöbeln" (EQ, DeEsser, Compressor, Gate, Chorus, Modulation, Optimizer, Finalizer). Läuft das live, spart man sich den Export aus Edius in Nuendo, AAF-Ausgabe aus Edius, Import in Nuendo, Bearbeitung in Nuendo, Export aus Nuendo, Import in Edius. Und wer weiß, was da alles schiefgehen kann? Übrigens bietet AAF nur 16bit Ton, auch, wenn auf der einen oder anderen Plattform 24bit Ton zur Verfügung steht, was beim BD-Authoring denke ich , nicht unerheblich ist. Auch muss für das ganze AAF-Im-und Export-Verfahren erstmal ein Workflow erlernt werden oder sich entwickeln, was auch Aufwand ist. Qualitätsmäßig dürften die SFP-DSP-Effekte hardwarebedingt die mitgelieferten VSTs übertreffen.


    Durch die Schnittstellenunterstützung von ASIO kann ich das Audiosignal digital routen und benötige keine Analogverbindung zwischen HD Spark Audio RL und Audio-DSP-Karte, um das Audiosignal zu monitoren oder zu veredeln. Zumal dieses Audiosignal dann auch nur stereo hereinkommt.


    PeterC:
    Natürlich möchte ich keine Musik per MIDI-Stream in Edius aufzeichnen. Ich möchte nur eine einfache allgemeine Automationsmöglichkeit für externe Controller, so daß man nicht auf 2 Hersteller (Behringer und JCooper) beschränkt ist. Da der Markt für derartige Controller breit gefächert ist, sollte wenigstens ein allgemein gängiger Standard gewählt werden, wie ihn Mackie-Controller, DigiDesign-Controller, Fostex-Controller, Tascam Controller, ... unterstützen. Diese alle bieten die benötigten Fader, Potis und JogShuttles, die für das Editing sinnvoll sind. Hier werden wir unnötig "an der Leine geführt".


    Das mit dem MIDI war einfach nur zur komfortableren Steuerung über die Surroundpanner meines DSP-Systems gedacht, weil MIDI-Controller relativ einfach zur Steuerung dienen können, weil sie wenig Infos verschicken (Controllernummer + Wert). Mein DSP-System ist in der Lage für die internen Mischpulte die entsprechenden MIDI-Controller-Daten zu senden und zu empfangen, was eine Steuerung der 3Stereo-Spuren per Routing über einen SurroundPanner meines Systems sehr komfortabel machen würde. Wenn Edius die bisher offiziell genutzten externen Controller nicht als MIDI-Controller abfragt, muss sowas natürlich nicht eingebaut werden, obwohl es eine relativ einfache Implementation wäre im Gegensatz zu anderen Protokollen.


    @All: Ich hoffe jetzt meinen Standpunkt einigermaßen verdeutlicht zu haben. Ich habe oft den Eindruck, daß Audiowelt und Videowelt zwei Parallelwelten sind, wo einer vom anderen nichts lernen möchte.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Ja das dachte ich mir schon, aber noch mal... was bringts Dir wenn Du den Surround Ton live abhören und mit DSPs aufmöbeln kannst. Dann müsstest Du die DSP-Effekte erst noch in die Audiospuren einrechnen, mit Surround Pannern im Raum plazieren und dann Video und Ton mit einem 5.1 Encoder exportieren, wenn das auf DVD soll. So ein Workflow wäre aus meiner Sicht denkbar und sinvoll. Aber jeder hält was anderes für sinnvoll, ist wie mit die Geschmäcker :D
    Im professionellen Umfeld macht keiner alles mit einem Tool, weil solche Allrounder ( wenn es sie geben würde ) immer mit Limitierungen zu kämpfen hätte. Deswegen gibts ja für Vertonung Spezialisten wie Nuendo. Ein weitere Grund mag sein das der Cutter in der Regel kein Ton.Ing. und umgekehrt.

    ################################################
    #### Ciao und Servus
    #### Armin


    HD Storm Plus -- Win7 64bit Ultimate -- CPU i7 920 -- GigaByte GA-EX58-UD4P -- 15 GB G-Skill Ram -- Asus GTX280 -- Yamaha N12 -- Blu-Ray LG BH08LS20 --
    Sony HXR-NX5E -- Sony HDR XR-500 -- Nikon D7000 -- HD-Vorschau Monitor-LG FLATRON W2261 VP -- SD-Vorschau Monitor-Sony PVM-14M2E

  • Hallo Homer,


    entschuldige bitte meine Frage, nur für mein Verständnis:


    Filmst Du eigentlich zwischendurch auch mal ?


    Bei den Mengen an technischen Randspielerein, die Du ständig angehst, würde ich wahrscheinlich gar keine Zeit mehr finden, eine Kamera anzufassen.
    Es ist nicht böse gemeint, es überwältigt mich nur ein wenig, wie man es schafft, Beruf, Familie und Hobby unter einen Hut zu bringen, wenn man sich so tief wie Du in diese Randforderungen einarbeitet und dabei auch noch kreativ arbeiten (Filmen, schneiden, vertonen) will.


    Viele Grüße
    Peter

  • Im einfachsten Fall, wenn Edius auch zeitgleich im Hintergrund weiterarbeiten würde, könnte man ein Miniprojekt in Cubase/Nuendo starten, um die Livemischung aus Edius heraus (mit DSP-Karte zu verfeinern und) Probe zu hören und in einer 5.1 Spur aufzeichnen. Dann hat man den Ton schon einmal probegehört und gleichzeitig die Mischung konserviert. Die gewonnene Spur braucht dann einfach nur in Edius als Summe importiert werden und kann für die Filmausgabe genutzt werden ohne mit AAF oder anderen Sachen hin und her zu jonglieren. Aus Edius heraus kann dann die Filmausgabe mit Tonwandlung in DolbyDigital erfolgen.


    Selbst, wenn man nichts mit DSP verändern möchte, wäre ein Live-Probehören der Ediusmischung sinnvoll. Wenn die Mischung gefällt, dann wird der Film mit dieser Mischung als Film exportiert. Nur muss die Mischung erstmal live hörbar sein, um sie zu beurteilen. Wenn was noch nicht stimmt, dann braucht man es erst garnicht als DolbyDigital rausrechnen. Das alleine spart doch schon innerhalb von Edius Zeit.


    Um es aber live abhören zu können, ist eine Audioausgabe in Mehrkanal notwendig. Baut man die ein, ist es wiederum sinnvoll die Tonübergabe in ASIO/Multi WDM zu machen.


    Ist man erstmal so weit, daß die Live-Mehrkanal-Tonausgabe implementiert ist, dann ist es mein Privatvergnügen, was ich mit der ASIO/Multi WDM Schnittstelle anfange. Aber ich habe erstmal eine Zugriffsmöglichkeit den Ton abzugreifen.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Peter: Nein, ich filme allgemein recht wenig. Hauptsächlich filme ich auch im Sommer. Ich höre aber gerne Musik in bester Tonqualität in höchster Brillianz. Das gibt mir die Möglichkeit mir Gedanken über sinnvolle Erweiterungen in Sachen Videobearbeitung und Videoerlebnis über audiophilen Ton zu machen.


    Die meisten Filmer sind Filmer, die ihre Filme als Hobby für Zuhause filmen und das ganze dann schneiden. Sie sind froh, wenn der Film hinterher auf dem Fernseher vor der Familie vorführbar ist. Ein anderer Teil ist Profi und auf den "festgefahrenen" Workflow mit dem Im- und Export in Schnitt- und Tonapplikationen bewandert. Die sagen: Das war so, das ist so und hat sich bewährt. Ich möchte aber die Möglichkeiten vorantreiben, damit das "Umfeld zur kreativen Gestaltung" verbessert wird. Ich sage es mal so: Andere hier beschäftigen sich mit 3D-Video/3D-Kameras/3D-Schnitt. Warum sollte man nicht auch den Ton und das Tonerlebnis für diejenigen, die 3D hören möchten, verbessern? Es haben sicherlich mehr Leute eine Surround-Sound-Anlage als einen 3D-Fernseher.


    Nichts gegen ältere Leute, aber die Tonwahrnehmung nimmt im Alter ab. Man hört nicht mehr so die Höhen, die zur Ortung der Richtung für einen Ton wichtig sind. Der Ton verliert an Brillianz. Ich mache täglich die Erfahrung, was es für ein Unterschied macht, wenn man den Ton aus einem Küchenradio hört oder aus einer Studio-Monitor-Box. Da liegen Welten zwischen. Für wen das keinen Unterschied macht, der braucht natürlich keine Tonoptimierungen betreiben.


    So wie ich das bisher mitbekommen habe, ist ein großer Teil der Videofilmer ein Seniorenkreis, für den das aus natürlichen Gründen keine große Rolle spielt.(Das war jetzt weder böse noch persönlich gemeint.)

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Hi Homer,


    alles klar. Dann kann ich es so ein bisschen einschätzen.


    Ich dürfte mit meinem Alter von 45 Jahren wohl zum Mittelfeld zu rechnen sein.


    Mein Maßstab an die Tonqualität ist sicherlich nicht mir denen eines Musikstudios zu vergleichen.


    Mein Maßstab ist eher so, dass ich zufrieden bin, wenn ich bei Vorführungen meiner Filme vor größerem Publikum, das nicht zur Familie gehört, regelmäßig ein Lob für die Tonqualität ausgesprochen bekomme.


    Solange ich dies mit den Edius Bordmitteln und der bisher vorhandenen Tools erreiche, ist mein Anspruch an den Ton meiner Filme erreicht.



    Der nächste Anspruch wäre vielleicht, welche Anforderungen die Fernsehsender an den Ton stellen.
    Denn das ist das, was der normale Zuschauer kennt und woran er meine Filme misst.



    Also durchaus eine etwas andere Betrachtungsweise als Deine.


    Aber das macht ja nichts. Wenn Du Dich in die Tiefen der maximalen Technik vertiefst und hier berichtest, können wir ja nur davon profitieren ... :)
    (Hoffe ich zumindest.)


    Viele Grüße
    Peter

  • Der nächste Anspruch wäre vielleicht, welche Anforderungen die Fernsehsender an den Ton stellen.
    Denn das ist das, was der normale Zuschauer kennt und woran er meine Filme misst.

    Das dürfte auch unterschiedlich sein. Geht man von einem ARD-Tatort aus, da sieht man regelmäßig, daß dieser in DolbySurround oder DolbyDigital produziert wird.
    Schaut man auf ARD-Ratgeber, dann ist es wahrscheinlich nur normal Stereo. So sind selbst beim Fernsehen unterschiedliche Ansprüche. Aber wenn Profis auch Edius nutzen, dann sollten die Profiaspekte auch Berücksichtigung finden. Das Problem mag doch auch sein, daß der Proficutter mit AVID MC und ProTools oder sonst was schneidet, den allgemeinen AFF-Workflow nutzt und sich über andere Integration gar keine Gedanken macht. "Business as usual".


    Bezüglich der ALL in One-Lösungen kann man bei mir ja nicht von einem Programm sprechen, denn was andere mit Im- und Export machen soll bei mir ja auch in spezialisierten Anwendungen laufen, nur, daß ich keine extra Arbeit mit Im- und Export habe, sondern sozusagen den Workflow von einer Anwendung in die andere hinein automatisieren möchte. Wie man an der SFP-Oberfläche erkennen kann, kann alles flexibel verdrahtet werden. Dazu braucht es aber allgemeiner Schnittstellen, um Übergabe und Übernahme durchführen zu können. (Außer AAF und Dateischieberei.) Heutige Workstations haben die CPU-Power mit 8 oder 12 echten Cores und Grafikkarten mit GPU und DSP-Audiosystemen das alles in einem Gerät zu managen. Da fehlen einigen Managern noch ein bischen die Zukunftsvisionen. Na ja, das ist verständlich, wo sie keine Ahnung von Technik haben und immer auf einen Soufleur angewiesen sind, der ihnen die Neuesten Trends und technischen Möglichkeiten vorsagt.


    Wer sich beispielsweise mit Linux- oder Unix-Betriebssystemen auskennt, kennt auch die sogenannte Pipe. Da werden per Batch vom einen Programm z.B. Listen der Dateien generiert, die dann wiederum über diese Pipe mp3-Dateien wandeln kann. Als Ziel sehe ich dementsprechend auch einen ineinandergreifenden Prozess, der die Vorteile eines jeden Systems (Edius/SFP/Cubase) nutzt und über allgemeine Schnittstellen, die ja schon mit ASIO/WDM existieren, verbindet. Das soll Hand in Hand funktionieren, wie es früher mit Edius4 und Procoder3 funktioniert hat. Jeder Spezialist auf seinem Gebiet und zusammen "unschlagbar". Sowas ist Integration (wovon GV inzwischen ja abgerückt ist. Procoder3 ist ja inzwischen im Wachkoma).

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5