Beiträge von Grauer Tiger

    Ich dachte da an Core Ultra 265(K) mit einer 8-GB-MSI-GeForce-RTX-3050. Aber das Teil wird schnell heiß

    Was soll denn da außergewöhnlich heiß werden? Ein Core Ultra 7 wird sogar weniger heiß als die Vor-Generationen und ist mit einem 30,-

    Kühler (Arctic Cooler 36) ohne Probleme zu betreiben.


    Ein AMD Ryzen 9 9900X 12 × 4,40 GHz So.AM5 WOF mit 8GB Grafikkarte und 64 Ram wäre schneller, aber für Qs und Edius nicht so optimal, meine ich.

    Wieso sollte der schneller sein? Und für Edius nicht optimal, das stimmt, wegen des fehlenden QS.

    Bei mir hat diese Einstellung den Nachteil, dass das System beim Hochfahren zunächst eine fehlende Grafikkarte anmeckert (mit Pieptönen). Erst wenn Windows gestartet wird, ist auch der an der PC-Grafik angeschlossene Monitor aktiv. Das hat zur Folge, dass man beim Hochfahren nicht ins BIOS kommt, sondern erst umständlich über einen Neustart mit gedrückter Shift-Taste.

    Dann stimmt etwas an deinem System nicht. Es ist völlig egal, ob die Intel Grafik die primäre oder sekundäre ist. Ein Bild muss immer kommen und QS ist es auch egal ob der Monitor Nr. 1 oder 2 ist.
    Das klappt bei mir seit Edius 6

    Die GTX 1650 hatte ich sogar deaktiviert. Bin gespannt wenn ich sie wieder aktiviere

    Wozu hast du die denn deaktiviert? Die kann doch aktiv bleiben.


    Den Monitor habe ich an dem oberen DVI Eingang angeschlossen. Beim aus- und einstecken sah ich keinen Unterschied. deshalb ist wohl noch etwas fa

    Welchen Unterschied hast du denn erwartet? Beim Ausstecken: Bild schwarz, beim Einstecken Bild da. Oder was meinst du?

    Was soll denn Deiner Meinung nach eine Abweichung von der Standard-GOP in diesem Fall bewirken?

    Und dann gib doch auch bitte konkret vor, auf welche Einstellungen die Struktur Deiner Meinung nach geändert werden sollte.

    Das würde mich auch mal interessieren was das bringen soll :cool:


    Na das GOP-Flickern zu unterdrücken mit mehr Referenz-Frames.

    Von Flickern hat Herbie nichts geschrieben. Er hat ein Tonproblem.

    Es kommt halt darauf an in welcher Bitrate Du die Videos erstellt hats und welche Bitraten die Geräte flüssig abspielen können.

    Ich tippe auch auf eine zu hohe Rate. Bei der letzten Frage habe ich ja schon bemerkt, dass die 125 MB/sec. die Herbie benutzt nur fürs Angucken viel zu hoch ist für manche Abspieler. Bei H265 reicht 75 MB/sec. oder sogar weniger.


    doch eher das Audio, der Film läuft ja ruckfrei.

    Wenn die Bitrate zu hoch ist, ruckt auch das Audio

    War das ein Export nur zum Angucken? Dann halte ich 125 Mbit/s für etwas hoch. Das ergibt eine unnötig große Datei. 75 Mbit/s ist mehr als genug und schon viel.

    Bei einem Z690 würde ich dann aber schon eine RTX 4070, oder sogar RTX 4070TI nehmen.

    (was meinst Du dazu Grauer Tiger ?)

    Ganz deiner Meinung, Peter. Die 4070 und ti liegen allerdings im Moment in einem ungünstigen Preisbereich. Die 5070 12GB ist nur knapp 100,- EUR entfernt, hat dafür 192Bit Anbindung und DDR7 statt 6. Die 4070super ist sogar teurer als die 5070. Da würde ich immer die neuere 5070 nehmen.

    Schließlich ist das eine Investition in künftige Aufträge, wie du schon sehr richtig bemerkt hast.

    Sollte das Budget allerdings so knapp sein, dass 570,- Brutto (wenn man vorsteuerabzugsberechtigt ist, sind es noch 479,- netto) nicht drinsitzen, würde ich lieber ganz auf eine Karte verzichten und eben länger warten bei der Berechnung bevor ich einen Fehlkauf auf dem Gebrauchtmarkt mache.

    Was in meinem Profil steht ist veraltet, der Rechner ist neuer. Recht aktuelle Intel CPU mit Z-690 Mainboard...

    Na dann passt doch eine 5070? Die bekommt man doch auch schnell? Bei gebrauchten Karten weiß man nie, was der Vorbesitzer damit angestellt hat.

    Leider sind die Preise hoch (insb. weil es nur um ein Projekt geht), weshalb ich da gerne Meinungen zur Einschätzung hätte.

    Leider ja. Und wie gurlt sehr richtig feststellte: Auf deinem Board macht schon eine 4000er Karte keinen Sinn, weil sie nur ausgebremst würde vom langsamen PCIe Bus. Dem Tipp mit einer RTX 3000er Karte würde ich mich anschließen, genau wie der Alternativ-Empfehlung dann lieber alles neu zu kaufen (zumindest Board, CPU, Speicher und Grafikkarte).

    Die Core Ultra 7 265k CPUs haben ein sehr gutes Preis-Leistungsverhältnis für Videoschnitt und die Z890 Boards können mit PCIe 5.0 die neuen 5000er Karten voll ausnutzen. Die 5070er liegen mit ca. 550,- EUR im Sweetspot, die 5080er kosten schon das Doppelte, ohne das Doppelte zu leisten. Von den 5060ern würde ich die Finger lassen. Für die Leistung zu teuer.

    hört sich nach einem sehr interessanten Rechner an.

    Da würden mich Deine Erfahrung schon mit dem Gerät schon interessieren.


    Was die CPU betrifft, habe ich mich mit den Ultras noch nicht ausreichend beschäftigt.

    Der i9 wäre aber m.E. auf Grund der 4 E-Kerne mehr und dem größene Cache (36MB statt 30 MB) für den Videoschnitt schon günstiger.


    Für die Beabeitung meines Quellmaterials (BRAW) machen sich eben mehr Kerne deutlich besser und deshalb werde ich wohl auch noch längere Zeit bei meinem Core-X mit 18/36 Kernen/Threads ohne QS bleiben.

    Nun, ich arbeite ja schon länger mit dem Core Ultra 9 285k und kann berichten, dass z.B. 8 UHD Spuren in 25P nativ direkt aus der Kamera (H264, 100 Mbit)

    ruckelfrei laufen. BRAW Aufnahmen aus der BM Pocket 6k 50P 10Bit laufen ruckfrei, wenn das Projekt UHD ist oder in HQX laufen zwei Spuren in 6144 x 3456 Projekten ruckelfrei.

    Bezüglich Lane Sharing dazu: Ich habe in einem Rechner 2 NVME geändert wegen der Größe. Seitdem hängt das System beim Datenzugriff.

    Habe schon einiges versucht, Problem leider bisher nicht lösbar.

    Dass der Datendurchsatz leicht reduziert wird, ist tatsächlich möglich, aber "hängen bleiben" sollte da nichts. Eine Verdoppelung der Berechnungszeit ist ebenfalls ungewöhnlich. Allerdings wird der Vergleich von einem alten 9900k zu einem neuen Core Ultra 7 265k ohnehin besser ausfallen. Ob es da an den Lanes liegt glaube ich nicht, aber du hast mit deiner Wahl eben auch theoretische Fallstricke ausgeschlossen. Allerdings bezieht sich dieses Nicht-Sharing nur auf die Chipsatz Lanes. Die PCIe 5.0 für Grafik und der eine M.2 SSD Anschluss machen sehr wohl Sharing. Viel Spaß mit der neuen Maschine.

    Was meint Ihr? Lohnt sich ein Umstieg oder warten auf 12?

    gurlt hat ja schon sehr ausführlich das Pro und Contra geschildert.

    Aus meiner Erfahrung kann ich nur raten abzuwarten. Ich habe immer wieder Probleme mit urplötzlich defekten Projekten, die sich nicht mehr speichern lassen und damit eigentlich unbrauchbar geworden sind. Öffne ich die gleichen Projekte auf einem anderen PC, sind sie wieder in Ordnung (??)
    Das hängt meiner Meinung nach mit der Baustelle "Bin" zusammen. Die Verknüpfung mit der unsinnigen Mync-Datenbank sorgt auf der einen Seite für ständige Verzögerungen und da die Datenbank wohl öfter Durcheinander produziert, zu angeblich "defekten Projekten".

    Mit Edius X hatte ich trotz 100 Sequenzen pro Projekt nie ein Problem oder Verzögerungen in der Bearbeitung.


    Alle anderen interessanten Boards haben 2x PCIE 5.0 mit Lane sharing. Das wollte ich gerade wegen Neat Video 6.0 vermeiden.

    Ja, aber das mit dem Lanesharing sollte man nicht überbewerten. Wirklich spürbar ist das nicht, wird aber ständig in Foren als "ganz wichtig" aufgebauscht.
    Es hat wohl nie jemand mit der Stoppuhr getestet, wieviel länger eine Encodierung dauert, wenn statt 16 nur 8 Lanes zum Einsatz kommen. Die "Lane-Verfechter" wären enttäuscht, weil sie so gut wie keinen Unterschied feststellen werden.

    der switch bekommt strom vom pc via usb, hier ähnl. Foto, hatten wir mal vor längerer Zeit darüber gesprochen, habe mir dann einen angeschafft mit Fernbedienung.

    Jetzt verstehe ich. Aber auch das geht nicht. Ein USB Anschluss ist keine Strom-Steckdose für beliebige Elektrogeräte. Wenn du das jetzt mit einem Externen Netzteil machst, sollte das hinhauen.

    Was für ein "Switch"? Du meinst ein USB-Hub? Das ist der Kardinalfehler! Man betreibt keine USB-HUBs an einem Produktivsystem. USB Hubs sind die Fehlerquelle Nr.1 bei Störungen. Ein USB Anschluss ist für EIN Gerät gedacht, nicht für 3,4 oder 5. Grenzwertig kann man an einem Hub eine Maus und Tastatur betreiben. Sobald dann noch stromziehende Gräte (Festplatten, USB Sticks, ect.) angeschlossen sind, kommt es zur Überforderung der Schnittstelle, die nur EIN Gerät zuverlässig mit Strom versorgen kann. Besonders wenn die Hubs auch noch eigene Stromversorgungen haben, können diese bei mangelhafter Verarbeitung zu allem Überfluss auch noch Rückströme in den USB Port leiten, der das manchmal nicht überlebt.

    Mync nutze ich nicht. Habe nie verstanden, wozu man das brauchen sollte, wenn man seine Daten strukturiert ablegt. Die Suchfunktion von Windows konnte auch immer schon das alles was ich brauche.

    Für Musik gibt es das Programm "MP3 Tag" (Mp3tag - der universelle Tag Editor (ID3v2, MP4, OGG, FLAC, ...)
    Damit kannst du MP3, WMA, ogg und WAV mit Hinweisen versehen.
    Ich habe alle Titel direkt von Anfang an mit Tags versehen für eine Suche, wie du sie brauchst.
    Man kann in Genre dann z.B. "Country" eintragen und in Kommentar "schnell, langsam, tragend, ect"
    Oder auch alles in Genre "Country langsam". Das kann man individuell machen. Wenn du das konsequent machst,
    brauchst du dann im Windows-Explorer im Suchfeld nur noch eingeben "Country langsam" - und er listet dir alle Titel mit diesem Tag auf.
    Zieh dann den ausgesuchten Titel in die Timeline - fertig.

    Das erfordert allerdings etwas Arbeit, bis man die Titel alle soweit hat. MP3TAG hilft aber sehr gut dabei, weil es online fast alle CDs abfragen und automatisch eintragen kann. In Mync müsstest du ja auch alles händisch eintragen.

    Momentan ist die Nvidia deaktiviert. Aber ich werde es später nochmal testen.

    Ich glaube, hier gibt es ein Missverständnis? Normalerweise muss man die Nvidia Karte nicht deaktivieren um die Intel QS Funktion zu nutzen. Edius sucht sich die Intel Karte schon selbst. Oder verschwindet sonst die Auswahlmöglichkeit beim Export "Hardwarecodierer verwenden"?