Grafikkarten-Kaufberatung "sapphire_radeon_hd_5770_flex"

  • Hallo Forum,


    meine Grafikkarte hat es wohl zerlegt. Schon beim Hochfahren noch im DOS-Modus kommen lange senkrechte Gitterlinien auf den Bildschirm, der zweite Monitor spricht gar nicht mehr an und mein NVIDIA-Icon hat sich automatisch vom Desktop insofern verabschiedet, dass es zwar nicht gelöscht ist, aber das bisherige grüne NDIVIA-Logo ist nicht mehr existent und somit existiert nur noch ein mehr oder weniger ausgegrauter Bereich. Auch das Aufspielen des neusten Treiber für meine EVGA Grafikkarte nVidia GeForce 8800GTS 640MB DDR3 320BIT PCI-E DUAL-DVI TVO brachte keine Abhilfe. Die Auflösung hat sich automatisch auf furchtbare 1280 x 1024 Pixel verstellt und das ist auch die derzeit max. einstellbare Auflösung.


    Insofern liebäugel ich jetzt mit einer neuen Karte und dazu brauche ich Eure Erfahrung und Hilfe.


    Da ich neben zwei 24"-TFTs auch noch einen 32"-Full-HD-TV betreibe habe ich ein Auge auf die Sapphire HD5770 FLEX geworfen. Ist das wirklich die einzige derzeitige auf dem Markt erhältliche Grafikkarte, an welche man über zwei DVI- und einen HDMI-Eingang drei Monitore gleichzeitig ohne Displayport anschließen kann? Das wäre für meine Hardware optimal, denn so könnte ich die beiden 24"-TFTs über die DVI-Ports und den Full-HD-TV über den HDMI-Anschluss (kein Mini-HDMI-Port und insofern entfällt auch ein weiterer i. d. R. nicht beim Kauf beiliegender Adapter), an dem ohnehin 1080 P anliegt, gleichzeitig ansteuern. Nun sagt der verlinkte vorgen. Bericht ja auch u. a. aus, dass 3 Monitore bei einer Auflösung von 1900 x 1200 Pixel überfordert wären (oder habe ich falsch gelesen und jene Überforderung tritt erst bei 4 x 1900 x 1200 und noch nicht bei 3 x 1900 x 1200 auf und dies auch nur beim Gamen?!?). Insofern habe ich jetzt einige Fragen an Euch:


    1. Da ich absolut kein Gamer bin würde mich interessieren, inwieweit bei meiner '2x24"+1x32"-Wunschkonfiguration'
    a) für Office-Arbeit
    b) für Videoschnitt
    hierbei die anvisierte 1900x1200er Auflösung hinderlich sein könnte?


    2. Meine alte Grafikkarte (8800 GTS) hatte zwar nur 640 MB Speicher, aber aber ein 320-Bit-Speicher-Interface. Die sapphire_radeon_hd_5770_flex besitzt dagegen lediglich 128 Bit, ergo ergibt sich auch eine geringere Beschleunigung von Grafikdarstellungen. Durch das von 320 auf 128 Bit verengte Speicher-Interfacedürfte die für die Leistung in hohen Auflösungen und bei aktivierter Kantenglättung um die wichtige Speicherbandbreite von etwa 144 auf ca. 57,6 GByte/s sinken ("a 320-bit card will take on better graphics data loads compared to a 128-bit card."). Und damit verlangsamt sich ja so einiges. Ist das auch für den Videoschnitt z. B. bei aufwändigen HD-Projekten relevant oder betrifft so etwas lediglich die Gamer-Fraktion, der ich ja nicht angehöre?!?


    3. Kann ich in mein GigaByte-Mainboard (s. Profil), in dem bisher ein NVIDIA-Grafikchipsatz sein Unwesen trieb, nun aufsolch einen ATI-Chipsatz problemlos umsteigen oder gefährdet das die Kompatibilität? Letzteres auch hinsichtlich meiner EDIUS-Videoschnittkarte.


    4. Kennt jemand von Euch eine Grafikkarte, an die man ebenfalls ohne Displayportdrei Monitore gleichzeitig betreiben kann, die über ein mind. 256 Bit großes Speicher-Interface und mind. 1024 MB Speicher verfügt und zudem womöglich noch einen NVIDIA-Chipsatz implementiert hat?



    Besten Dank für Euer (abendliches?) Feed-Back!

    Gruß :thumbup:


    Louca




    P. S.: Ich muß mich bei dem Streß hier jetzt aber wirklich auch einmal um's leibliche Wohl kümmern...




    "Sollten Ihnen meine Aussagen zu klar gewesen sein, dann müssen Sie mich missverstanden haben" (Alan Greenspan)

    11 Mal editiert, zuletzt von Louca ()

  • Mit mehreren Ausgängen (z.B. 4) hat Matrox Grafikkarten. Allerdings mit eigenen Chipsätzen, also weder ATI noch NVIDIA.


    /edit: Ich habe gerade nochmal bei denen auf der Seite geschaut. Die kann man wohl doch vergessen, denn sogar bei 4 DVI-Ports haben die nur immer 128 oder 256 MB RAM. (Ich glaub da kann man froh sein, wenn Word in 16 Farben läuft oder so. Bei dem bischen Speicher und dann noch für 4 Ausgänge). Ich glaub Edius hat da schon größere Anforderungen an die Grafikkarte (Speichermenge und Grafikstandard OpenGL2 oder so.) Mich wundert, daß die NLEs herstellen, bei den "Spargrafikkarten".

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    Einmal editiert, zuletzt von homer ()

  • Karten mit der gewünschten Anschlusskonfiguration gibt es doch wirklich wie Sand am Meer sowohl mit AMD/ATI Chipsatz als auch mit Nvidia Chipsatz und in allen Preisklassen. Im Zweifelsfall würde ich es auch nicht von einem Adapter abhängig machen, sowohl Displayport als auch Mini-HDMI lassen sich mit billigen passiven Adaptern anpassen, bzw. der Mini-HDMI auf HDMI-Adapter liegt eigentlich immer bei.


    Eine Übersicht der Leistung aktueller und älterer Grafikkartenchipsätze kann man hier abrufen:


    http://www.3dchip.de/Grafikchipliste/Leistung_Graka.htm

  • Was mich dabei am meisten beschäftigt ist die Größe des RAM-Interfaces für Officearbeit und Videoschnitt.


    Sind 128 Bit einfach zu wenig?!?!


    Ursprünglich hatte ich mit irgend einer GTX 460 geliebäugelt (1024 MB Speicher, 256 Bit Speicher-Interface).


    Apropos


    Zitat

    wie Sand am Meer


    Wo denn? Also, der Mini-HDMI-to-HDMI-Adapter ist in der Tat nicht so wichtig. Aber folgende Parameter sollten eben doch schon erfüllt sein.


    - flüssiges Arbeiten bei 3 x 1920 + 1080 bzw. 3. 1900 x 1200
    - gleichzeitgerAnschluss von 3 HD-Monitoren ohne Displayport
    - mind. 1024 MB Speicher


    Meinem Board sollte es ja wahrscheinlich egal sein, was für ein Chipsatz in der Graka steckt, also ob AMD ATI oder NVIDIA GeForce, solange es PCIe ist, denke ich einmal. Aber ich habe bis dato eben immer NVIDIA gehabt und insofern keine Ahnung und Erfahrung mit dem AMD-Pendant.


    Den Laden, wo ich meine EVGA-Graka seinerzeit bezogen habe, gibt es nicht mehr. Wo sollte ich nun sinnvoller Weise meine nach 37 verstrichenen Monaten gültige 60-Monats-Garantie in Anspruch nehmen? Direkt beim Hersteller?

    Gruß :thumbup:


    Louca




    P. S.: Ich muß mich bei dem Streß hier jetzt aber wirklich auch einmal um's leibliche Wohl kümmern...




    "Sollten Ihnen meine Aussagen zu klar gewesen sein, dann müssen Sie mich missverstanden haben" (Alan Greenspan)

    3 Mal editiert, zuletzt von Louca ()

    • Offizieller Beitrag

    Eine Verwendung irgendeiner Adobe CS5 Anwendung auf diesem PC während der Lebenszeit der neuen GraKa
    ist mit Sicherheit auszuschließen ??


    => CUDA .... egal ob offiziell von Adobe supporteder GPU-Typ ... oder für risikofreudigere User per unsupported "list-patch"



    the commissario.... :P

    Grass Valley Moderator 2 / freiwilliger firmenunabhängiger Foren-Moderator
    Wichtig: Dies ist kein Grass Valley Support Forum.! Dies ist ein moderiertes Anwender zu Anwender Forum.


    i9-7980XE 18cores/36threads - PCIe-M.2 960 PRO 512GB - PCIe-M.2 970 Pro 1TB - 32GB DDR4-3600 - Zotac GeForce GTX 1080 8GB - DeckLink Mini Monitor 4K - Win_10prof
    Edius X WG + VisTitle

  • Hey Commissario,


    ich wußte doch, dass es Dich noch gibt... ;)


    Nein, CS-5-Anwendungen habe ich nicht. Ich habe ja auch nur eine 32-Bit-Plattform :lol:


    Ich habe eine E-Mail an den EVGA-Support gesandt. Mal sehen, was dabei heraus kommt.


    Aber grundsätzlich ist es doch egal, ob ATI oder NVIDIA, solange PCIe eingehalten wird, korrekt?!

    Gruß :thumbup:


    Louca




    P. S.: Ich muß mich bei dem Streß hier jetzt aber wirklich auch einmal um's leibliche Wohl kümmern...




    "Sollten Ihnen meine Aussagen zu klar gewesen sein, dann müssen Sie mich missverstanden haben" (Alan Greenspan)

  • Aber grundsätzlich ist es doch egal, ob ATI oder NVIDIA, solange PCIe eingehalten wird, korrekt?!


    egal ist es sicher nicht, das ist ein komplexes Thema.
    Tatsache ist, dass auf reinen EDIUS NLE Systemen, ATI gegenüber Nvidia deutliche Vorteile hat.
    Das war nicht immer so und muß auch nicht so bleiben, ist aber derzeit de facto so.
    Die wenigen Probleme mit VitaScene treten in der Regel nur mit NVidia Systemen auf.
    Liegt der schwerpunkt auf ADOBE ist es eher umgekehrt.


    Da ich mich immer auf (m)einen erfahrenen Händler MMM verlasse, kenne ich solche Problem nicht; kostet aber eben ein paar Euro mehr ............

    Gruß
    Erich


    -----------------------------------------------------------------------------------------------------------------------------------------------------------------
    Windows 10 Pro - Storm 3G - Intel core i7-6700K 4 GHz - ASUS Z170-A - 32 GB DDR4 RAM - Intel HD530 Grafik - Win 10 Pro - Blu-Ray LG BH10LS30

  • Wenn Du nur die Grafik austauschen willst, in meinem neuen Rechner habe ich eine neue GTX 470 vorgesehen, wichtig für mich ist auch die Geräuschentwicklung, deshalb die Palith,
    könnte sein, dass diese bei Deiner Ausstattung nicht passt. Falls Geräusch nicht wichtig ist, dann würde ich GTX 285 nehmen.
    Viele Grüsse Volkmar http://www.palit.biz/enews/eve…429/event_20100429-de.php

  • Was meinst Ihr, wie bremst ein 128-RAM-Bit-Interface gegenüber einem 256er Anwendungen aus? Ich meine, ich war immer mit meiner alten GraKa zufrieden gewesen. Aber für den Videoschnitt brauche ich eben etwas extrem performancehaftes. Könntet Ihr Euch vorstellen, dass 1024 MB Speicher kombiniert mit 128-Bit-RAM-Interface (Technik 2010) nicht weniger leistungsfähig ist, wie 664 MB Speicher mit 320-Bit-RAM-Interface (Technik 2007)?


    Ich hätte nämlich schon stark Lust mir die neue ATI-GraKa mit Drei-Monitor-Betrieb zu holen, weil ich dann ohne Switch genau den Komfort hätte, von dem ich schon all die Jahre träume: Auf zwei Bildschirmen die Videoschnitt-Software und auf dem dritten großen Full-HD via HDMI sonstige Explorer und Bildbetrachtungswerkzeuge direkt per Drug & Drop in die Anwendungen einbinden bzw. eine Dritt-Applikation parallel bearbeiten.

    Gruß :thumbup:


    Louca




    P. S.: Ich muß mich bei dem Streß hier jetzt aber wirklich auch einmal um's leibliche Wohl kümmern...




    "Sollten Ihnen meine Aussagen zu klar gewesen sein, dann müssen Sie mich missverstanden haben" (Alan Greenspan)

  • Hallo,


    diese Frage möchte ich einmal vorwiegend an die Canopus-Mitarbeiter richten. Meint Ihr, dass bei meiner Videoschnittkartenlösung "EDIUS NX Express (NX PCIex + Firecoder PCIex)" die von mir favorisierte neue Grafikkarte "sapphire_radeon_hd_5770_flex" mit AMD-ATI-Chipsatz mit ihrem 128-Bit-Interface sowohl kompatibel zur Videoschnittkarte (früher hattet Ihr doch so eine tolle Kompatibilitätsliste. Gibt es jene Seite noch, ggf. unter welchem Link?) für flüssige HD-Bearbeitung ausreichend, als auch kompatibel ist?! Und was ist wichtiger für eine EDIUS-HD-Ver- und Bearbeitung? MB-SpeicherKapazität [MB] oder Bit-Interface-Kapazität [Bit] bzw. welche Untergrenzen sollten hierbei für HD-EDIUS nicht unterschritten werden?


    Besten Dank und Euch ein gutes Wochenende? applause



    Sapphire HD5770 Flex edition


    Sapphire HD 5770 FleX: 3 Bildschirme für wenig Geld anschließen


    Herstellerangaben


    Quick Review: Sapphire Radeon HD 5770 FleX 1GB


    Sapphire HD 5770 FleX Review


    Eyefinity mit drei DVI-Bildschirmen möglich


    Sapphire Radeon HD 5770 Flex Graphics Card Review - Easy Eyefinity


    Kurztest: Sapphire Radeon HD 5770 Flex


    Zitat

    Für interessierte Spieler ist die Karte somit nichts. Falls aber nur gearbeitet oder Multi-Media-Aufgaben mit mehr als zwei Monitoren durchgeführt werden sollen, ist die Sapphire-Karte eine lohnenswerte Investition, sofern die Infrastruktur ihre Anschaffung erforderlich macht.

    Gruß :thumbup:


    Louca




    P. S.: Ich muß mich bei dem Streß hier jetzt aber wirklich auch einmal um's leibliche Wohl kümmern...




    "Sollten Ihnen meine Aussagen zu klar gewesen sein, dann müssen Sie mich missverstanden haben" (Alan Greenspan)

    9 Mal editiert, zuletzt von Louca ()

  • Hallo,
    leider können wir Ihnen keine Empfehlung aussprechen.
    Die Flut an stetig neuen Grafikkarten ist einfach zu groß.
    Beachten Sie einfach nur die Anforderungen bezogen auf EDIUS 6:
    A graphics card supporting higher resolution than 1024x768 (32-bit), Direct3D 9.0c or later, and PixelShader Model 3.0 or later is required
    For SD editing: 256 MB or larger • required, 512 MB or larger recommended
    For HD editing: 512 MB or larger • required, 1 GB or larger recommended

    Mit freundlichen Grüßen


    Ulrich Peters
    Products & Applications Consultant
    Grass Valley Germany GmbH

  • Louca, vielleicht solltest du dich einfach einem wirklich kompetenten Händler anvertrauen.

    Gruß
    Erich


    -----------------------------------------------------------------------------------------------------------------------------------------------------------------
    Windows 10 Pro - Storm 3G - Intel core i7-6700K 4 GHz - ASUS Z170-A - 32 GB DDR4 RAM - Intel HD530 Grafik - Win 10 Pro - Blu-Ray LG BH10LS30

  • Vielleicht sorgen folgende Überlegungen für mehr Verständnis:
    Wenn man mal überlegt, was machen 3 Bildschirme und Edius?


    1 Bildschirm stellt vielleicht das Video im Player dar.
    2 Bildschirme beinhalten relativ statische Bilder, nämlich Bin/Effekte und die Timeline. Die Timeline scrollt vielleicht alle paar Sekunden einen "Bildschirm" weiter, aber das dürfte einer modernen Grafikkarte nichts ausmachen (ist schließlich keine Echtzeitvideodarstellung).


    Was soll Edius mit massig Speicher (>512MB) ? Edius ist kein Videospiel bei dem riesige Labyrinthbausteine in die Grafikkarte geladen werden müssen, damit sie direkt aus dem Grafikspeicher der Grafikkarte zusammengebaut werden können. Edius muss das Livevideo darstellen, was keine vorgefertigeten Grafikbausteine sind und Edius muss ein paar Effekt-Icons darstellen, die etwas Grafikspeicher benötigen. Die Timeline besteht aus ein paar Einzelbildern, die vielleicht oder auch nicht im Grafikkartenspeicher zwischengespeichert werden (ich glaub aber ehr nicht).


    Am Ende braucht man sich meiner Meinung nach nur die Frage stellen: Kann die Grafikkarte Realtimevideo in HD darstellen? Wenn die von Herrn Peters beschriebenen Voraussetzungen gegeben sind (Pixelshader3.0, ....) dann sollte es funktionieren. Demnach wäre es aus meiner Sicht auch unerheblich, ob 1GB Grafikspeicher und 128bit Interface oder 640 MB Grafikspeicher und 256bit Interface. (Wohlgemerkt für Edius)

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    Einmal editiert, zuletzt von homer ()

    • Offizieller Beitrag

    .


    ...... und wenn man berücksichtigt (und versteht) warum die GPU-FX in ihrem ihren Namen den Begriff >GPU< beinhalten


    wird die von Hr. Ulrich Peters eingebrachte GV-Vorgabe: For HD editing: 512 MB or larger • required, 1 GB or larger recommended
    schon verständlicher ... da geht es nicht ums "Darstellen" ..... da geht es ums "Berechnen"


    ;)

    Grass Valley Moderator 2 / freiwilliger firmenunabhängiger Foren-Moderator
    Wichtig: Dies ist kein Grass Valley Support Forum.! Dies ist ein moderiertes Anwender zu Anwender Forum.


    i9-7980XE 18cores/36threads - PCIe-M.2 960 PRO 512GB - PCIe-M.2 970 Pro 1TB - 32GB DDR4-3600 - Zotac GeForce GTX 1080 8GB - DeckLink Mini Monitor 4K - Win_10prof
    Edius X WG + VisTitle

  • Bei den GPU-FX muss man dann aber genau hinschauen, wie verfahren wird. Da kann ich nur zwei Möglichkeiten sehen:
    a) es wird das darzustellende Videobild plus Effekt berechnet (da braucht man nur minimal mehr Grafikspeicher als das Originalbild plus berechnetes Bild benötigt (und etwas Programm/Algorithmus für die Verfahrensweise).
    b) es wird eine Gruppe von Bildern parallel berechnet (da ja viele Shader auf einer Grafikkarte enthalten sind, die sich die Arbeit teilen können. Hier wird auch deutlich, warum die ATI-Karten bei Edius bevorzugt laufen, denn nur diese haben die sogenannten Shader. Bei NVIDIA heißen die anders. )


    Ich weiß aber nicht, wie GV bei den Berechnungen vorgeht. Die Aussage: "Je mehr Speicher desto besser", verleitet natürlich zu der Annahme, daß Methode b) angewendet wird.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

  • Hallo Grass Valley UP,


    bitte nicht missverstehen (habe beruflich meine eigene Fachsprache und bin daher ständig mit irgendwelchen Fehlinterpretationen konfrontiert !). Muß denn jeder englisch können nur um diesem Beitrag zu verstehen ?


    Vieleicht sollten sich GV (einschl. Händler) auch im eigenen Interesse, einmal die Mühe machen, viele Fragen nicht nur mit hinweisen auf Querverweise und Zitate aus *.*us/uk/jp, zu beantworten.


    Betrifft leider auch die Neuankündigung von Edius 6.

    Einmal editiert, zuletzt von frank123 () aus folgendem Grund: Hallo, leider können wir Ihnen keine Empfehlung aussprechen. Die Flut an stetig neuen Grafikkarten ist einfach zu groß. Beachten Sie einfach nur die Anforderungen bezogen auf EDIUS 6: A graphics card supporting higher resolution than 1024x768 (32-bit), Direct3D 9.0c or later, and PixelShader Model 3.0 or later is required For SD editing: 256 MB or larger • required, 512 MB or larger recommended For HD editing: 512 MB or larger • required, 1 GB or larger reco Nachtrag, wollte dieses zitieren kann es nach absenden leider nicht mehr finden, also noch einmal.

  • Eine Grafikkarte, die eine höhere Auflösung als 1024x768 (32-bit) unterstützt, Direct3D 9.0c oder neuer, und PixelShader Model 3.0 oder neuer wird benötigt. Für das Bearbeiten von Standardauflösung (SD) werden 256 MB RAM oder mehr benötigt. Empfohlen werden 512 MB RAM. Für Hochauflösendes Fernsehen (HD) werden 512 MB oder mehr benötigt. Empfohlen werden 1 Gigabyte RAM oder mehr.

    Gruß
    Homer


    Canon EOS 600D, GoPro Hero 3 Black Edition, Canon HF 100, DaVinci Resolve 9, Production CS5

    2 Mal editiert, zuletzt von homer ()