![]() |
Zitat:
gruß |
Ne, das bringt nix. Weil dein DVI Port auf der GraKa auch die analogen VGA Signale heraus führt, eben genau dass solche Adapter funktionieren. Denn diese Adapter haben ja selber keinen Digital/Analog-Wandler. ;)
Gruss Wildfoot |
Hi ho,
ja war media markt hab mal son kabel besorgt DVI auf DVI aber problem besteht weiterhin heul* langsamm gewöhn ich mich daran^^ HAHA Was meinste den mit da wird die graka nich so arg belastet also wegen dem DVI? gruß |
Wenn du die Refresh-Rate von 75Hz auf 60Hz reduzierst, dann wird die GraKa weniger belastet.
Dass dieses Problem rein nur durch das DVI Kabel nicht behoben wird, war klar. Aber das DVI Kabel beseitigt signalübertragungstechnische Unschönheiten wie z.B. Störungen auf das Signal. Ausserdem hat die GraKa nun über das DDC die Möglichkeit, deinen Monitor genau zu identifizieren. ;) Ich hab mich noch gefragt, ob es eventuell möglich ist, das die FX5500 wirklich schwächer ist im 2D, als die FX5200. Denn was sonst ja immer angegeben wird ist die 3D Leistung. Ist nur so ein Gedanke, genaueres weiss ich dazu auch nicht. Gruss Wildfoot |
Zitat:
Aber es ist für den TFT im Prinzip egal, welche Refresh-Rate eingestellt ist, solange er sie darstellen kann. Nun zum Unterschied zwischen FX5200 und FX5500. Natürlich ist die FX5500 die etwas bessere Karte (aber die Preisunterschiede waren bescheiden, es wird also nichts Großartiges sein). Es gibt jedoch etwas zu beachten. Meiner Erinnerung nach gab es beide Designs sowohl mit 64-Bit- als auch mit 128-Bit-Speicheranbindung. Wenn die FX5200 also eine Karte mit 128-Bit-speicheranbindung war und die aktuelle FX5500 eine Version mit 64-Bit-Speicheranbindung ist, dann könnte sie tatsächlich in einigen Belangen die schwächere Karte sein. Das müsste durch Ermittlung der technischen Daten eruierbar sein. :hallo: |
Zitat:
Was aber das Design der Karte betrifft (ob 64 oder 128 Bit), das weiss ich jetzt in diesem expliziten Fall nicht so genau. Das könnte aber ein sehr plausiblen Grund dafür sein, warum hier die neue Karte der alten hinterher hinkt. Aber lesha44 hat ja schon einen Link gepostet, da könnte das eventuell drinstehen. :bier: Gruss Wildfoot |
Zitat:
der graka ist es komplett egal ob 60hz oder 75hz am bildschirm ausgegeben werden. der dac arbeitet einfach einmal so einmal so, da er sich die daten aus dem framebuffer holt, wie er sie braucht. wird der framebuffer zu langsam gefüllt (= zuwenig fps), wird halt ein bild doppelt genommen, wird der framebuffer zu schnell gefüllt, werden bilder einfach verworfen. |
Zitat:
Es ist nicht ganz so einfach, weil du mit einer höheren Refresh-Rate auch die GPU zu mehr Arbeit zwingst. Schliesslich muss ja jemand den RAM (Framebuffer) füllen. Dieser Job bleibt dann eben an der GPU hängen. ;) Auch wenn sie das nicht immer voll schaffen sollte, mehrarbeit hat die GPU deswegen trotzdem. Es wird nämlich versucht, dass die GPU das auch in "realtime" packt und dass so wenige Bilder wie möglich doppelt genommen werden müssen. Und wie ich oben in meinem Beispiel mit meiner GeForce 4 MX440 schon geschrieben habe, habe ich diesen Effekt schon selbst erleben dürfen. :-) Und 15Hz (75Hz vs. 60Hz) sind nämlich für eine GraKa nicht wenige Pixel, welche sie da weniger berechnen muss. Aber egal, hier ist sowieso alles sehr an der Leistungsgrenze. Ich muss mal die Sache mit den 64/128Bit noch abklären. Ansonsten bleibt mir auch nurnoch zu sagen, dass die Ansprüche an diese Karte mit den verwendeten Codecs doch sehr hoch sind. Gruss Wildfoot |
Zitat:
Zitat:
|
Zitat:
Das kann irgenwie aber auch nicht sein, das würde ja heissen, die GPU läuft permanent auf Volllast? O.K. die alten Karten hatten noch kein Frequency-Switching, stimmt. ;) Ob die Synchronisation enabled war, weiss ich jetzt nichtmehr, glaubs aber nicht. Die habe ich, meines wissens, noch nie eingeschalten. :cool: Gruss Wildfoot |
Alle Zeitangaben in WEZ +2. Es ist jetzt 20:37 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag