WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Hardware-Beratung & Erfahrungen (http://www.wcm.at/forum/forumdisplay.php?f=53)
-   -   Hd5870x2 (http://www.wcm.at/forum/showthread.php?t=234033)

garfield36 17.10.2009 22:31

Der Tricks mag es viele geben.

Wildfoot 17.10.2009 22:36

Was denn für Tricks?

Gruss Wildfoot

garfield36 17.10.2009 22:37

Wenn ich das wüsste. ;)

Wildfoot 17.10.2009 22:56

Ja..., erst mal die Hardware haben, dann kommen die Treiber. ;)

Gruss Wildfoot

garfield36 17.10.2009 22:57

Vielleicht, vielleicht auch nicht. ;)

Wildfoot 17.10.2009 23:01

Zuerst, ich sehe es schon kommen, muss ich eh Platz schaffen im Gehäuse.

Gruss Wildfoot

garfield36 18.10.2009 00:20

Was hast denn für ein Gehäuse?

Wildfoot 18.10.2009 01:06

Ein Thermaltake Soprano DX, ein Midi-Tower. Der HD-Käfig könnte zum Problem werden. :(

Gruss Wildfoot

garfield36 18.10.2009 04:26

Hm, es gibt Gehäuse bei denen man den HD-Käfig versetzen, bzw. herausnehmen kann. Da wäre das Rebel9 Economy, oder wenn es etwas mehr sein darf, das SilverStone Kublai KL02. Aber ich denke, das Soprano sollte eigentlich tief genug sein. Kann mir nicht vorstellen, dass die GraKa mehr als 28 oder 29cm lang werden wird.

Wildfoot 18.10.2009 16:05

Zitat:

Zitat von garfield36 (Beitrag 2384379)
Hm, es gibt Gehäuse bei denen man den HD-Käfig versetzen, bzw. herausnehmen kann. Da wäre das Rebel9 Economy, oder wenn es etwas mehr sein darf, das SilverStone Kublai KL02. Aber ich denke, das Soprano sollte eigentlich tief genug sein. Kann mir nicht vorstellen, dass die GraKa mehr als 28 oder 29cm lang werden wird.

Ja, auch beim Soprano DX kann ich den HD-Käfig rausnehmen, nur wo kommen dann meine HD's hin? Ich habe nur allerimaximalstens einen 5.25" Slot noch frei, aber 2 HD's.

Wenn die Karte nicht länger als 27cm (maximalstens 28cm) ist, dann sollte es gehen, dann ist sie etwa gleich lang wie meine jetztige X2. Länger wäre aber nicht gut, dann brauche ich dann ziemlich schnell mal die Säge. :(

Gruss Wildfoot

garfield36 19.10.2009 03:10

Ich halte von den 3,5"-Käfigen ohnedies sehr wenig. Nachedem ich bei meiner Festplatte (trotz entkoppelter Lagerung in einem solchen) feststellen musste, dass Vibrationen auf das Gehäuse übertragen wurde, habe ich eine andere Lösung gesucht.

http://geizhals.at/a108251.html

Damit waren die Vibrationen weg. Laufwerkseinschub habe ich auch keinen benötigt, da ich einfach den 3,5"-Käfig rausgenommen hatte. Das setzt allerdings voraus, dass das Gehäuse, wie die von mir angeführten, einen durchgehenden 5,25"-Käfig hat.

Mittlerweile bin ich übrigens vom Kublai KL02 auf das Silentmaxx ST-11 Pro Air umgestiegen. Hier hat man schon von Haus aus auch die Möglichkeit einer HD-Montage mittels eines 5,25"-Entkoppelungsrahmens vorgesehen.

Wildfoot 19.10.2009 19:28

Also ich habe nochmals nachgeschaut, und dabei, oh Schreck, festgestellt, ich sollte mal wieder abstauben im PC-Inneren. :D
Aber bezüglich HD und GraKa, es sollte gehen, entweder, wenn ich Glück habe, muss ich garnichts sägen. Oder ich muss halt ein Stück aus dem HD-Käfig heraussägen. Aber es sollte definitive irgendwie gehen. ;)

Jetzt weiss ich garnicht, eigentlich wollte ich erst abstauben, wenn ich dann die Kiste umbaue. Doch bei dieser Staubschicht jetzt....
Ich muss wohl mal die Temperaturen etwas im Auge behalten, wobei auf der geOCed CPU habe ich bisher eigentlich garkeine Probleme festgestellt. ;)

Gruss Wildfoot

garfield36 19.10.2009 23:48

Man kann diesem Problem zum Teil mit Staubfiltern entgegentreten.

Wildfoot 20.10.2009 18:43

Ja ich weiss, die gab es auch zu meinem Gehäuse dazu. Aber die filtern nicht nur den Staub, sondern auch die Luft heraus. Das heisst, mit diesen Filtern kriegst niemals den gleichgrossen Airflow durch das Gehäuse hin, wie ohne diese. Das hat dann unmittelbar Einfluss auf die Kühlung, darum flogen bei mir diese Filter auch als etwas vom ersten aus dem Gehäuse. ;)

Gruss Wildfoot

garfield36 20.10.2009 22:43

Nach meinen Erfahrungen ist der Einfluss von Staubfiltern auf den Luftdurchzug bei weitem nicht so eklatant, wie immer behauptet wird. Der Nutzen ist hier überwiegend.

El Cattivo 21.10.2009 08:02

bei mir hat der filter auch den durchzug etwas gebremst. also einmal im jahr gehäuse öffnen und mit staubsauger den ganzen staub wegsaugen, ist da meiner meinung besser ;)

Wildfoot 21.10.2009 20:54

Genau. Ausserdem war der Unterschied in der Temperatur sehr gut merkbar.

Gruss Wildfoot

El Cattivo 30.10.2009 07:36

die spannung steigt schön langsam, wildfoot ;)

http://www.computerbase.de/news/hard...ermin_hd_5970/

CaptainSangria 30.10.2009 12:35

Erste Tests:
http://en.inpai.com.cn/doc/enshowcon...61&pageid=6173

wohoo, ist die groß, wenn man sich die bilder anschaut und weiß wie groß der tower wirklich ist.

Wildfoot 30.10.2009 19:16

Zitat:

Mit mehr als 30 cm dürften in einigen Gehäuse sicher Probleme auftreten, brachten es die bisherigen Varianten an Dual-GPU-Grafikkarten doch nur auf 27 cm.
Also ich hol schonmal die Säge. ;)

Gruss Wildfoot

Wildfoot 30.10.2009 22:00

Ist es denn jetzt eigentlich fix, dass sie HD5970 heissen wird, oder ist auch das immernoch nicht sicher?

Gruss Wildfoot

P.S. Lustig wäre dann eine HD5970X2. :D

El Cattivo 30.10.2009 22:55

ja ist fix, also hd5970 = hd5870x2, aber mit etwas reduzierten taktraten
hahaha, mit x2 beim hd5970 wäre dann 4gpu ;)

Wildfoot 31.10.2009 00:23

Zitat:

Zitat von El Cattivo (Beitrag 2386174)
ja ist fix, also hd5970 = hd5870x2, aber mit etwas reduzierten taktraten
hahaha, mit x2 beim hd5970 wäre dann 4gpu ;)

Das mit dem Takt kann man ja mit dem Overdrive wieder kompensieren. ;)
Immerhin sind die Karten noch auf 300W limitiert. Es wird aber nur ne Frage der Zeit sein, bis die Specs geändert werden und dann mehr als 300W möglich sind.
Wobei jedoch die 725MHz eher für die HD5950 sprechen und nicht für die HD5970. ;)

Das mit den 4GPU's war ja der Grund für mein Posting. :D
Wirds wohl aber kaum geben.

Gruss Wildfoot

garfield36 31.10.2009 00:28

Schon seltsam, da hat man den Energieverbrauch bei den Prozessoren auch bei Spitzenmodellen gesenkt (zumindest bei Intel), dafür steigt er bei den Grafikkarten immer weiter an. Da sollten NVidia und AMD mal dran arbeiten.

Wildfoot 31.10.2009 00:32

Zitat:

Zitat von garfield36 (Beitrag 2386189)
Schon seltsam, da hat man den Energieverbrauch bei den Prozessoren auch bei Spitzenmodellen gesenkt (zumindest bei Intel), dafür steigt er bei den Grafikkarten immer weiter an. Da sollten NVidia und AMD mal dran arbeiten.

Nicht ganz, nicht zu vergessen aber ist der gewaltige Performance-Schub, welche diese GPU's mitsich bringen (Verdoppelung zu jeder Generation).
Würden die CPU's ebenfalls solch einen Performance-Schub erbringen, würde auch da die TDP steigen. ;)

Gruss Wildfoot

El Cattivo 31.10.2009 01:04

hey, wildfoot. sicher geht auch 4gpu!! crossfire vergessen??? ;)
das wäre dann 600watt gesamtleistung. zumindest kannst du im winter auf heizung vergessen :D
ausserdem leistungschub. ati hat ihre hausaufgabe geleistet was an wattverbrauch angeht. idle beim hd5870 auf 20watt gesenkt bzw auch auf volle leistung gegenüber der hd48xx reihen. alle achtung muss i sagen.

Wildfoot 31.10.2009 01:41

Zitat:

Zitat von El Cattivo (Beitrag 2386196)
hey, wildfoot. sicher geht auch 4gpu!! crossfire vergessen??? ;)
das wäre dann 600watt gesamtleistung. zumindest kannst du im winter auf heizung vergessen :D
ausserdem leistungschub. ati hat ihre hausaufgabe geleistet was an wattverbrauch angeht. idle beim hd5870 auf 20watt gesenkt bzw auch auf volle leistung gegenüber der hd48xx reihen. alle achtung muss i sagen.

Ne, CF habe ich nicht vergessen. Aber es gibt einen Unterschied ob GraKa Onboard-CF oder CF über das Mainboard. Ich meinte damit 4 GPU's auf einem GraKa-PCB wird es wohl kaum geben. Jedenfalls nicht so bald.

Und was die Leistung betrifft, da habe ich ja auch gesagt, dass sie, verglichen mit der Performance, so gut wie garnicht angestiegen ist. :-)

Gruss Wildfoot

garfield36 31.10.2009 13:34

@Sir Wildfoot

Lieber Sir Wildfoot, bist schon im Winterschlaf? Heute gibt es von Intel CPUs die mit einer geringeren Verrlustleistung, geringerem Takt eine wesentlich höhere Leistung erbringen als noch vor 2 bis 3 Jahren.
Ich finde es schon bemwerkenswert wenn die TDP einer Spitzen-CPU statt 130 nur mehr 95 Watt beträgt, und das bei vervierfachter Kernanzahl. Und der Prozessor erbringt trotz gesenkter Frequenz eine höhere Leistung.

Wildfoot 31.10.2009 20:21

Zitat:

Zitat von garfield36 (Beitrag 2386233)
@Sir Wildfoot

Lieber Sir Wildfoot, bist schon im Winterschlaf? Heute gibt es von Intel CPUs die mit einer geringeren Verrlustleistung, geringerem Takt eine wesentlich höhere Leistung erbringen als noch vor 2 bis 3 Jahren.
Ich finde es schon bemwerkenswert wenn die TDP einer Spitzen-CPU statt 130 nur mehr 95 Watt beträgt, und das bei vervierfachter Kernanzahl. Und der Prozessor erbringt trotz gesenkter Frequenz eine höhere Leistung.

Nö, ich bin nicht im Winterschlaf. Nicht bevor ich eine HD5970 in den Händen halte. :D

Aber zum Thema Performance:
Als Zeitrahmen bei den CPU's nimmst du 2-3 Jahre. Damals gab es Dual-Cores mit zum Teil über 3GHz Takt und einer TDP von 95W, heute sind das Quad-Cores mit etwas mehr als 3GHz und einer TDP von 95W. Also hast du in (sind wir grosszügig) 2 Jahren die Performance etwa verdoppelt, die TDP blieb aber genau gleich.

Im gleichen Zeitrahmen (also 2 Jahre) bist du bei den GPU's von einer RV670 über eine RV770 zu der RV870 gekommen. Jede neue Generation ist doppelt so performant wie die Vorgänger-Generation (2xRV670 entspricht einer RV770), also haben wir innerhalb dieser 2 Jahre eine Vervierfachung der Performance bei den GPU's. Aber die TDP ist von 110W (RV670) über 157W (RV770) auf 188W (RV870) angestiegen unter Volllast. [Hier wurden die Single-GPU Karten als Vergleich heran gezogen.]

Wenn man nun die TDP-Steigerung in Relation zur Performance-Steigerung ausrechnet:

CPU: 0/2=0
GPU: (188/110)/4=0.4273

Dann sieht man, dass zwar die GPU's den CPU's leistungsmässig immernoch hinterher hinken, dafür hat man aber die 4-fache Performance, wovon wiederum die CPU's nur Träumen können.

Ausserdem, hast du beim Future-Mark 3DMark06 nicht auch mal dem CPU-Test ausgeführt? Der zeigt aber extrem, was der Performance-Unterschied einer GPU zu einer CPU ist. Da kommt die beste CPU nicht gegen eine Mittelklasse-GPU an. ;)

Gruss Wildfoot

garfield36 31.10.2009 23:49

Nur, dass ich bei den GPUs den erhöhten Stromverbrauch habe. Und da nützt keine Formel was, den erhöhten Verbrauch muss man bezahlen und die Kühlung wird auch nicht leiser. Von daher bieten Grafikkarten für mich keine sehr gute Effizienz.

Wildfoot 01.11.2009 01:22

Zitat:

Zitat von garfield36 (Beitrag 2386311)
Nur, dass ich bei den GPUs den erhöhten Stromverbrauch habe. Und da nützt keine Formel was, den erhöhten Verbrauch muss man bezahlen und die Kühlung wird auch nicht leiser. Von daher bieten Grafikkarten für mich keine sehr gute Effizienz.

Ja gut, nach Effizienz darfst bei IT Equipment eh nicht fragen, es seiden es geht ums heizen (da dafür aber mit 100% Wirkungsgrad). ;)
Denn (und das gilt für GPU's sowie auch für CPU's und Chipsätze etc...) schlussendlich resultiert die gesamte in einem PC eingesetzte Energie in Wärme. :-)

Gruss Wildfoot

El Cattivo 01.11.2009 10:02

@garfield: in der jetzigen zeit sind die cpu (shrinking, pro-mhz-schub, mehrkern usw.) schon sehr leistungsfähig und wird an der taktschraube wenig verändert und daher leicht an niedrigen tdp gehalten. overclocker konnten den cpu natürlich auch ohne probleme tdp überschreiten. ati hat mit hd57xx u hd58xx doch um vieles verbessert, was an leistung anbelangt. idle unter 20watt und sogar bei voller auslastung unterbietet es dem vorgänger.
aber warum cpu mit gpu vergleichen???

Wildfoot 01.11.2009 20:47

Zitat:

Zitat von El Cattivo (Beitrag 2386334)
@garfield: in der jetzigen zeit sind die cpu (shrinking, pro-mhz-schub, mehrkern usw.) schon sehr leistungsfähig und wird an der taktschraube wenig verändert und daher leicht an niedrigen tdp gehalten. overclocker konnten den cpu natürlich auch ohne probleme tdp überschreiten. ati hat mit hd57xx u hd58xx doch um vieles verbessert, was an leistung anbelangt. idle unter 20watt und sogar bei voller auslastung unterbietet es dem vorgänger.
aber warum cpu mit gpu vergleichen???

Genau, da wird dann wieder Äpfel mit Birnen verglichen. :p

Gruss Wildfoot

garfield36 02.11.2009 19:06

Es geht mir um die Tendenz. Bei CPUs hat man sich wenigstens die Mühe gemacht, den Energieverbrauch zu senken, trotz Leistungssteigerung. Bei Grafikkarten ist dies bei weitem nicht der Fall. Und das hat mit Apfel/Birne-Vergleich absolut nichts zu tun.

Baron 02.11.2009 19:19

Bin auch entsetzt-keine spur von "green-it"... wäre aber auch ein bisserl wenig nur Grün-oder?;):D
Mache mir auch größte sorgen..;):lol::lol::lol:

Wildfoot 02.11.2009 20:14

HIER GEHT ES UM ROT, NICHT UM GRÜN!! :D

Grün wird wo anders von anderen Leuten diskutiert/zelebriert. :bier:

Gruss Wildfoot

El Cattivo 03.11.2009 08:18

Zitat:

Zitat von garfield36 (Beitrag 2386602)
Es geht mir um die Tendenz. Bei CPUs hat man sich wenigstens die Mühe gemacht, den Energieverbrauch zu senken, trotz Leistungssteigerung. Bei Grafikkarten ist dies bei weitem nicht der Fall. Und das hat mit Apfel/Birne-Vergleich absolut nichts zu tun.

die tendenz ist sehr wohl da, wenn die hd5xxx im idle unter 20 watt gedrückt werden konnte. ditto auch beim voller graka leistung. vielleicht ist dir das noch zu wenig, gell :)
guckst du hier:
http://ht4u.net/reviews/2009/msi_r58...850/index9.php

schluss jetzt, es ist mittlerweile schon OT :hammer:

garfield36 03.11.2009 16:19

Bei Volllast ist der Verbrauch der Grafikkarten noch weitaus zu hoch. Und wann Schluss ist, bestimmst nicht du!

Wildfoot 03.11.2009 19:17

Also ich find die Werte schon beachtlich, dagegen sieht ja sogar noch meine X800XT PE alt aus. Die dürfte auch im Idle noch mehr als 20W fressen. ;)

Jetzt ist es übrigens soweit, dass mir wirklich nurmehr die HD5970 fehlt für meinen PC-Umbau. Also, wann kommt die!!? ;)

Ich bin gerade am Geld ausgeben und habe mir überlegt, ob ich mir nicht vielleicht noch den EIZO S2242W kaufen soll (die 30" Version EIZO CG301W davon kann ich mir leider nicht leisten).
Ich weiss aber nicht, ob der gut für mich ist. 6ms müssten doch eigentlich auch reichen dafür, dass es in Games, TV und Filmen nicht schliert, oder? Es wäre ein S-PVA Panel, also nix mit TN und es wäre bei gleicher Grösse wie jetzt (22" Wide) doch immerhin schon 1920x1200. Natürlich würde ich auch ab und zu mal auf dem Bilder bearbeiten, aber nicht so, dass ich den jetzt gleich kallibrieren würde/müsste. :-)
Was denkt ihr, kann man den Monitor für Allzweckgebrauch empfehlen? Oder gibt es andere bessere, preislich möchte ich nicht viel mehr einplanen müssen.

Merci schonmal für die Info.

Gruss Wildfoot

El Cattivo 04.11.2009 07:26

Zitat:

Zitat von garfield36 (Beitrag 2386714)
Bei Volllast ist der Verbrauch der Grafikkarten noch weitaus zu hoch. Und wann Schluss ist, bestimmst nicht du!

asso!!! tja, in deinem fall müsstest du ion nehmen. aber ob du mit der leistung dann zufrieden bist?? und das ist was grünes und leider fehl am platz :rolleyes:


Alle Zeitangaben in WEZ +2. Es ist jetzt 10:06 Uhr.

Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag