WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Hardware-Beratung & Erfahrungen (http://www.wcm.at/forum/forumdisplay.php?f=53)
-   -   Hd5870x2 (http://www.wcm.at/forum/showthread.php?t=234033)

Windfux 31.03.2009 17:38

abwarten und kaffee trinken :)

technische Spezifikationen kommen aber bestimmt früher, damit man schon mal so ca. weiss, was die 5870 zu bieten hat...

vielleicht passts bei 40nm Chip mal mit 512-bit Speicherinterface und GDDR5?

gerade gefunden... (Gerüchteküche!!!!!!!)

ATI Radeon HD 5870 X4 mit vier Kernen (Quad-GPU)?

Dienstag, 22. Jul. 2008 14:16 - [jp] - Quelle: Hardspell
Wie heute bereits berichtet, soll der RV870 (HD 5800-Familie) eine andere Architektur aufweisen.

Analog Anzeige
http://www.tweakpc.de/opa/www/delive...=25&n=aa4e08f5 zum RV770 wird die High-End-Variante des RV870 auf die Bezeichnung R800 hören. Allerdings soll es sich hier nicht um eine Lösung mit einer Platine und zwei GPUs handeln, wie es beim R700 (Radeon HD 4870 X2) der Fall ist. Hier soll ein neues Design zum Einsatz kommen, da der R800 eine echte Dual-Core-GPU sein soll. Überhaupt wäre es die erste Dual-Core-GPU.

An dieser Stelle kommt einem natürlich der Gedanke, dass AMD dennoch zwei Chips auf ein PCB setzen und somit vier GPU-Kerne auf einer Grafikkarte bieten könnte. So ein Baby könnte dann beispielsweise den Namen Radeon HD 5870 X4 tragen.

Nun könnte man den Gedanken auch weiterspinnen, wenn man nämlich an CrossFire X denkt...

Nun, es bleibt abzuwarten was sich von den Gerüchten und Spekulationen bewahrheiten wird.

naja, die news is schon seehr alt, abeer wäre ja der hammer, dual core-gpu :)

Wildfoot 31.03.2009 22:09

Naja, von Dual-GPU's rede ich ja schon lange. :-)
Die CPU's habens ja vorgemacht.

Gruss Wildfoot

mopok 01.04.2009 10:11

Wenn sich das bewahrheiten sollte, dann brauchen wir bald ein eigenes Kraftwerk zum Betrieb dieser Graka :(

Windfux 01.04.2009 16:39

das wird sich zeigen, hoffe aber net, dass sie stromfresser werden, kann ich mir bei besten willen auch net vorstellen, wäre zur heutigen zeit n schuss ins knee...

Wildfoot 01.04.2009 20:30

Mit der neuen 40nm Technologie werden die sicher etwas Energie-Effizienter. Die Hersteller wissen ja selber auch, dass die GraKa alleine nicht über zum Beispiel 500W ziehen darf und kann.
Also ich hoffe doch sehr, dass die Top-Werte einer HD4870X2 nicht nochmals getopt werden. :rolleyes:
Weil der Energieverbrauch ist das eine, aber all diese Energie wird dann 1:1 auf der GraKa in Wärme umgesetzt, welche wiederum abgeführt werden muss. Da laufen die Hersteller heute schon am Limit was mit LuKü möglich ist.

Gruss Wildfoot

garfield36 07.04.2009 01:27

So wie die Entwicklung am Grafikkartensektor läuft, erwarte ich nicht, dass hier ein besonders energiesparendes Exemplar auf den Markt kommt. Was sich der User wünscht, und was Realität ist oder wird, ist halt nicht dasselbe.

Wildfoot 07.04.2009 18:13

Aber so, wie es im Moment läuft, kann es auch nicht weiter gehen! Von der HD3870X2 (TDP=156W) zu der HD4870X2 (TDP=286W) ist es schier eine Verdoppelung. Das weiter gesponnen würde für die HD5870X2 horrende TDP~=550W ergeben!!!

Das kann es ja wohl nicht sein!! Wie soll das dann bei Quad-CrossFire noch aussehen?

Gruss Wildfoot

garfield36 07.04.2009 23:07

Nun, selbst wenn ich es mir leisten könnte würde ich da wohl irgendwo einen Schlussstrich ziehen. Ich habe keine Lust mir eine Grafikkarte mit Monster-Energieverbrauch und tosendem Lüfter einzubauen. Und wenn es Programme, wohl meist Spiele, geben sollte, die solche Karten benötigen würden, würde ich diese ganz einfach nicht kaufen. Ich muss kein Crysis auf meinem Rechner haben.

Wildfoot 07.04.2009 23:23

Hmm Smile

Haste Crysis, hast Crysis! ;)

[Haste den Gäg verstanden??]

Gruss Wildfoot ;)

garfield36 08.04.2009 21:05

Diese Frage grenzt an eine Beleidigung Sir Wildfoot. :motz: ;)


Alle Zeitangaben in WEZ +2. Es ist jetzt 00:29 Uhr.

Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag