WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Hardware-Beratung & Erfahrungen (http://www.wcm.at/forum/forumdisplay.php?f=53)
-   -   Dual Core GPU, wann wohl?? (http://www.wcm.at/forum/showthread.php?t=229431)

Wildfoot 19.07.2008 02:17

Dual Core GPU, wann wohl??
 
Hallo Leute

Heute ist es ja so, dass es bei GraKas im Moment nur gerade zwei Möglichkeiten gibt, zwei (oder mehr) GPU's miteinander zu kombinieren:

-NVidia: SLI
-ATI/AMD: CF

Das gilt sowohl für das Kombinieren der GPU's mehrere GraKas sowie auch das Kombinieren zweier GPU's auf der gleichen GraKa (wie zum Beispiel bei: 9800GX2/HD4870X2). Aber egal ob CF oder SLI, das läuft alles über den PCI-E Bus, dieser ist aber, im Vergleich zu dem Datentransport innerhalb der GPU, extrem grotten langsam!!
Daher nun die logische Konsequenz, wann kommen die ersten "on DIE Dual-Core-GPU's" ganz nach dem Vorbild der CPU's?? So innerhalb einer GPU auf ein und dem selben DIE könnte man doch gut ein Daten-Verbindungsbus entwerfen, welcher leicht 256/512Bit breit sein könnte und mit dem GPU-Takt von mittlerweilen über 850MHz betrieben werden könnte!

DAS!! Ja wirklich, das wäre dann eine Daten-Autobahn (mit erlaubten 280Km/h :D).

Gibt es schon irgendwelche Entwicklungen bei ATI oder NVidia in diese Richtung?? Weil eines ist sicher, das wird kommen!! Der PCI-E Bus ist ja für die Inter-GPU-Verbindung jetzt schon zu langsam. ;)

Gruss Wildfoot

Blaues U-boot 19.07.2008 02:31

gpus bestehen schon aus über hundert parallelen "gpus". ich hab es deshalb unter anführungsstriche geschrieben, weil sie besser bekannt sind als stream-prozessoren, pixel einheiten, oder weiß der teufel wie sie alle heißen.

Wildfoot 19.07.2008 20:46

O.K., das stimmtschon, nur warum baut man dann Karten mit zwei diskret ausgeführten GPU's?? Da hätte man dann ja doch die 640 Unified Stream Processors einer HD3870X2 zum Beispiel auch gleich auf einem DIE unterbringen können??

Gruss Wildfoot

LDIR 19.07.2008 21:16

Sicher, aber dann steigen die Produktionskosten, ausserdem verlangt den Nächste nach 1280 Einheiten, dann fragt einer nach 2560 Einheiten, dann beschwert sich einer wieso nicht gleich 5120 Einheiten... Das kann man ins Unendliche fortsetzen. Tatsache ist dass es eh so ist dass jedes halbe Jahr die neueste Kartengeneration mit noch mehr Stream-Proziss rauskommen, und wer halt mehr Leistung will, muss zwei oder mehr Karten bündeln.

Wildfoot 19.07.2008 21:21

Zitat:

Zitat von LDIR (Beitrag 2291603)
Sicher, aber dann steigen die Produktionskosten, ausserdem verlangt den Nächste nach 1280 Einheiten, dann fragt einer nach 2560 Einheiten, dann beschwert sich einer wieso nicht gleich 5120 Einheiten... Das kann man ins Unendliche fortsetzen. Tatsache ist dass es eh so ist dass jedes halbe Jahr die neueste Kartengeneration mit noch mehr Stream-Proziss rauskommen, und wer halt mehr Leistung will, muss zwei oder mehr Karten bündeln.

Ja schon, aber doch bitte nicht über den grottenlangsamen PCI-E Bus. :(

Gruss Wildfoot

Blaues U-boot 19.07.2008 22:59

der pci-e bus ist aber kaum ne bremse. wie man bei den ersten sli und cf gespannen gesehen hat war der unterschied zwischen 2x 8x pci-e und 2x 16x pci-e nur messbar. bei modernen grakas stimmt es, dass ein 8x pci-e interface bei cf/sli bremst, aber ein 16x wohl noch länger nicht.

Wildfoot 19.07.2008 23:24

Ich meinte das ja auch in Bezug darauf, was der Datenbus innerhalb der GPU für eine Leistung bring. Dagegen ist dann eben der PCI-E Bus grottenlangsam. Darum sollen die beiden GPU-Cores ja auch auf ein und dem selben DIE sein, damit diese mit dem GPU-Internen Datenbus miteinander verbunden werden können und man nicht über den "langsamen" PCI-E Bus ausweichen muss. ;)

Klar, wenn es darum geht, die ganze GraKa ans System anzubinden, dann ist der PCI-E Bus sicher (immer)noch genug schnell.

Gruss Wildfoot

Snips 20.07.2008 11:25

soll der larabee nicht mehrere kerne haben?

Don Manuel 20.07.2008 11:57

Ja, Pentium I Kerne ;)
siehe Intel Larrabee = 32 x Pentium-I-P54C

Blaues U-boot 20.07.2008 12:30

@ wildfoot
die gpus auf ein und dem selben die zu bringen würde zwar wahrscheinlich die leistung erhöhen. jedoch wäre die die-fläche so enorm groß, dass die herstellungskosten explodieren und die kühlung noch schwieriger ist, als sie jetzt schon ist.
da ist die lösung über pci-e billiger und ausreichen schnell.

Wildfoot 20.07.2008 19:13

Zitat:

Zitat von Blaues U-boot (Beitrag 2291778)
@ wildfoot
die gpus auf ein und dem selben die zu bringen würde zwar wahrscheinlich die leistung erhöhen. jedoch wäre die die-fläche so enorm groß, dass die herstellungskosten explodieren und die kühlung noch schwieriger ist, als sie jetzt schon ist.
da ist die lösung über pci-e billiger und ausreichen schnell.

Also ich glaube nicht, dass das heute noch ein Problem sein würde. Schliesslich gibt es schon die 45nm Technologie (auch wenn die bis jetzt noch nicht in GPU's Verwendung gefunden hat) und wenn man zwei solche GPU-Cores auf einem DIE integriert, dann ergeben sich automatisch auch wieder Redundanzen, welche bei der Optimierung wieder Platz für anderes frei machen.

Gruss Wildfoot

Windfux 20.07.2008 19:43

passt das zum thema?

bin ich eben drübergestolpert...:D

http://www.hardware-infos.com/news.php?news=2227

Wildfoot 20.07.2008 20:07

Zitat:

Zitat von Windfux (Beitrag 2291887)
passt das zum thema?

bin ich eben drübergestolpert...:D

http://www.hardware-infos.com/news.php?news=2227


Ich würd sagen, ABSOLUT!!

Cool, ATI kann Gedanken lesen; oder einfach nur logisch handeln :D


Gruss Wildfoot

buntstift 21.07.2008 10:53

@wildfoot
ich würde sagen dass es diese chips eben wie von uboot bereits erwähnt, derzeit aufgrund der dann explodierenden (sowohl für kühlung als auch produktion) und der nicht mehr bewältigbaren nötigen kühlleistung unmöglich ist.
nvidia hat beim gt200 ja jetzt schon einen die mit über 500mm². wenn die den verdoppeln (auch wenn da wirklich etwas wegfallen sollte wie z.b. die anbindung nach außen an den speicher usw) wird der chip einfach riesig und die ausbeute/wafer (yield) einfach nicht mehr wirtschaftlich sein.

so ist das halt jetzt bei nvidia mit dem 65nm fertigungsprozess. amd benutzt ja für den rv770 den 55nm prozess. zudem ist der chip nicht soooo komplex wie von nvidia, hat er doch wesentlich weniger transistoren. und wie du aus dem link von windfux entnehmen konntest wird man in zukunft um einen die-shrink nicht herumkommen, als beispiel wurde ja genannt dass amd vermutlich gleich auf 40nm umsteigen wird.

warum das jetzt noch nicht benutzt wird ... denke dass die auftragsfertiger von nvidia (tsmc glaub ich) einfach (noch) nicht das nötige knowhow hat. intel ist in diesem bereich doch der absolute technologieführer und liegt im bereich der herstellungstechnologie den übrigen halbleiterherstellern meist um 1,5-2 jahre voraus.

aber wie man sieht es wird daran gearbeitet :D denke aber die ingenieure von amd/nvidia denken schon länger an dualcore-gpus, jedoch werden die probleme die sich dabei ergeben nicht so trivialer natur sein dass man einfach sagt so, ab morgen machen wir einfach 2-kern gpus. steckt ja doch einiges an knoff-hoff drin :D

Wildfoot 21.07.2008 21:32

Naja, das mit dem Wafer-Yiel bei grossen Chips könnte man schon in den Griff bekommen, aber dazu müsste man ganz neue Fabs aufziehen; und das, da hast du recht, ist extrem teuer.

Aber O.K., das schöne ist, wir werden ja auf jedenfall früher oder später erfahren, was nun Sache ist. :D

Gruss Wildfoot

buntstift 22.07.2008 11:45

ja man kann das in den griff bekommen, wie du sagst mit neuen fabs, aber nur wenn man auch gleich größere wafer baut ;)
darauf freuen sich die cheftechnologen eh schon. aber ist sicher sehr schwer einen wafer größer 30cm (glaub da sind sie zur zeit?) hinzubringen da die ja nahe 100% plan sein müssen, an jeder stelle exakt gleich dick sein usw ...

aber wie du ja weißt ist bei der yield-rate das problem dass größere chips, eigentlich dies (sind ja rechteckig) schlechter (bzw weniger davon) in einen kreis passen als kleinere. weil man mit kleineren dies die randflächen viel besser ausnutzen kann.

ist ein simples mathematisches problem, obwohl für mich immer noch zu kompliziert ;)

EDIT: aber wem erzähl ich da was. kennen sich eh alle aus in dem forum.

Wildfoot 22.07.2008 20:52

Jop, 12" ist zur Zeit top (12*25.4mm=304.8mm, Wafer ist aber exakt 300mm).

Wir jedoch verwenden immernoch die 6" Wafer (150mm), sind doch auchnoch ein Stück einfacher zu handhaben. ;)

Gruss Wildfoot

buntstift 23.07.2008 10:36

@wildfoot
wer is wir? *neugierig*

Wildfoot 23.07.2008 20:22

Na die Firma, in welcher ich arbeite. :-)

Gruss Wildfoot

Wildfoot 23.07.2008 20:41

O.K.
Dass diese Frage kommen würde war ja absehbar. ;)

Ich arbeite hier:
http://www.abb.com/semiconductors

Gruss Wildfoot

buntstift 24.07.2008 12:26

klingt interessant. ich wollt als schüler immer in so eine halbleiterproduktion (nicht dort arbeiten, aber mal alles anschaun). will ich jetzt eigentlich immer noch, aber ja ... wenn das nicht so schwer wäre.

kanns sein dass du irgendwie gern bei einem graka oder prozessorhersteller arbeiten würdest? :D immer die neuesten technologien ...

Wildfoot 24.07.2008 22:07

Zitat:

Zitat von buntstift (Beitrag 2293131)
klingt interessant. ich wollt als schüler immer in so eine halbleiterproduktion (nicht dort arbeiten, aber mal alles anschaun). will ich jetzt eigentlich immer noch, aber ja ... wenn das nicht so schwer wäre.

kanns sein dass du irgendwie gern bei einem graka oder prozessorhersteller arbeiten würdest? :D immer die neuesten technologien ...

Jo, das wäre schon sehr interessant, wobei man aber klar sehen muss, was heute am Markt ist, ist etwa 1-2 Generationen hinter dem, was bei den Firmen im Labor entwickelt wird. Ist also, aus sicht eines GPU-Produzenten zum Beispiel, auch schon wieder veraltet. :D

Gruss Wildfoot

buntstift 25.07.2008 09:22

da hast du allerdings vollkommen recht.
sonst könnte intel nicht so eine roadmap vorlegen dass sie nächstes jahr (glaub ich) wieder einen shrink auf 32nm durchführen. und dann irgendwann noch weniger und wieder weniger usw usf. echt schlimm was die aufführen.

bin gespannt welche technologien sie in zukunft zum belichten der masken benutzen. mit der aktuellen kommens ja nimma weiter, weil die wellenlänge von dem licht das sie benutzen eh schon viel größer ist als die strukturbreite.
wundert mich immer wieder was da an knowhow drin steckt.

Lucky333 25.07.2008 10:26

mich würd interessieren was die leute verdienen um nicht vom amd z.b. abgeworben zu werden, bzw was man denen an "spielzeug" zur verfügung stellt.

Don Manuel 25.07.2008 10:37

Das ist eher umgekehrt das Problem, würde ich meinen. Also, wie hält AMD die Leute bzw. damit seine Ideen zurück? Schließlich ist nach wie vor intel der winner und AMD der kleine Konkurrent, momentan mit nicht wenigen Geldsorgen.

buntstift 25.07.2008 10:44

@don manuel
also ich würde sagen dass es durchaus fähige ingenieure bei amd gibt die genau deshalb bleiben weil sie "helfen" wollen. die es als herausforderung sehen eine firma voranzubringen. außerdem wissen sie dass amd auf sie angewiesen ist.

außerdem sind ja die amd prozessoren technologisch nicht per se schlechter. intel hat glaub ich zu einem großteil auch besseres marketing. klar sind sie derzeit vorne (stromverbrauch, leistung). aber preislich ist amd vorne (und ich glaube nicht ausschließlich um am markt zu bleiben). aber auch in bereichen wie HPC mit den clustern .. für manche anwendungen sind amds einfach besser geeignet.

klar gibt es einen gewissen ablauf richtung intel. aber die können auch nicht endlos leute einstellen.

Don Manuel 25.07.2008 10:59

Danke buntstift für die detaillierten Erläuterungen! Was täten wir ohne Dich im Forum ;) , wie konnte es so lange ohne Dich existieren :eek:

buntstift 25.07.2008 11:24

:D hat ganz gut funktioniert wie man sieht.
sind ja tolle udn vor allem fähige leute hier ;)

ich weiß eh ich seh (normal würd ich sagen hör mich gern beim reden ... aber das geht da wohl nicht :D ) ... seh mir gern beim schreiben zu :P

falls notwendig: ich vertrage kritik, also nur zu ;)


Alle Zeitangaben in WEZ +2. Es ist jetzt 04:06 Uhr.

Powered by vBulletin® Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag