![]() |
Warum mehr als 4 CPU Kerne auf einem Chip nichts bringen
NOCH MEHR KERNE: Ende 2005 legt AMD sogar noch einmal nach - für dann sind nämlich die ersten Prozessoren mit 4 und sogar 8 Kernen angekündigt.
Die Verschaltungskosten sind einfach zu hoch, erst bei abschaltbaren Kernen ist es empfehlenswert auf 8 oder mehr Kerne zu gehen. Die Stromkosten wie auch lizenzrechtliche Kosten für Software sind derart exorbitant teuer, daß es keinen Sinn macht so viele CPU Kerne auf einem Chip zu vereinen. Viel wichtiger ist es, die externe Verschaltung von Prozessoren zusätzlich voranzutreiben, wie es beim Cell Prozessor der Fall ist. |
Was heißt lizenzrechtliche Kosten für Software??? Wenn ich einen Rechner mit 2 Cpus habe, muss ich dann 2 mal Windows löhnen? Wenns so wäre, wärs ja echt lächerlich. Außerdem: Um so einen Schwachsinn kümmert man sich am besten gar nicht. Wenn das Ding in EINEM Computer eingebaut ist, braucht man EINE Lizenz, oder? Alles andere wär ja nur krank und fordert Missachtung heraus.
PS. Die Erstellung des Beitrages hat schon wieder mal eine ganze Minute gedauert. Bin ich eigentlich der einzige, dem das passiert? Sonst hör ich von niemandem derartige Meldungen. PPS: Das Bearbeiten geht wiederum schnell, ist schon komisch. |
Man braucht halt etwas um 1. die Leistung zu steigern, und 2. auch ein Verkaufsargument zu haben
|
Da Windows 2003 Server z.B. nur für ein oder zwei CPUs den gleichen Preis hat, ist es klar, daß es mit mehr als zwei CPUs - legitimerweise - teurer wird. Nur ist bei 8 CPUs der Kosten Nutzen Effekt eindeutig geringer, als er es bei 4 CPU Kernen ist.
Du musst schon mit Linux vorlieb nehmen, daß es einen Vorteil bietet. Denn Linux hat Servicekosten und keine per Hardwareeinheit Kosten :tux: Bei Linux liegt der Nachteil noch im veralteten Verwalten des Speichers und im schlechteren Binary Loader, der bei Windows besser ist, weil er sich auf extremes Abschotten der Speicherseiten zur Laufzeit beschränkt einerseits und ein Abmischen der dynamischen Bibliotheken erlaubt andererseits. Das fehlt Linux. |
@Burschi
gerade im business-bereich ist es oft so, dass man lizenzkosten pro cpu zahlt und nicht pro maschine ... auch bei vielen großrechnern sind schon oft von haus aus mehr cpu's verbaut, als gekauft wurden ... erst durch zahlung zusätzlicher gebühren werden diese cpu's freigeschaltet (wenn gewünscht auch nur temporär) ... |
Nicht nur bei Großrechnern, sondern auch bei Servern. Und bei machnen Firmen zahlst auch für was Du den Server einsetzt, so kostet Hardware oder Software für einen Server im Produktionssystem mehr als in einen Test- oder Entwicklungssystem.
|
Nur wurde der Begriff Großrechner durch den Begriff Server ersetzt und es kam noch eine andere Kategorie, nämlich die des Supercomputers hinzu.
Was derzeit ansteht: Den reinen Server wieder zu einem Großrechner zu machen - durch geeignete Programmiermodelle. Dann wird aus einem Server ein echter Vektorrechner. |
großrechner: host mit ose390 etc.
server: windows, solaris, aixserver -> midrange workstation: intelrechner, mac etc. da wurde nix ersetzt, die gibts immer noch supercomputer kann sich schnell was nennen, da sind die erzeuger kreativ: ein cluster aus xxxx workstations vernetzt oder ein riesending in einen |
wetten dass das nächste windows multicore-unterstützung hat, und zwar so, dass ein core windows gehört, der andere den apps:ms:
|
Re: Warum mehr als 4 CPU Kerne auf einem Chip nichts bringen
Zitat:
die 4 kern cpu's sind einfach optimal um möglichst viel power auch wenig platz unterzubekommen. wer sich solche cpu's leistet hat ganz andere sorgen als lizenzkosten. |
Das glaubst Du. Die Lizenzkosten sind nicht das einzige Problem. Das eigentliche Problem sind die Verhältnisse, und mit 8 CPU Kernen wird es unverhältnismässig ungünstig. Außer man kann einige Kerne hardwareseitig abschalten.
|
Zitat:
Viel wichtiger ist es, zu einem 20 : 80 Verhältnis zu kommen, 20 % Fixkosten, 80 % Servicekosten, Null Prozent Hardwareeinheiten Kosten bei den Softwarepreisen. |
Zitat:
|
Die Geschwindigkeit leidet bei 8 Kernen, der Stromverbrauch ist hoch und die Lizenzkosten fallen zu stark ins Gewicht. Ich kann Dir leider keine anderen Argumente anbieten, offensichtlich verlangst Du noch mehr bzw. anderes.
|
Zitat:
|
Das sind nicht Argumente für Homeuser, sondern für den Alltag der Low- bis Midrangeserver. 8 Wege Systeme sind etwas anderes als die externe drei Punkt Verbindung von per Infiniband oder Hypertransport zusammengeschlossenen CPUs. Wieder etwas anderes sind Chips mit 8 CPU Kernen.
|
4kerne pro die o.k. -hat ibm immerhin schon in seiner power linie.
8kerne pro die - da müssen wir aber sicherlich länger als bis ende des jahres warten - schätze bis ende 2007. da muss zumindest noch ein die-shrink auf 0,65nm wenn nicht gar 2 schritte auf 0,45 nm her. den wie kühlt man so einen riesen prozessor? - kommt nur noch wasserkühlung in frage - apple machts ja vor.ausserdem ist sicher die ausbeute bei 8 prozessorkernen auf einem die sehr gering ,da muss die qualität der fertigungstechnik gewaltig gesteigert werden -sonst wären die kosten selbst für das low bis mid end server segment ,das man mit der x86 archtektur abdecken will zu gross. eher sehen wir itaniums mit 16 kernen als x86er mit 8 . dort kann man ja horrende preise für die prozessoren verlangen und die firmen sind für solche geräte auch bereit wesentlich mehr zu zahlen . dann kommt noch die frage ,wann stirbt x86 ? 2008 ,09 oder 10? dann muss man einfach zu viele transistoren verschwenden um die dinger noch halbwegs konkurenzfähig zu halten . auch wenn es amd geschaft hat intel derzeit im x86er bereich stark in bedrängnis zu bringen , irgendwann geht epic los wie eine rakete. tejas - der erste schritt zur migration wurde gecancelt- die zeit war noch nicht reif . aber nach dem letzten aufbäumen durch die 64 bit erweiterung - irgendwann ,wie schon gesagt ,verbraucht das ganze drum herum , die x86 benötigt um halbwegs auf der höhe der zeit zu bleiben ,- so viele transistoren ,das sich das ganze nicht mehr rechnet. -die prozessoren werden wieder einfacher werden. apple hat den schritt schon vor jahren getan - bei den pc´s wird es noch ein paar jahre dauern , aber dann wird x86 tot sein . hoffe nur dass das know how ,dass an dieser architektur vergeudet wird irgendwie epic zu nutze kommt. sonst hat ibm mit dem protegieren von amd den klügsten schachzug aller zeiten gelandet. und so ganz nebenbei verkauft man den pc zweig - da es sowieso schon tote technologie ist . jetzt schon zumindest in den simulationen ,die sie auf ihren supercomputern laufen haben . oder glaubt noch immer jemand ,das auf diesen dingern - atomwaffentests simuliert werden - mag zum kleinen teil auch stimmen. aber zur merheit werden dort zukunftszenarien durchgespielt . die ki wird ständig verbessert- was sie mit ihren "schachprogrammen" zeigen. und die rechenpower steigt auch ständig. aber jetzt schweife ich doch zu weit ab . sp_23 |
Die Zukunft. Über die läßt es sich leicht spekulieren. Prognosen abzugeben wäre da schon zielführender.
Nach den Infos, die bekannt sind, sollte sich der Cell Prozessor durchsetzen. Transmetas Technologie ist irgendwie noch nicht reif - zum Abschuß, und weiterverwenden durch andere. Epic (Explicitly Parallel Instruction Computing) ist gelinde gesagt Schrott. Viel besser sind da schon der Einsatz von DSPs und kompletten Kernen so wie es jetzt geschieht. Der Cell Prozessor hat diesbezüglich wesentlich mehr zu bieten als der Itanium 2, weil er sämtliche Operationen zugeschnitten auf die Datenbreite erledigt und bessere Ergebnisse erzielt als mit simplen RAM Burstmodes wie z.B. der Pentium4, da er besser skaliert (=balanciertes Wechselspiel zwischen Datendurchsatz und Datenverarbeitung). Das geschieht über variables Hinzuschalten von Einheiten - extern. Ein Cell Prozessor ist der Master, die anderen die Slaves. Ein ähnliches Konzept wie AMD 64bit. Der Memorycontroller im Cell Prozessor ist auf DDR3 und XDR RAM ausgelegt. |
Re: Warum mehr als 4 CPU Kerne auf einem Chip nichts bringen
Zitat:
Klar. Deswegen bietet ja auch KEIN Hersteller 8, 16, 32 oder 64 CPU Systeme an. Sowas gibts ja gar nicht, weil sich keiner die SW leisten kann. Gut, dass das HP, IBM, Sun, Dell, ... nicht wissen, die koennten sonst ihre ganzen High-End Geraete einstampfen. :ms: |
Gemünzt ist das - vornehmlich, aber nicht nur - auf Nutzerschichten, die es früher nicht gegeben hat.
|
immer wieder amüsant, so ein Thread :cool: ;)
|
Dafür hab ich ihn ja eröffnet, damit Du etwas zum Schmunzeln hast ;)
|
o.k kika - auch epic hat seine nachteile . ob cell sie alle nicht hat konnte ich auch über google nicht herausfinden .
wenn ichs aber richtig verstanden habe - sind beide vliw/risc zwitter- die vor ihrer eigenen dummheit - durch einen intelligenten compiler geschützt werden müssen . und die je mehr recheneinheiten sie besitzen umso mehr bandbreite verbraten können. mehr recheneinheiten pro prozessor oder mehr prozessoren pro die -die dann wieder mehr recheneinheiten ergeben - ist eine reine kostenfrage. xdr- ist so ein spezielles thema . insgeheim gibst du damit intel recht- denn die haben rambus erst zum thema gemacht. und xdr ist nichts weiter als dessen weiterentwicklung. entscheiden wird wie immer mr gates. - der hat im moment ja beide konkurenten im boot. die nächste xbox passiert ja auf ibm power prozessoren. und intel ist sowieso mit denen verbandelt- auch wenn er gerade einen warnschuss in richtung itanium abgegben hat mit der einstellung von win xp für ia64. aber nicht xp wird entscheiden sondern longhorn . ich als normaler user würde beiden ihr longhorn geben - damit sich die zombies gegenseitig ausbluten können- den ich will nur mehr leistung und das zu einem möglichst günstigen preis. damit ich mich nicht mit hollywood müll herumschlagen muss (o.k es gibt da auch gutes dabei - aber wenig),sondern (fast) in echtzeit- immerhin zählt dr faktor mensch auch noch wass - meine eigenen filme per drag and drop zusammenklicken kann - storyboard und regie natürlich von mir ;) - sie rendern und sie gleichzeitig streamen kann ! mir persönlich ist es egal ob ich da vor einer aufgebohrten playsation/xbox (2,3,,4...) oder einem itanium (3,4,5..) sitze . wenn du dich erinnern kannst haben wir schon vor ein paar monaten darüber diskutiert- da war noch eindeutig x86-64 dein favorit. was ich damals bewirken wollte - ist alte zöpfe abzuschneiden und x86 endlich den gnadenschuss zu geben . anscheinend hast du deinen mind geöffnet und setzt jetzt auf explicit parallele instructions verarbeiter. - den das sind sowohl cell als auch ia64. nichts zu danken - ich bin nicht der messias -ich bin nur gottes sohn;)und ein gemeiner excessiver multitasker am computer. :p sp_23 |
@spiral_23:
0,65 bzw. 0,45nm ???? Wohl kaum, denn 0,4nm ist EIN Atom-Gitterabstand bei Aluminium!!! Mit 0,65µm=650nm liegst du besser...:) |
Im Meinung verdrehen bist Du gut. AMD 64 ist weiterhin IMHO die bessere Technologie in Bezug auf EM64T und Itanium 2.
Der Cell Prozessor wird einfach geeignet sein, alles mögliche zu betreiben. Und insofern wird es sich bei verteilten Anwendungen durchsetzen, weil er nicht so viel Strom zieht und trotzdem effektiv arbeitet wie beispielsweise irgendein Workstation Itanium 2. Wenn Dir die Felle davonschwimmen, ist klar, daß Du es nicht leicht verwinden kannst. Meine Meinung hat sich in Bezug auf x86-64 jedenfalls nicht geändert. |
Playstation 2 im Dienste der Wissenschaft
Beim Cell Prozessor wird sich dieser Trend stark ausweiten. |
amd64 ist doch emt64 -nur das intel nicht gut den namen amd64 verwenden kann -rein aus prestigegründen und es wäre auch unpassend
eine eigene technologie ,die amd vor dem gnadenstoss gerettet hat- plötzlich den namen des konkurenten zu verpassen .den x86 ist nun mal intels entwicklung und nicht die von amd. wo meinst du bestehen unterschiede zwischen amd64 und emt64. den integrierten memorycontroller zähle ich nicht zur microarchitektur,sondern zur systemarchitektur. und wie gesagt damit unterstützt man nur ibm - die sich ja an den nazis gesundgestossen haben und nun federführend bei der tcpa sind! sp_23 |
EM64T unterstützt meines Wissens nach nur 4 GB. Nur wofür verwendet man dann die 64bit Befehle ? Das ganze wurde ja eingeführt, um den Adressraum von 2 bzw. 4 GB zu überwinden, ohne immer die extrem zeitaufwendigen Umrechnungen von 32bit Registerwerten auf 64bit per Software vornehmen zu müssen.
Es gibt aber auch Probleme bei der 1:1 Umsetzung, weil ein Nocona Pentium 4 Xeon z.B. halt kein AMD K8 ist und somit intern die Dinge ein wenig anders laufen (müssen). |
Zitat:
Der Unterschied ist die bei den gegenwärtig erhältlichen EM64T-Prozessoren fehlende IOMMU-Einheit. Dies führt dazu, dass bei EM64T anders als beim AMD64 keine direkten DMA-Zugriffe auf Speicherbereiche oberhalb von 4 GB möglich sind. Stattdessen muss der Betriebssystem-Kernel diese Fähigkeit in Software emulieren und die Daten zunächst in Puffer unterhalb der 4-GB-Grenze schreiben. Was meinst du mit "eigene technologie"?!? AMD64 ist eine AMD-Entwicklung! Und das es AMD vor dem Gnadenstoß gerettet hat, ist reine Spekulation. Und dein IBM-Nazi-gerede gehört hir wirklich nicht rein, ausseredem möchte ich da mal einige Quellen bekommen. |
Zitat:
wie sehr die x86 architektur von klimmzügen und workarounds lebt. pat gelsinger - intel chefentwickler -hat einmal gesagt -es muss bug für bug mitentwickelt und möglichst modern umschift werden . das meine ich auch mit unnötigen verbrauch von brain capacity und transistoren . nur um ein von vorherein nicht schlüssiges konzept immer weiter und weiter hinken zu lassen .apple hat es schon vor jahren vorgemacht und hat auf power technologie umgestellt- und auf kompatibilität verzichtet.das gecancelte "tejas" project intels - hätte die ära des "volks" itanium eingeläutet.- eine sanfte migration von x86 auf epic. aber wie bei rambus war die zeit noch nicht reif dafür.- na ja dafür wird halt später dann dieser "itanium for the masses" umso besser werden. und nun noch zunm nazi connect -google hilft dir beim einlesen hier die google links -is doch ein ganzer haufen .-da gibts gnze bücher drüber - ich interessier mich auch nicht so dafür- aber es muss doch offen gesagt werden können. hoffe ich zerstöre jetzt keine sympatien für ibm - auch ich sage - was vor einer ,zwei oder drei generationen passiert ist -dafür kan man die nachkommen bzw nachfolger nicht mit einer kollektivschuld belegen - genauso seh ichs bei ibm - aber für die amis ist der begriff "economy" - immer mit dem anliegen "nationaler sicherheit" und damit mit dem begriff "war" verbunden. gut das wir in dem schnöden alten europa leben - auch wenn sie uns mit der globalisierung in eine falle gelockt haben - gibt es doch noch einen sozialen auftrag -zumindest für manche gruppierungen und regierungen und nicht wie in den staaten fast nur durch ngo´s ! so long sp_23 |
OK, du hast recht. Eine Deutsche IBM Tochtergesellschaft hat Lochkartenmaschinen an die Nazis geliefert.
Ich zitiere: "Während des Zweiten Weltkriegs wurden die von der IBM-Tochter Deutsche Hollerith Maschinen GmbH (Dehomag) an die Nazis gelieferten Lochkartenmaschinen für tausende von Sinti, Roma und Juden zum Verhängnis. Die Geräte verschlüsselten die Daten der Häftlinge in den Konzentrationslagern: Nummer 12 bedeutete der Gefangene war ein Sinti oder Roma, eine 8 hiess «Jude». Und D12 lautete der Code, wenn der Häftling hingerichtet worden war." Ich bin weder IBM Sympatisant noch bin ich ein Rechter (gar net), aber solche aussagen sind absolut unseriös und gehören nunmal nicht zu diesem Topic. |
Zitat:
Außerdem ist geplant, nur Datahouse Versionen von Windows für den Itanium anzubieten und zwar verpflichtend als Abonnement. Damit kommt man der 20 % Fixkosten 80 % Servicekosten nur scheinbar nahe, da ich gezwungen bin, den Preis unter allen Umständen hinzulegen, und der wird nicht zu knapp sein für ein Itanium Windows. Also mit Itanium für jedermann ist nichts, da bist Du - aber das weisst Du selber - auf dem Holzweg. Was passieren wird, ist, daß Linux mit Opterons und Itaniums gebündelt wird von HP, IBM - jetzt Lenovo - und Dell. |
@Lizenzkosten
Hier geht's um Kosten für IPRs (intellectual property rights) die AMD als Lizenzgebühren für die von ihnen genutzten Patente von Technologielieferanten oder anderen Chiphersteller bezahlen müssen. Möglicher Empfänger wären z.B. Intel, IBM, Texas Instruments ... Die Lizenzgebühr kann pro CPU (Kern) ein fixer Betrag sein, oder auch ein % Betrag des gesamten Verkauspreises. Je nach Verhandlungsgeschick :D Eine PU mit 8 Kernen kann dadurch ganz schön teuer werden |
x86 ist tot - eine architektur die mehr brainforce braucht die bug's zu verschleiern und damit mehr transistoren frisstals sie in neue leistung zu manifestieren zu können -ist technisch schrottreif.
|
Zitat:
|
ist mir prinzipiell egal welcher risc/simd zwitter es wird . bill gates wird es entscheiden - was dann leistbar ist und was eine randlösung bleibt.
|
.
Wenn hier AMD oder APPEL oder IBM bezahlbare Programme für 64bit MulticoreCPUs liefern wollen, dann möchte ich die sehen bevor ich so ein 64bit Ding kaufe. INTEL steht für Rückwärtskompatibel zu MSDOS Ver 1.0 und X86. Somit ist eine breite Softwarebasis sichergestellt. Ich als HomeUser werde jedenfalls keinen Rechner kaufen der X86 nicht beherrscht. Ich kauf stabile, stromsparende, leistungsfähige Rechner die upgradefähig und wartbar sind, oder fang wieder an Bücher zu lesen. ....wenn ich die Leistung von 8 DothanCores@2Ghz mit gemeinsamer Cache zusammenrechne, kommt nicht mehr als 60Watt raus, in 650nm wärens noch weniger.Da ist kein Problem zu sehen. |
Cell Architecture Explained
Zitat: The Cell Processor This is a 9 core processor, one of these cores is something similar to a PowerPC G5 and acts as a controller. The remaining 8 cores are called APUs and these are very high performance vector processors. Each APU contains it's own block of high speed RAM and is capable of 32 GigaFlops (32bit). The APUs are independent processors and can act alone or can be set up to process a stream of data with different APUs working on different stages. This ability to act as a "stream processor" gives access to the full processing power of a Cell which is more than 10 times higher than even the fastest desktop processors. |
.
Naja ist es ist keine Frage der Technik soviel ist sicher...... |
Zitat:
als der schnellste x86 - der dazu aber bedeutent mehr transistoren braucht als der "dummme" cell. - vielleicht gibts ja mal ein windows dafür ,dann haben nicht nur die spieler was davon ,sondern der onu. sp_23 |
| Alle Zeitangaben in WEZ +2. Es ist jetzt 04:55 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag