WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Tuning, Cooling, Overclocking (http://www.wcm.at/forum/forumdisplay.php?f=12)
-   -   500@5000 ?? (http://www.wcm.at/forum/showthread.php?t=9460)

16.08.2000 15:33

Frage:
Wäre es THEORETISCH! möglich einen 500 (ist jetzt ganz egal welcher) mit einer Stickstoff-Kühlung auf 5000 zu clocken ?? Oder überhaupt irgendeinen Prozessor so zu übertakten ?? Kenn mich überhaupt nicht in diesem Bereich aus, hab das mal wo gelesen. Wenn, dann muss das ja sehr kosten spielig sein.

MfG
Jan

zsugi 16.08.2000 15:37

Glaube aber das sich damit die Lebenserwartung des CPU´s drastisch senkt.*gg*

Wenn das Motherboard aushält.

spunz 16.08.2000 15:39

die neuersten kryotech rechner haben einen 1,1 ghz tb mit 1,35ghz bei -40grad.

so einfach ist das ganze nicht, soweit ich weiß würden die leitungen im prozzi das nicht aushalten. bin kein experte, hab das nur aufgeschnappt.

spunz

16.08.2000 15:42

Kann ich mir nicht vorstellen. Denn es gibt auch Grenzen die durch die CPU Architektur gegeben sind. D.h. selbst wenn du es schaffen würdest eine Umgebung von -200°C zu Erzeugen, würde z.B. ein PIII auch nicht auf 5GHz gehen.

garbage

jaho 16.08.2000 16:02

:D :D :D

*looool*

Also es ist ja schon zuviel auf diese Antwort zu antworten :D ...

Aber ich werde es mal erklären:
Ein Prozessor ist nur so schnell, so langsam sein schlechtestes Teil ist! Und wenn man jetzt einen 1,35ghz laufen hat, der schon auf -40°C lauft, so ist auch das schon fast unmöglich, weil die ganze Prozessortechnik auf Funk umstellen muss, weil z.Z. wird ja die Kupfertechnik verwendet, und die ist für einen 1,5ghz fast zu langsam! d.h. wenn man einen 2ghz Prozi haben möchte, muss man irgendwie die physik überlisten!

Um es nochmal für den leien zu erklären:
Das Signal über die Leitung braucht auch eine Zeit, und da kann der Prozessor auf 10ghz getaktet sein (was heutzutage nicht möglich ist!!!)aber er ist trotzdem nicht schneller als z.B. ein 1,5ghz Prozi da das Signal über die Leitung so lange braucht!


Also wenn es noch ein paar unklarheiten gibt, bin ich gerne bereit diese aufzuklären ;)

jaho

16.08.2000 16:09

@jaho:
Im Moment wird fast nur Aluminium für die Leitungen eingesetzt. Erst die neuesten TB aus Dresden sind aus Kupfer, d.h. da steckt noch genug drinnen.
1,5GHz TB im Januar, lt. The Register, und ohne Superkühlung auf -40°C. Daß man da dann vielleicht einen Superkühlkörper braucht ist ein anderes Thema ... www.theregister.co.uk

garbage

[Dieser Beitrag wurde von garbage am 16. August 2000 editiert.]

jaho 16.08.2000 16:44

Sorry war mir nicht sicher wegen der Leitung, aber bei einem bin ich mir sicher! Das die Prozessortechnik schon ziemlich am Ende der kapazität von den Leitungen ist! d.h. es wird nicht mehr soviel drinnen sein!
weil man müsste noch kleiner als 0,18µ Leitungen gestalten .... und desto kleiner desto schwieriger ist es! Und wie schon vorher gesagt, es ist demnächst eine pysikalische Grenze!

Warum glaubst du sonst, geht die Prozessortechnik nicht mehr so schnell weiter!?!? ... weil es ein Grund von vielen ist!

------------------
gruss michi :D

[Dieser Beitrag wurde von jaho am 16. August 2000 editiert.]

Kosh 16.08.2000 16:54

Na na, jaho dürfte sich da doch nicht so gut auskennen, denn sonst hätte er das Kind beim Namen genannt!

Die Grenze von der er spricht, ist die Lichtgeschwindigkeit.
Für eine Rechenoperation, also daß, wofür der Prozessor einen Takt braucht, müssen elektromagnetische Felder bestimmte Wege zurücklegen. Und der längste Weg ist in diesem Fall geschwindigkeitsbestimmend.
Es kommt aber dann nicht nur auf den Prozessor an, sondern auch auf die anderen Komponenten, die ja (wie zB die Grafikkarte) weit von der CPU entfernt sind.

16.08.2000 17:03

Ich glaube das die Geschwindigkeit von den Prozessoren absichtlich langsam vorangetrieben wird. Wegen den Einnahmen. Beim Internet ist es ja auch nicht anders. Warum wird denn ADSL gedrosselt angeboten ?? Damit man später für die höhere Geschwindigkeit nochmehr verlangen kann !!! Und so sieht es meiner meinung nach auch mit den Prozessoren aus.

Kosh 16.08.2000 17:22

Ich bin sicher, daß es nicht so ist. Es werden zwar bei den CPUs absichtlich bestimmte Funktionen ausgeschaltet, aber die Taktfrequenz wird nicht künstlich niedrig gehalten. Es sind in der Tat pysikalische Grenzen, die Lichtgeschwindigkeit ist eine, die Schaltzeit von Transistoren eine andere.

Aber selbst wenn dir ein 5GHz Prozessor zur Verfügung stände, er würde dir nichts nutzen. Denn Flschenhälse in der Geschwindigkeit gibt es schon heute: Speicher (sowohl auf dem MB als auch auf der Grafikkarte), Bus,...

spunz 16.08.2000 19:54

die 2ghz werden mit 0,13µ ken problem sein. intel nächstes jahr (alu), amd anfang 2002 in kupfer.

spunz

Bit 16.08.2000 20:02

Übrigens:
Allein an der Taktfrequenz zu schruaben brignt im Endeffekt auch nix - Es is vielmehr intelligentes Design gefragt (na net Sockle oder Slot *g*)

Nehmt nur mal CISC uind RISC - ihr wisst ja Äpfelchen haben alle inee geringere Taktfrequenz G$@500MHz - lässt aber nen 1GHz PIII wie nen Rechenschieber aussehen. (ok - etwas übertrieben)

Deswegen gaht man ja auch daran Prozis mit breiten Bussen zu entwicklen.

Nur mal so ein Denkfrequenz.

madias 16.08.2000 20:03

ich kenne mir prozessortechnik zwar nicht so gut aus, aber die mhz(ghz) ist ja nur ein faktor für die leistung des prozessors (anderer faktor ist die anzahl der transistoren). ein G4 ist ja bei gleicher taktzahl einen amd/intel weitaus überlegen.
ganz zu schweigen von allen anderen komponenten - die langsamste komponente ist immer noch der user hinter der tastatur.

madias

spunz 16.08.2000 20:30

1,5ghz tb im jänner laut the register

jaho 16.08.2000 21:43

@ kosh .. das war es was ich suchte *g* .. *sorry* .. bin heute bis um 2h im bett gelegen ... da es gestern eine stürmische Nacht war :D ...

Was ich aber noch zum G4 sagen möchte ... "man kann nicht graut mit rüben vergleichen!"
-> der G4 entspicht theoretisch einem P3 1,8ghz, jedoch hat der G4 ganz andere ambitionen, und kann deshalb nicht mit einem AMD oder Intel verglichen werden!

Jaho :D

Jaszman 16.08.2000 23:07

...in den wcm news ist ja letztens etwas über einen Quantencomputer gestanden, der grad in der Entwicklung steht,...ich nehme an es wird noch etliche Jahre dauern bis was draus wird, aber sollten Computer innerhalb der nächsten Jahrzehnte tatsächlich in Lichtgeschwindigkeit arbeiten,...oder das Internet derart beschleunigt wird,...dann wär das sicher "die" Revolution dieses Jahrhunderts und alles würde sich ändern,...weiss nicht ob das so sinnvoll wäre...

mfg
Jaszman

wol 16.08.2000 23:34

Hab irgendwo gelesen, dass die Verkleinerung der Prozessorarchitektur nicht beliebig weitergeht. Bei 0.1 µ ist angeblich Schluss, wenn ich mich recht erinnere. Der Grund ist glaub ich , dass die Leiterbahnen dann schon so fein sind, dass die Wellenlänge des Lichts der begrenzende Faktor ist. (bei der fotomechanischen Hestellung der Chips).
Also früher oder später werden sich die Hersteller irgendwas Neues einfallen lassen müssen. ZB. mehrere Chips parallel schalten oder was weiß ich.

------------------
MfG. wol
-------------------------

spunz 17.08.2000 07:55

ein g4 kann es nicht mit einen 1ghz athlon aufnehmen. gabs schon mehrere tests.

spunz

The_Lord_of_Midnight 17.08.2000 20:30

Ich bin zwar kein Anhänger der Cisc-Cpus, aber wenns nur auf Performance ankommen würde, würds schon lang nur mehr Risc geben !

spunz 17.08.2000 21:20

ich glaub im c´t hab ich es gelesen. die ganzen risc pc´s und server werden langsam durch x86 ersetzt weil das preis/leistung verhältnis viel besser sein soll. (ist)

spunz

Kosh 18.08.2000 00:26

RISC steht für Reduced Instruction Set Computer, bei CISC ist es dasselbe nur steht C für Complex. D.h. Bei CISC CPUs werden komplexe Befehle von der Hardware erledigt.
Da es mehr Befehle gibt und diese in der Regel auch komplexer sind, braucht die CPU länger um einen solchen Befehl auszuführen.
RISC CPUs kennen nur wenige Befehle, die können dafür aber sehr schnell ausgeführt werden. Sehr schön ist das Dilemma beim Alpha Prozessor zu sehen. Um seine volle Leistung zu entfalten, braucht er speziell, auf seinen Befehlssatz zugeschnittene, Software. Hat er diese nicht, müssen viele Befehle emuliert werden, also per Software erledigt werden. Nur wer schreibt auf den Alpha zugeschnittene Software?? Fast keiner.
Daher werden die RISC CPUs sicher ihr Nischendasein weiterführen, aber den großen Markt werden sie nicht erobern.

The_Lord_of_Midnight 18.08.2000 21:52

So schnell wirds jetzt auch nicht gleich gehen. Denn bis heute sind noch alle richtigen Server mit Risc-Cpus ausgestattet. Die Alternative, die im Ct wahrscheinlich gmeint war, sind die Linux-Server. Die werden aber nicht deswegen, gekauft, weil die Intel-Rechner so einen guten Datendurchsatz haben, sondern weil Linux einfach gut ist. Und vor allem auch deswegen, weil Linux mit der gleichen Hardware im Vergleich zu Windows um Kategorien besser performt und ebenso um Kategorien stabiler und sicherer ist ! Je nachdem, was man als Nische betrachtet, sind aber nach wie vor die Intel-Rechner die Nische. Selbstverständlich wird die Anzahl der Intel-Rechner wesentlich höher sein, weil es für die vielen kleinen Firmen nicht wirtschaftlich ist, sich einen richtigen Server zu kaufen. Wie die Sache in ein paar Jahren ausschaut, ist sicher sehr schwer abzuschätzen. Mit der weiteren Verbreitung des Internet kann es aber auch in die gegengesetze Richtung gehen, denn im Web ist die proprietäre Cpu nicht mehr so wichtig.



[Dieser Beitrag wurde von The_Lord_of_Midnight am 21. August 2000 editiert.]

Vader 21.08.2000 16:26

Mal ganz abgesehen davon, dass sich ein kleines unternehmen kaum einen alpha server hinstellen wird - die risc cpus werden wirklich kaum noch unterstützt - sogar microsoft hat alle alpha server rausgeschmissen, weil es kein w2k für risc geben wird - nie!
der einzige vorteil von solchen servern ist dann noch das service - schnell und gut, aber teuer... wer sichs leisten kann. viel klüger dürfte dann schon ein linux cluster fürs web sein... sogar c't hat auf einen cluster mit load balancing umgestellt; und die haben (hoffentlich) ahnung...

The_Lord_of_Midnight 21.08.2000 20:31

Pardon, Vader.

Aber wie kommst Du darauf, daß sich die ganze Edv nur um Ms dreht ? (Ok, könnte man wirklich meinen, wenn man nur Ms Windows kennt). Und wer sagt, daß es nur Intel und Alpha Cpus gibt ? Wie schauts mit Solaris, Aix, Hpux, Reliant Unix und den unzähligen anderen Derivaten aus ?

Linux ist sicher eine interessante Variante. Der klassische Cluster wird von nicht Eingeweihten aber meist falsch eingeschätzt. Ein Cluster ist für die Performance nämlich eher von Nachteil als von Vorteil, weil ja die beteiligten Datenblöcke vor JEDEM update abgeglichen werden müssen. Wenn Du da keinen millionenteuren High Performance Switch zum direkten Verbinden der Cpus hast, bricht die Performance komplett ein.

Was der "Volksmund" mit einem Cluster meistens meint, sind die sogenannten Failover Konzepte oder Server Farmen. (das sind aber wieder zwei verschiedene Sachen). Richtig abgehen tut die Post eigentlich nur bei den Massiv Parallelen Systemen, wo jede Cpu mit jeder anderen Cpu direkt und ohne Umwege kommunizieren kann und wo jede Cpu ihren eigenen Memory hat.

Über die Praktiken von Ms sollte man eigentlich informiert sein. Warum die etwas unterstützen und warum nicht, kann auch ganz andere Gründe haben, als die von Dir angedeuteten.

madias 22.08.2000 02:34

@TLOM:ist dieses Massiv Parallelen Systemen unter linux dieses gewesen, mit dem sie die animationen von "titanic" gerendert haben?
mich würde auch interessieren, ob es theoretisch möglich wäre, Quadraboards oder höher, für amd oder intel herauszubringen. (abgesehen von einschränkungen des betriebssystems, bzw. der software)?
wenn ja, wäre so etwas überhaupt noch rentabel für mb bzw. cpu hersteller? (spreche ja nicht gerade von home-user bereichen.)

madias

The_Lord_of_Midnight 22.08.2000 23:56

Ich kann mich leider nicht mehr genau an die Geschichte mit der Titanic erinnern. Ich glaub, das waren Ibm Sp2 Systeme. Die sind eigentlich die prominentesten Vertreter der MPP-Riege. Auf jeden Fall waren die Sieger bei der letzen "Schlacht" (Big Blue oder so) mit den Schachweltmeistern ein ganzer Haufen von Ibm Sp2s.

Das diese Dinge kurzfristig für X86-kompatible Mainboards herauskommen, finde ich äußerst unwahrscheinlich, weil diese Systeme im Bereich von Millionen kosten.

Was sehr wohl heute schon möglich ist, sind die sogenannten Server Farmen, Cluster oder Standby-Systeme.

Eine Server Farm ist nichts anderes als eine unter Umständen sehr große Anzahl von kleineren und kostengünstigeren Servern. Diesen Servern sind quasi wie ein Transaktionsmonitor eine beliebige Anzahl von Eingangs-Werservern vorgeschaltet, die die Last aufgrund von bei Bedarf äußerst fein gesteuerten Algorythem verteilen können. Da kann z.B. auch die unterschiedliche Memory und Cpu-Power jedes einzelnen Servers berücksichtigt werden. Richtige Transaktionsmonitore werden überlicherweise im Bereich von mehreren bis vielen Tausend Benutzern verwendet. Aber der Gag dabei ist, daß man die Größe von Server Farmen ja fast stufenlos steuern kann, man kann ja auch klein anfangen. Ein sehr schwerer Nachteil ist prinzipbedingt der hohe Wartungsaufwand, der mit der Anzahl der Systeme steigt. Deswegen kommt man bei wirklich großen Sachen wahrscheinlich schnell wieder zum klassischen Transaktionsmonitor zurück.

Ein Cluster ist ein Verbund aus zwei Systemen, die gleichzeitig auf den gleichen Datenbestand zugreifen. In der Regel sind das sogenannte Shared Disken. Die Block-Synchronisation passiert aufgrund von sogenannten Pings. Das kann ein schwerer Performance-Nachteil werden, wenn die Verbindung nicht mit einem High Performance Switch passiert (Millionen-Teuer) und/oder wenn die Applikation nicht darauf ausgelegt ist. (Test bzw. Zertifizierung ist sehr wichtig)

Standby-Systeme sind genauso wie Cluster eher auf Ausfallsicherheit denn auf Performance ausgelegt. Beim Cluster nehmen beide Rechner Connections auf, beim Standby System nur der aktive Rechner. Der passive tut nichts anderes, als permanent die Änderungen des Masters nachzufahren. Sollte es zu einem Ausfall kommen, steht der Standby-Rechner sofort zur Verfügung und die Kunden können ohne oder mit Ausfällen im Sekundenbereich weiter serviciert werden. Eine weggeschriebene Transaktion ist aber in jedem Fall gesichert und kann niemals verloren gehen, wenn das ganze richtig implementiert wurde.


Alle Zeitangaben in WEZ +2. Es ist jetzt 09:20 Uhr.

Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag