WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Hardware-Probleme (http://www.wcm.at/forum/forumdisplay.php?f=3)
-   -   500@5000 ?? (http://www.wcm.at/forum/showthread.php?t=1639)

Kosh 18.08.2000 00:26

RISC steht für Reduced Instruction Set Computer, bei CISC ist es dasselbe nur steht C für Complex. D.h. Bei CISC CPUs werden komplexe Befehle von der Hardware erledigt.
Da es mehr Befehle gibt und diese in der Regel auch komplexer sind, braucht die CPU länger um einen solchen Befehl auszuführen.
RISC CPUs kennen nur wenige Befehle, die können dafür aber sehr schnell ausgeführt werden. Sehr schön ist das Dilemma beim Alpha Prozessor zu sehen. Um seine volle Leistung zu entfalten, braucht er speziell, auf seinen Befehlssatz zugeschnittene, Software. Hat er diese nicht, müssen viele Befehle emuliert werden, also per Software erledigt werden. Nur wer schreibt auf den Alpha zugeschnittene Software?? Fast keiner.
Daher werden die RISC CPUs sicher ihr Nischendasein weiterführen, aber den großen Markt werden sie nicht erobern.

The_Lord_of_Midnight 18.08.2000 21:52

So schnell wirds jetzt auch nicht gleich gehen. Denn bis heute sind noch alle richtigen Server mit Risc-Cpus ausgestattet. Die Alternative, die im Ct wahrscheinlich gmeint war, sind die Linux-Server. Die werden aber nicht deswegen, gekauft, weil die Intel-Rechner so einen guten Datendurchsatz haben, sondern weil Linux einfach gut ist. Und vor allem auch deswegen, weil Linux mit der gleichen Hardware im Vergleich zu Windows um Kategorien besser performt und ebenso um Kategorien stabiler und sicherer ist ! Je nachdem, was man als Nische betrachtet, sind aber nach wie vor die Intel-Rechner die Nische. Selbstverständlich wird die Anzahl der Intel-Rechner wesentlich höher sein, weil es für die vielen kleinen Firmen nicht wirtschaftlich ist, sich einen richtigen Server zu kaufen. Wie die Sache in ein paar Jahren ausschaut, ist sicher sehr schwer abzuschätzen. Mit der weiteren Verbreitung des Internet kann es aber auch in die gegengesetze Richtung gehen, denn im Web ist die proprietäre Cpu nicht mehr so wichtig.



[Dieser Beitrag wurde von The_Lord_of_Midnight am 21. August 2000 editiert.]

Vader 21.08.2000 16:26

Mal ganz abgesehen davon, dass sich ein kleines unternehmen kaum einen alpha server hinstellen wird - die risc cpus werden wirklich kaum noch unterstützt - sogar microsoft hat alle alpha server rausgeschmissen, weil es kein w2k für risc geben wird - nie!
der einzige vorteil von solchen servern ist dann noch das service - schnell und gut, aber teuer... wer sichs leisten kann. viel klüger dürfte dann schon ein linux cluster fürs web sein... sogar c't hat auf einen cluster mit load balancing umgestellt; und die haben (hoffentlich) ahnung...

The_Lord_of_Midnight 21.08.2000 20:31

Pardon, Vader.

Aber wie kommst Du darauf, daß sich die ganze Edv nur um Ms dreht ? (Ok, könnte man wirklich meinen, wenn man nur Ms Windows kennt). Und wer sagt, daß es nur Intel und Alpha Cpus gibt ? Wie schauts mit Solaris, Aix, Hpux, Reliant Unix und den unzähligen anderen Derivaten aus ?

Linux ist sicher eine interessante Variante. Der klassische Cluster wird von nicht Eingeweihten aber meist falsch eingeschätzt. Ein Cluster ist für die Performance nämlich eher von Nachteil als von Vorteil, weil ja die beteiligten Datenblöcke vor JEDEM update abgeglichen werden müssen. Wenn Du da keinen millionenteuren High Performance Switch zum direkten Verbinden der Cpus hast, bricht die Performance komplett ein.

Was der "Volksmund" mit einem Cluster meistens meint, sind die sogenannten Failover Konzepte oder Server Farmen. (das sind aber wieder zwei verschiedene Sachen). Richtig abgehen tut die Post eigentlich nur bei den Massiv Parallelen Systemen, wo jede Cpu mit jeder anderen Cpu direkt und ohne Umwege kommunizieren kann und wo jede Cpu ihren eigenen Memory hat.

Über die Praktiken von Ms sollte man eigentlich informiert sein. Warum die etwas unterstützen und warum nicht, kann auch ganz andere Gründe haben, als die von Dir angedeuteten.

madias 22.08.2000 02:34

@TLOM:ist dieses Massiv Parallelen Systemen unter linux dieses gewesen, mit dem sie die animationen von "titanic" gerendert haben?
mich würde auch interessieren, ob es theoretisch möglich wäre, Quadraboards oder höher, für amd oder intel herauszubringen. (abgesehen von einschränkungen des betriebssystems, bzw. der software)?
wenn ja, wäre so etwas überhaupt noch rentabel für mb bzw. cpu hersteller? (spreche ja nicht gerade von home-user bereichen.)

madias

The_Lord_of_Midnight 22.08.2000 23:56

Ich kann mich leider nicht mehr genau an die Geschichte mit der Titanic erinnern. Ich glaub, das waren Ibm Sp2 Systeme. Die sind eigentlich die prominentesten Vertreter der MPP-Riege. Auf jeden Fall waren die Sieger bei der letzen "Schlacht" (Big Blue oder so) mit den Schachweltmeistern ein ganzer Haufen von Ibm Sp2s.

Das diese Dinge kurzfristig für X86-kompatible Mainboards herauskommen, finde ich äußerst unwahrscheinlich, weil diese Systeme im Bereich von Millionen kosten.

Was sehr wohl heute schon möglich ist, sind die sogenannten Server Farmen, Cluster oder Standby-Systeme.

Eine Server Farm ist nichts anderes als eine unter Umständen sehr große Anzahl von kleineren und kostengünstigeren Servern. Diesen Servern sind quasi wie ein Transaktionsmonitor eine beliebige Anzahl von Eingangs-Werservern vorgeschaltet, die die Last aufgrund von bei Bedarf äußerst fein gesteuerten Algorythem verteilen können. Da kann z.B. auch die unterschiedliche Memory und Cpu-Power jedes einzelnen Servers berücksichtigt werden. Richtige Transaktionsmonitore werden überlicherweise im Bereich von mehreren bis vielen Tausend Benutzern verwendet. Aber der Gag dabei ist, daß man die Größe von Server Farmen ja fast stufenlos steuern kann, man kann ja auch klein anfangen. Ein sehr schwerer Nachteil ist prinzipbedingt der hohe Wartungsaufwand, der mit der Anzahl der Systeme steigt. Deswegen kommt man bei wirklich großen Sachen wahrscheinlich schnell wieder zum klassischen Transaktionsmonitor zurück.

Ein Cluster ist ein Verbund aus zwei Systemen, die gleichzeitig auf den gleichen Datenbestand zugreifen. In der Regel sind das sogenannte Shared Disken. Die Block-Synchronisation passiert aufgrund von sogenannten Pings. Das kann ein schwerer Performance-Nachteil werden, wenn die Verbindung nicht mit einem High Performance Switch passiert (Millionen-Teuer) und/oder wenn die Applikation nicht darauf ausgelegt ist. (Test bzw. Zertifizierung ist sehr wichtig)

Standby-Systeme sind genauso wie Cluster eher auf Ausfallsicherheit denn auf Performance ausgelegt. Beim Cluster nehmen beide Rechner Connections auf, beim Standby System nur der aktive Rechner. Der passive tut nichts anderes, als permanent die Änderungen des Masters nachzufahren. Sollte es zu einem Ausfall kommen, steht der Standby-Rechner sofort zur Verfügung und die Kunden können ohne oder mit Ausfällen im Sekundenbereich weiter serviciert werden. Eine weggeschriebene Transaktion ist aber in jedem Fall gesichert und kann niemals verloren gehen, wenn das ganze richtig implementiert wurde.


Alle Zeitangaben in WEZ +2. Es ist jetzt 02:56 Uhr.

Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag