![]() |
Hallo Forum
Habe heute den Artikel über WindowsMe im WCM gelesen der mich etwas verwirrt hat (bezüglich Dos-Mode).Meines Wissens nach ist WinMe eigentlich eine Win98 Third Edition und der Dos-Mode ist eigentlich nur künstlich versteckt(angeblich gibt es schon einen Patch um ihn wieder zu aktivieren), aber laut WCM-Artikel sieht es aber etwas anders aus.Was ist nun richtig? mfG werner |
Ja, der DOS-Modus ist nur versteckt. Den patch um ihn zu reaktivieren gibt es hier http://www.geocities.com/mfd4life_2000/
Ich bin nur nicht sicher ob der Patch mit der deutschen Version funktioniert. |
Ich finde es eine Frechheit von M$ ein völlig neues Betriebssystem herauszubringen, daß eigentlich nur eine leicht verbesserte Version eines älteren ist.
Eigentlich wäre WIN95/98 nichteinmal so schlecht (vom Aufbau etc.) aber die gesamte Performance und vor allem die Stabilität läßt wirklich zu wünschen übrig. In Sachen Bedienerfreundlichkeit kann MS aber Punkten. Leider bleibt das wohl der größt Pluspunkt :( |
<BLOCKQUOTE><font size="1" face="Verdana, Arial">quote:</font><HR>
... Eigentlich wäre WIN95/98 nichteinmal so schlecht (vom Aufbau etc.) aber die gesamte Performance und vor allem die Stabilität läßt wirklich zu wünschen übrig. In Sachen Bedienerfreundlichkeit kann MS aber Punkten. Leider bleibt das wohl der größt Pluspunkt :([/b]<HR></BLOCKQUOTE> Gerade im Aufbau des Systems liegt ja der Grund für die Stabilitätsprobleme! Wenn jede Software direkt auf die Hardware zugreifen kann, dann kann das in einem premtive Multitaskingsystem einfach nicht gut gehen .. (abgesehen das dann auch so Sachen wie vernünftiges Taskscheduling und eventuell Multiprozessorunterstützung sowieso nicht in Frage kommen...) Drum pfeif auf Windows ME. Wenn schon Windows dann Windows 2000. [Dieser Beitrag wurde von Jaguar am 23. August 2000 editiert.] |
Ich denke nicht, daß der direkte Hardwarezugriff das prinzipielle Problem von Windows ist. Das Grundproblem ist die vollkommen unsinninge und katastrophale Vermischung von Dlls. Das Problem ist, wenn ein Dll mit einem bestimmten Namen schon im Memory ist, kann eine andere Version derselben Dll nicht mehr hinein. Damit kannst das ganze Windows vergessen, wenn Du Stabilität willst. Diese äußerst unangenehme Tatsache wird in Ms-Kursen gerne mit dem irreführenden Argument des Hardware-Direktzugriffs verschleiert. Kann schon sein, daß das ein weiteres Problem ist, aber es ist eine Nebensache und nicht die Hauptsache.
|
Das Dll Chaos hast unter WinNT/2000 auch..
aber wenn sich das OS nicht darum schert wenn zwei Tasks auf die gleiche Hardware auf vielleicht den selben DMA zur "gleichen" Zeit zugreifen, dann kann da nichts dabei herauskommen. So was ist für ein gutes Taskscheduling alles andere als eine gute Grundlage (wer schon mal in Echtzeitbetriebsystemen programmiert hat, wird mir da recht geben). Wennst jetzt NT/2000 vergleichst, das zwar auch kein Echtzeitsystem ist aber die wesentlichen Desingprinziples eines Betriebsytems beinhaltet, so greift da auser dem Kernel und der IO Managment Unit nix weiteres auf die HAL zu... |
Und aus diesem Grund steht seit heute das erste Servicepack für Windows ME zum Download bereit (natürlich nur englisch).
Ferner hat es Microsoft geschafft mit dem WDM-Treibern noch mehr Chaos zu verursachen. So gibt es jetzt WDM-Treiber für Win2000 und andere WDM-Treiber für Windows ME. Tolle Kompatibilität ... |
Moment: Ist der Vorteil von W2k nicht der, daß die einzelnen Prog eben NICHT dlls quer durchs System schreiben dürfen??
Darum müssen ja Treiber für W2k ja auch extra zertifiziert werden, um eben genau das zu prüfen. Oder liege ich da falsch? |
Stellt sich die Frage, welcher Hersteller die Treiber bei Microsoft zertifizieren läßt. Alle aktuellen Treiber die ich bei einem System vor einigen Wochen eingespielt habe, sind das nicht und darum scheren sie sich auch eine Dreck darum, ob ihnen DLL's im Wege stehen. Der Anwender kann dann nur auswählen: NEIN, keine Installation der neuen Grafikkartentreiber, obwohl die Performance sich um 100% erhöhen würde oder JA, ich will mehr Power, nehme dafür aber ein instabiles System in Kauf. Im Endeffekt ist alles beim alten, da nur eine extra Dialogbox vor dem Treiberupdate aufpoppt, die eben darauf hinweist, das dieser Treiber das System beschädigen könnte (was einige eben auch tun). Dem Anwender wird NICHTS abgenommen bzw. vereinfacht.
|
Aha!
Dann sind aber die Hersteller die die Treiber bauen, hauptschuldig. Denn wenn die wollten, dann würden die Treiber brav sein und nicht kreuz und quer dlls schreiben. Aber die Treiber so artig zu programmieren ist wahrscheinlich teuer. |
Sorry, Kosh. Aber so einfach ist es nicht.
Nochmal: Man sollte sich aus das wesentliche und nicht auf die Nebensachen konzentrieren. Das Grundproblem von Windows ist die Vermischung der Dlls. Alle richtigen Betriebssysteme können GLEICHZEITIG und ZUR SELBEN ZEIT beiliebige Shared Libraries und auch mit dem selben Namen ausführen. Das ist nicht das Problem. Das Problem ist, daß Windows zu deppat ist, das zu handeln. Das ist für mich das größte und wesentliche Problem an Windows und nichts anderes. Solange dieser "Main Design Flaw" nicht endlich behoben wird, werden Ms-Betriebssysteme immer wesentlich höhere Ausfallzeiten haben als andere. Ich denke, daß das nicht passieren wird, denn beim Verkauf gehts um Features. Da sind aber auch die Kunden mitschuld, weil sie eben bei den Features das Maximum haben wollen. Glauben sie aber nur, denn in Wahrheit ist bei einem Linux-Rechner schon fast alles serienmäßig dabei, wo man unter Windows 100 verschiedene Tools kaufen muß. [Dieser Beitrag wurde von The_Lord_of_Midnight am 24. August 2000 editiert.] |
Dieses Problem wird in Whistler vollständig beseitigt.
Whistler glaukelt den Applikationen ein virtuelles System32 Directory für ihre Dlls vor. Sie werden aber anderswo gespeichert und stehen nur für diese Applikation zur Verfügung. Ein Dlls misch masch gibt es daher nicht mehr. Schon Windows 2000 wie auch Millennium enthalten Verbesserungen in diesen Bereich. Beispielsweise können keine System Dlls von einen anderen Programm überschieben werden. Mehr zu dieser von Microsoft "Fusion" genannten Technik gibt es in einen Artikel von Paul Thurrot http://www.winsupersite.com/showcase...ler_fusion.asp |
Guter Url, Philipp !
Sollte das wirklich in der Form kommen, wird es sicher eine wichtige Verbesserung der Windows-Stabilität bringen. Da das Produkt aber noch nicht fertig entwickelt ist, glaube ich daß Jubelmeldungen wie "vollständig beseitigt" nicht angebracht sind. Ich hab das schon so oft gesehen, eigentlich bei jeder neuen Version von Ms. Und Leute, die das glauben wollen, glauben das dann auch. (sind also völlig unkritisch). Such einmal ein bißchen im Forum und dann findest Du ein paar dieser naiven Meldungen so in die Richtung: "Win2k ist unendlich stabil wird alles in den Schatten stellen". Jeder mit ein bißchen Praxisbezug wird erkennen, daß wir bis jetzt noch weit davon entfernt sind und daß Windows nach wie das instabilste aller verbreiteten Os ist. Wenn das nicht so wäre, wozu solls dann Whistler geben ? Alleine der letzte Satz ist völlig unsinnig "So, with apologies to Sun Microsystems, Whistler will enable applications that run once to run forever.". Bitte was soll das ? Jeder normal denkende Mensch müßte doch verstehen, daß nichts für die Ewigkeit ist. Hast Du Dir eigentlich schon überlegt, was passiert, wenn die genannte interne Datenbank einen "Knacks" kriegt ? Ist Dir klar, daß Du dann sehr leicht einen vollständigen Stillstand des gesamten Windows-Systems inklusive aller Applikationen hast ? Warum wird das ganze so umständlich gemacht ? Warum macht mans nicht wie im Unix, also vollautomtisches Sharen der Dlls ? (auch wenn sie gleich heißen) ? Soll ich Dir sagen, wo das Problem liegt: Es gibt immer noch nur EIN ENVIRONMENT. Erst wenn jedes Programm seine vollständig getrennte, eigene Umgebung hat, ist die höchstmögliche Stabilität erreicht. Bitte versteh das ganze nicht falsch. Ich glaub schon, daß Whistler ein sehr wichtiger Fortschritt sein wird, wenn es so realisiert wird. Aber ob das alles so gut läuft, wie sich das jetzt gleich viele Leute vorstellen werden, müssen wir erst abwarten. Erfahrungsgemäß benötigt hochkomplexe Software schon seine Zeit, bis sie stabil ist. Einen wichtigen Punkt hast Du nämlich überhaupt nicht erwähnt: Was ist mit den Bugs ? Theoretisch gibts natürlich keine. Aber durch diese unscheinbaren Dinger kann das ganze Konzept gleich wieder entwertet werden, denn warum soll der Win-Kernel nicht abstürzen können ? |
Na ja, UNIX ist aber auch nicht der Weisheit letzter Schluss - ein schlechter Admin zwingt jedes System in die Knie. Unverständlich ist nur, dass viele für viel Geld ein System kaufen, dass nicht so stabil ist, obwohl sie für viel weniger ein super System kriegen könnten - vielleicht sollte man auch mal Milliarden in Linux-Werbung pumpen?
Oder was soll das auf der TU? Da kriegst für 90,-- ATS!!!!! ein komplettes W2k Pro - so wird sich die nächste Generation aber nicht viel mit Unix beschäftigen, kriegt sie Point&Click doch quasi nachgeschmissen... |
Warum ist Unix nicht der Weisheit letzter Schluß ? Sicher hat alles Vor- und Nachteile, aber sag mir was besseres ?
Das mit dem schlechten Admin ist nicht der Punkt. Denn unter Windows kann selbst ein guter Admin das System in die Knie zwingen, was bei Unix praktisch nie passiert. Die Problematik mit den Dlls und des Kraut-Rüben-Konglomerats in einem einzigen Environment hab ich schon oft genug beschrieben. Selbst ein ausgezeichneter Admin mit enormer Erfahrung kann den Ausgang einer Installation nicht sicher voraussagen. Unter Unix kann schon aus Prinzip nichts passieren. Was soll da schon groß sein, die Benutzersoftware hat keine Auswirkungen auf das Root-Environment. Da mach ich mir einen neuen Benutzer mit seiner eigenen Umgebung. Das können bei Bedarf auch 1000 weitere Leute machen. Was soll da schon sein ? Ich hab schon sowohl unter Windows als auch Unix sehr viele Installationen gemacht. Bei Unix kenn ich keinen einzigen Fall mit diesbezüglichen Problemen. Unter Windows hat ich schon die grausamsten Sachen gesehen und gehört. [Dieser Beitrag wurde von The_Lord_of_Midnight am 26. August 2000 editiert.] |
Sicher habt ihr recht das für profisoneles arbeiten UNIX oder LINUX stabieler und sicherer ist. Doch für den Ottonormalverbraucher? Ich mit Linux schon gearbeitet und es ist nicht schlecht doch für Leute die nur das Kastel aufdrehen wollen und spielen oder Textarbeiten machen wollen ist es zu schwär. Ich finde überhaupt das die Computerindustrie den falschen weg geht sie wird nicht einfacher sondern nur schwieriger. Wo sind die Amiga Zeiten wo man alles anschließen konnte ohne zu istallieren oder updaten zu müssen. Was ist euere Meinung??
|
| Alle Zeitangaben in WEZ +2. Es ist jetzt 00:03 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag