Einzelnen Beitrag anzeigen
Alt 12.09.2003, 16:52   #28
HJOrtmann
Hero
 
Registriert seit: 22.10.2001
Beiträge: 935


Standard

Jens,
ich weiss ja nicht, warum du's nicht verstehen willst , aber Effizienz hängt doch nicht nur vom Arbeitsvolumen, sondern auch von einer geeigneten Verteilung der Aufgaben ab...

Bei einem schnellen Rechner mit relativ langsam angeschlossenen Festplatten kann es doch viel sinnvoller sein, den schnellen Rechenknecht mehr zu beschäftigen, damit die langsamen Komponenten nicht das ganze wesentlich schlimmer ausbremsen.

Bei einer Festplatte kann es doch sinnvoller sein, den Plattencache mit vielen (komprimierten) Dateien zu füllen, die die CPU später schnell mal entpacken muss, als den Cache mit wenigen (unkomprimierten) Dateien zu füllen, und die CPU hat weniger zu tun, muss aber später warten, bis die Platte die fehlenden (unkomprimierten) Dateien wieder eingelesen hat

Bei einem Engpass im Speichertransfer (Northbridge, da müssen alle Daten durch) kann es sinnvoll sein, dass weniger (komprimierte) Daten "durchgeschleusst" werden, die später erst ausgepackt werden

Bei einem Hyperthreaded oder Multiprozessor Rechner kann es doch sinnvoll sein, wenn ein 'Prozessor' sich (auf Betriebssystemebene) mit dem dekomprimieren beschäftigt, während der andere Prozessor davon überhaupt nichts mitkriegt, sondern im Gegenteil immer schön schnell mit Daten versorgt wird, weil kein DatenEngpass mehr da ist

Keine Angst, ich bin schon ruhig - ich wollte nur noch einmal den Versuch machen, zu erklären, warum es durchaus von Vorteil sein kann - man kann's sogar erklären.

HansJÜrgen

eins noch: es macht wesentlich weniger Sinn, wenn der Flusi seine Daten selber dekomprimiert - dann fällt nämlich der Nebenläufigkeitsaspekt (HT) raus...
HJOrtmann ist offline   Mit Zitat antworten