Jens,
ich weiss ja nicht, warum du's nicht verstehen willst

, aber Effizienz hängt doch nicht nur vom Arbeitsvolumen, sondern auch von einer geeigneten Verteilung der Aufgaben ab...
Bei einem schnellen Rechner mit relativ langsam angeschlossenen Festplatten kann es doch viel sinnvoller sein, den schnellen Rechenknecht mehr zu beschäftigen, damit die langsamen Komponenten nicht das ganze wesentlich schlimmer ausbremsen.
Bei einer Festplatte kann es doch sinnvoller sein, den Plattencache mit vielen (komprimierten) Dateien zu füllen, die die CPU später schnell mal entpacken muss, als den Cache mit wenigen (unkomprimierten) Dateien zu füllen, und die CPU hat weniger zu tun, muss aber später warten, bis die Platte die fehlenden (unkomprimierten) Dateien wieder eingelesen hat
Bei einem Engpass im Speichertransfer (Northbridge, da müssen alle Daten durch) kann es sinnvoll sein, dass weniger (komprimierte) Daten "durchgeschleusst" werden, die später erst ausgepackt werden
Bei einem Hyperthreaded oder Multiprozessor Rechner kann es doch sinnvoll sein, wenn ein 'Prozessor' sich (auf Betriebssystemebene) mit dem dekomprimieren beschäftigt, während der andere Prozessor davon überhaupt nichts mitkriegt, sondern im Gegenteil immer schön schnell mit Daten versorgt wird, weil kein DatenEngpass mehr da ist
Keine Angst, ich bin schon ruhig - ich wollte nur noch einmal den Versuch machen, zu erklären, warum es durchaus von Vorteil sein
kann - man kann's sogar erklären.
HansJÜrgen
eins noch: es macht wesentlich weniger Sinn, wenn der Flusi seine Daten selber dekomprimiert - dann fällt nämlich der Nebenläufigkeitsaspekt (HT) raus...