![]() |
grössere platte automatisch schneller?
meine überlegung ist folgende:
ich hab im moment eine 160GB platte in meinem pc - davon sind 100MB belegt lt. HD Tach sinken die zugriffzeiten von ~ max. 80MB/s (am anfang) auf min. 40MB/s (am ende) d.h. meine 100MB Daten liegen so im bereich 80MB/s bis 60MB/s würd ich nun eine neue platte mit z.b. 1000 GB einbauen - dann würden meine 100MB Daten ja im ersten 1/10 liegen und somit sagen wir mal zw. 100 (die neue platte ist ja auch sicher schneller) und 95 MB/s liegen würde eine neue / grössere platte das system beschleunigen? oder hab ich da einen denkfehler? |
grundstäzlich wirst schon recht haben aber ich bezweifle das du die paar sekundenbruchteile merken wirst. Wenn du von mehreren GB daten sprechen würdest ok aber bei 100mb ist das wurscht.
|
Zitat:
d.h. bei fall 1 ist 2/3 belegt - bei der neuen platte wär es das erste 1/10 |
aso also ich hab vor kurzen ein paar 1tb sata platten (voll!) auf 1,5 tb sata platten kopiert hat je platte um die 4std. gedauert wenn ich mich recht erinnere also ca. 70MB/Sek. schreiben.
|
@daytrader
es wäre wohl jede moderne platte mit 7200 u/min schneller, egal ob 320, 500, 640 oder 1000gb, da die datendichte deutlich gestiegen ist. (höhere datendichte bedeutet idr auch schneller) |
Aber Datentransferleistung ist nicht alles, auch die Zugriffszeit muss stimmen. Eine SATA Platte mit NCQ hat schon was an sich. Ansonsten stimmt die Aussage dass bei höherer Datendichte die Geschwindigkeit steigt. Das bedeutet u. a. dass eine 1 TB Platte mit 2 Scheiben schneller und leiser ist als eine mit 4 Scheiben, da auf 4 Scheiben die Daten weniger dicht gepackt sind.
Ideal wäre eine 4-Scheiben Platte mit internem Raid wo die Bytes auf 4 Scheiben gleichzeitig geschrieben werden. Das wäre dann 8x schneller (weil 8 Köpfe). Aber auf sowas kommt ja Niemand aus der Festplattenindustrie... |
... außerdem hängt es auch noch von folgenden faktoren ab:
@LDIR naja, pauschal kann man auch nicht sagen, dass deine "ideal-platte" 8x schneller wäre, da sich ja auch so die köpfe erst positionieren müssen ... außerdem hättest dann nur 1/8 der kapazität ... weiterer nachteil: hot-swapping und rebuild ist bei so einem platten-internen raid natürlich auch nicht möglich, da du ja einzelne scheiben(hälften) nicht wechseln kannst ... sicherer ist definitiv ein raid aus mehreren physisch getrennten laufwerken ;) |
Zitat:
Eine Platte mit zwei Scheiben hat bis zu vier Schreib/Lese-Köpfe. Da diese gemeinsam bewegt werden, wäre es sinnvoll, die Cluster so durchzuzählen, dass sie gleichmäßig auf alle Oberflächen verteilt werde. Damit kann man vier Cluster auf einmal schreiben. Daraus würde aber folgen, dass bei sonst identischen Bedingungen eine Platte umso schneller ist, je mehr Scheiben sie hat, da dadurch die Kopfbewegungen pro Transfer reduziert werden. Da dies eine reine Sache der Controller-Firmware ist, kann ich mir eigentlich nicht vorstellen, dass dies nicht schon längst realisiert ist. Hast du diesbezüglich irgendwelche vertrauenswürdige gegenteilige Informationen? :hallo: |
Zitat:
Das mit dem 1/8 der Kapazität verstehe ich nicht. Wie kommst du drauf? Ist ja schließlich kein Spiegel-RAID 1 sondern RAID 0 von dem ich da schreibe ("Transfergeschwindigkeitserhöhung" kann nur als RAID 0 interpretiert werden): http://de.wikipedia.org/wiki/RAID Als RAID 1 wäre es intern tatsächlich ziemlich sinnfrei. |
Zitat:
|
ahci modus (-> ncq support + hot-plug-fähig um das wichtigste zu nennen) ;)
|
@LDIR
raid 0 ist für mich kein raid, da der begriff "raid" eine redundanz impliziert :rolleyes: ... |
heute hab ich die alte platte (wd 160gb - 1 platter) gegen die neue (wd 640 gb - 2 platter) getauscht
läuft nun schon alles - die benchmarks schauen gut aus - werd nun mal einwenig videoencoding testen . . .. :-) danke für die infos :-) hier noch ein screenshot: http://img194.imageshack.us/img194/3...attegif.th.gif |
Zitat:
Du hast es ja selbst geschrieben: Eine Platte mit vier Scheiben müßte in etwa doppelt so schnell sein wie die gleich große Festplatte mit nur zwei Scheiben. Der umgekehrte Fall trifft aber zu, denn die Datendichte einer Festplatte mit vier Scheiben ist geringer, also ist die Transferleistung ebenso etwas geringer. Meine Annahme beruht daher auf einer logischer Schlußfolgerung. Kann sein dass die Genies bei Festplattenherstellern noch nicht auf die Idee gekommen sind weil das zu naheliegend ist. |
Zitat:
|
Zitat:
Aber ich denke so einfach ist es nicht. Könnte mir vorstellen, daß die höheren Kosten, höherer Produktionsausschuss, höhere Fehleranfälligkeit, nicht mehr so stark steigende Performance etc. dagegen sprechen. Ist ja bei den Cpus auch so, daß eine immer weiter gesteigerte Anzahl der Cores auch den Verbrauch weiter erhöht und die Leistungssteigerungen immer geringer werden. Nur so rein theoretisch betrachtet. |
Wobei aber gerade bei CPU's das der Weg zu sein schein, welcher nun gegangen wird. Schon sind 6 Core CPU's angekündigt und die 8 Core CPU's dürften auch schon in der Entwicklung sein. Die Frage da ist lediglich, wie gut schaffen es die Softwarehersteller, ihre Programme so zu schreiben, dass sie maximal parallelisieren (die Arbeit auf die verschiedenen Cores verteilen).
Weiters hast bei der CPU noch den Vorteil, du bist logisch gesehen nicht mechanisch fix mit allen Cores verbunden, so wie das der Schreib-/Lesekopf der HD ist. ;) Vielleicht müsste man bei den HD's pro Platter und deren Seite einen eigenen Schreib-/Lesekopf haben? Gruss Wildfoot |
Der i7 verfügt über HT ohnedies schon über virtuelle 8 cores...
|
Ja klar, und mein Pentium 4 ist auch ein Dual-Core. **hust** ;)
Gruss Wildfoot |
Nicht alle P4 hatten HT, aber ich denke, die waren denen mit HT schon etwas unterlegen, so man den Benchmarks denn trauen darf.
|
Trotzdem würde ich den durch HT erzeugten 2. logischen Core nicht als wirklichen Core werten. Wie gesagt, mein P4 560 hat auch HT, doch kam mir nie in den Sinn, denn nun als 2-Kern CPU zu bezeichnen.
Ich habe mal einen Versuch auf dem P4 System gefahren, Videokonvertierung, einmal mit und einmal ohne HT. Fazit war, dass die Konvertierung des genau gleichen Videos ohne HT sogar noch ein paar wenige Sekunden schneller war, auf eine Zeit von gesamthaft über 23Min. pro Versuch. Klar kann man das nun nicht auf alle Situationen abwälzen, hängt es doch auch davon ab, ob die Software Mehrkern-Prozessoren unterstützt, interessant fand ich das Ergebniss aber allemal. ;) Gruss Wildfoot |
Zitat:
Höhere Kosten würden wegen Massenproduktion nicht ins Gewicht fallen, Produktionsausschuss wäre nie größer als jetzt. Fehleranfälligkeit wäre auch unverändert (Heutige Prozessoren sind ja auch nicht anfälliger als deren langsamere Vorgänger, ausser wenn ein Entwickler schlampt), dafür wäre die Performance aber wesentlich höher. Hast du schon bemerkt dass die Multicore-Prozessoren weniger Strom verbrauchen als Singlecore? Mein altes System mit P IV 1700, 512 Mb RDIMM und Radeon 9600 zieht mit 130 Watt mehr als mein jetziges AMD Athlon 64 X2 4850e, 4 Gb DDR2 und ATI x800 Pro welches nur 110 Watt verbrät. Mein Zweitsystem mit Atom 1,6 Ghz (Hyperthreading), 2 Gb DDR2 zieht gar nur 40 Watt (Nur benutzen tue ich ihn nicht so oft weil auf dem Mainboard der Anschluss für Diskettenlaufwerk vergessen wurde). Man kann das parallelisieren der CPU nicht mit RAID 0 vergleichen, denn Der CPU kann nur parallelisieren wenn mehrere Threads gleichzeitig laufen, während beim RAID 0 immer parallelisiert wird. Und wenn alle Köpfe der HDD gleichzeitig bewegt werden (was sie ja auch tun, dann ist es für ein RAID Verbund sogar von Vorteil. Wenn die Chipsätze so viel nicht aushalten, könnte man es doch vorerst mit zwei Köpfen gleichzeitig versuchen, das bringt schon eine Verdoppelung der Transfers mit sich. Vor einiger Zeit habe ich von sogenannter "Schüttelplatten" gelesen (PCGH), das sollten rechteckige Platten sein, gelagert auf Piezokristalen, und mit einem Array von mehreren Tausend Köpfen darüber (feststehend). Da sollten die Transferleistungen auch tausendfach höher sein als jetzt. So gesehen ist die Idee gar nicht so utopisch. |
Wie gesagt, ich glaube nicht, daß es so einfach ist.
Sonst würde das auch jemand machen. Über das Thema wird mit Sicherheit bei allen Herstellern intensiv nachgedacht. Festplatten sind angeblich das komplizierteste was es an einem Pc gibt. Habe ich zumindest irgendwo gelesen. In diesen Dimensionen gibt es Herausforderungen, die wir als Normalsterbliche wahrscheinlich nicht bedenken würden. Und wenns nur die vorgegebenen Standard-Maße für eine 3,5" Disk sind. |
Zitat:
|
Bis in ein paar Jahren gibt es eh nurnoch SSD's, dann ist das hier alles Schnee von Gestern. :p
Das Problem, welches sich auchnoch ergibt, wenn du mit mehreren Köpfen eine bestimmte Stelle (oder eine bestimmte Speicherzelle) auslesen kannst, ist die Verwaltung, welcher Kopf das im konkreten Fall dann tut. Gruss Wildfoot |
Rechteckige Festplatten
|
Alle Zeitangaben in WEZ +2. Es ist jetzt 10:20 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag