WCM Forum

WCM Forum (http://www.wcm.at/forum/index.php)
-   Hardware-Beratung & Erfahrungen (http://www.wcm.at/forum/forumdisplay.php?f=53)
-   -   Harddisk für Storage? IDE-HDD & Dauerbetrieb? (http://www.wcm.at/forum/showthread.php?t=152869)

LouCypher 12.12.2004 20:33

für deine zwecke würd ich eine externe usb2 hdd nehmen, für eine sicherung ist die performance mehr als ausreichend (imho auch für alles andere aber das muss jeder selbst entscheiden). Allerdings ist dauerbetrieb auch für ide platten kein problem, auch wenn ide platten nicht (wie scsi platten) wirklich dafür ausgelegt sind. Die praktischte lösung imho ist eine externer usb2 wechselrahmen wo du dann abwechselnd mehrere ide platten verwenden kannst.

red 2 illusion 13.12.2004 05:03

.


Eine einzelne IDE-Platte ist keine Sicherung, davon mußt ausgehen.

Am Dauerbetrieb ist nicht der Verschleiß das Prob, sondern kleine Partikel die sich von der Platte lösen. Die Partikel bleiben dann am Kopf hängen und können nur abfallen wenn die Platte zum Stillstand kommt oder die Köpfe von der Platte offgeladen werden. (nur bei Hitachi)

USB ist eine Multimedia-Port und nicht für PC-Daten zu gebrauchen. Nur für Home-Videos oder mp3s gedacht. Würd ich mir nicht zulegen. Firewire, anderer Name gleiches Ergebnis.

Ich würd die Platte am Linux-Server einbauen und PowerManagment verwenden oder IDE-HotSwap. Selber hab ich eine externe SATA Lösung mit Raid1, eine Platte ist halt keine Sicherung.

Herwig 14.12.2004 03:57

@TeeKiller:
Deinem Tatsachenbericht stimme ich voll und ganz zu, und zwar weil du geschrieben hast: "P3 600 mit 20GB Maxtor HDD" und "P2 & P3 Kastln".
Die dort verbauten Platten wurden von den Firmen noch mit etwas mehr Sorgfalt gebaut, ausserdem sind Platten geringerer Kapazitaet bei mechanischen Veraenderungen (Ausleiern etc) viel robuster, da die einzelnen Daten-tragenden Spuren bei weiten nicht so nahe aneinander liegen.
Abgesehen von der unsaeglichen IBM-DTLA-Serie kann man von den "alten Hunden" die bis heute durchgehalten haben, nur Gutes berichten. In meinem Umfeld laufen viele alte IBMs (Baujahr bis zum Millenium, bevor die DTLAs raus kamen) teilweise schon im vierten Rechner!

Der Prozentsatz an heutigen Platten der das noch ausshaelt wird nicht wirklich hoch sein.


@red 2 illusion:
Du schreibst: "Die Partikel bleiben dann am Kopf hängen und können nur abfallen wenn die Platte zum Stillstand kommt oder die Köpfe von der Platte offgeladen werden. (nur bei Hitachi)"
Das ist in etwa die Fehlerbeschreibung bei der DTLA-Serie von IBM, das lag an einem Versuch einer Revolution im HDD-Bau, der zwar im Labor klappte, in der Praxis aber ... [WCM-Suchfunktion benutzen :-) ]
IBM hat geleugnet bis keiner mehr in ihre Platten vertrauen hatte, obwohl sie die Fehlerquelle natuerlich korrigiert haben. Nur wer einmal luegt dem glaubt man nicht - und schon hat Big Blue einen der letzten Hardwarebereiche des Unternehmens abgegeben.
Fakt ist aber dass Hitachi natuerlich auch nicht auf der Nudelsuppe dahergeschwommen ist, die Verfahren mit ihrem Knowhow ebenfalls aufgewertet hat und mittlerweile kann man diese Platten auch wieder kaufen.
Zumindest wenn man schlechte Ohren hat, ansonsten ziehe ich persoenlich die recht langsamen aber angenehm leisen Seagates vor (auch preislich).

Theoden 14.12.2004 11:38

Zitat:

Original geschrieben von Herwig

Zumindest wenn man schlechte Ohren hat, ansonsten ziehe ich persoenlich die recht langsamen aber angenehm leisen Seagates vor (auch preislich).

langsam ? Ein bissl konkreter bitte.

Herwig 15.12.2004 01:26

Bitteschoen.
Wenn du Plattentests betrachtest wird dir ein deutlicher aber je nach Anwendungszweck nicht weltbewegender Tempo-Unterschied auffallen.
Und ich meine da nicht hauptsaechlich die mehr theoretischen Benchmark-Ergebnisse bezueglich Transferrate, sondern die Raten, die in RealLife-Tests erhoben wurden.
Desweiteren gab/gibt es auf xbitlabs.com HDD-Tests, die zwar in english von einem russischen Autor stammen, inhaltlich aber sehr hochstehend formuliert sind. Allerdings muss man zig Seiten mit Diagrammen und ellenlangen Erklaerungen vorn und hinten erstmal durchdrucken ...
Quintessenz von diesen aber auch anderen Tests ist dann eben genau das was ich geschrieben habe.
Interessanterweise hat Seagate aber innerhalb der 7200.7-Serie aber eine Platte, die die Leistungsdaten der 7200.8 teilweise vorzieht und zwar die 200er.
Jene Platte arbeitet genau wie die 160er mit zwei Platter, die Spuren sind auf der 200er demnach dichter, und die Latenzzeiten somit auch geringer.
Damit stoesst Seagate in die Tempo-Bereiche der anderen Marken vor - bleibt aber dabei trotzdem leiser und kuehler als die anderen.
Wenn auch nicht mehr viel da die anderen Marken natuerlich ebenfalls in die Entwicklung investieren und baldigst neue Plattenfamilien praesentieren werden. Wann genau weiss zwar keiner so richtig, aber irgendwann sicher...

red 2 illusion 15.12.2004 04:39

Zitat:

Original geschrieben von Herwig
Wenn auch nicht mehr viel da die anderen Marken natuerlich ebenfalls in die Entwicklung investieren und baldigst neue Plattenfamilien praesentieren werden.

Ich glaub bei Seagate ist die Luft raus. Hinter der Kongurenz herlaufen ist halt kaum befriedigend, aber neuen Ideen will man auch nicht aufgreifen.

Warum baut Seagate nicht wies es bei SCSI länger gemacht haben riesige Platten die halt dann sehr langsam sind und eine hohe Lebendauer haben. Wäre mal was anders und in meinem Sys hätten die Teile schon einen Platz. Vorallem wenn die für echte LowLatenz Dauerbereitschaft ausgelegt sind.

Der Threadstarter meinte ja auch eine Platte für Dauerbetrieb zu brauchen, aber sucht doch eine für Dauerbereitschaft.

CISK 15.12.2004 04:59

was genau war die fehlerquelle das IBM platten so sind wie sie sind?

also was fällt da wann ab!??!

Theoden 15.12.2004 14:38

@Herwig
Danke für die ausführliche Erklärung. Hab ich nicht mitbekommen, meine letzten Plattentests sind aber aus der Barracuda IV / V Generation. Und da war der Unterschied zwischen den 8Mb Cache Versionen verschwindend.

Herwig 16.12.2004 03:43

Wie die wirtschaftliche Situation bei Seagate ausschaut weiss ich leider nicht, wuerde mich aber selber interessieren. Besonders weil Seagate ja die ersten waren, die von 3 auf 1 und dann auch 5 Jahre Garantie gesprungen sind, die anderen Marken mussten zwangslaeufig nachziehen. Und was nutzt einem 5 Jahre, wenn Seagate morgen die Patschn strecken wuerde ;-)
SCSI bei Seagate war und ist eh ein Thema aber nur ein klitzkleines. Erst im Sommer erfolgte eine Pressevorstellung all ihrer neuen Produktlinien, und da waren ausser SOHO auch professionelle Produkte drin.
Von der Verfuegbarkeit wirkt es aber wie ein Paperlaunch, aber bekanntlich braucht es ja immer Ewigkeiten bis sich ein neues Ding nach Austria verirrt.
Warum keine Riesenmegasuperspitzenmaximal-Platten gebaut werden, sollte eigentlich klar sein: Hitachi (IBM) hat ihre Spitzenplatte aus der 7K250-Linie (oder deren Nachfolger, weiss jetzt nicht) ja auch nur 400GB praesentiert, dass sie halt was zum Potzen haben. Wer als Kunde dieses Produkt kauft hat sowieso den Vogel abgeschossen. Mein ich aber nicht wegen dem Tempo sondern wegen der Temperatur und der Lautstaerke denn diese Platte enthaelt sagenhafte FUENF Platter, also 5 Arme mit 10 Koepfen.
Das einer davon mal spanabhebend arbeitet liegt wohl schneller auf der Hand als bei einer SINNVOLLEN Begrenzung der Platterzahl auf ZWEI Stueck, wie eben bei der 7200.7er Reihe.
Bei den neuvorgestellten 7200.8er gibts ja auch Platten mit 300GB, schoen fuer sie, das war der Marktdruck, aber drei Platter kauf ICH schon nicht mehr.
Und womit macht denn eine HD-Firma den meisten Umsatz? Nicht mit uns Freaks sondern mit Systemintegratoren und dort auch nicht mit den Medions und Co die aus Prahlerei Platten groesser 200GB einsetzen, sondern bei den unzaehligen Buerorechnern, wo ehrlicherweise 20GB und 4500U/min reichen wuerden.
Ist ja dasselbe mit den Grakas aber das wisst ihr sicher auch.

Herwig 16.12.2004 03:43

Naechster Punkt, was mit den IBMs los war:
Bis zur DTLA-Serie waren IBM-Platten ein Synonym fuer preiswerte und leistungsfaehige Platten. Besonders beim Thema Transferraten machte IBM allen anderen staendig einen Strich durch die Rechnung, uebrigens gilt dies auch heute noch, nun halt bei Hitachi.
ABER: Als die 40GB-Aera hereinbrach wollen die Manager bei IBM zu sparen beginnen und drueckten den Technikern mehr Output aber weniger Kosten aufs Aug. Die Techniker hatten in den Labors eine nette Technik, die die magnetisierbare Schicht nicht auf Metall- oder Keramikplatten sondern auf Glasscheiben beschichtete (ohne jetzt naeher auf die Hintergruende einzugehen). Dieses Traegermedium sollte darueberhinaus auch noch positive Eigenschaften bezueglich Interaktion mit den SchreibLeseKoepen haben. Im Labor klappte es, bei den kuenstlichen Alterungstest wohl auch (sonst waere da Zeugs nicht auf den Markt gekommen), doch im JAHRELANGEN Praxiseinsatz fiel noch fast eine jede DTLA aus. Anscheinend haben die Typen noch mehr aus der Technik rausholen wollen und nach einer Zeit konnte man davon ausgehen, dass diese Platten mit grosser Chance bereits die ersten Monate nicht ueberlebte (ausser der PC laeuft nur alle Wochenenden mal). Interessanterweise lernte IBM nicht aus den Rueckgabezahlen und so bekam die nachfolgende Serie, IC35L, in etwa die selbe Technik verpasst. Mit entsprechenden Folgen. IBM nahm die Herstellergarantie aber seit Bestehen des Werkes wirklich ernst und so tauschte halt jeder mit kaputter Platte diese mittels RMA direkt bei IBM aus. IBM haette demzufolge noch intensiver die Chance gehabt aus den kaputten Platten zu lernen, tat es aber nicht. Warum? Das wissen nur die Goetter, aber mit einer Riesenportition Arroganz hat dies sicher zu tun. Weil nicht sein kann, was nicht sein darf...
Wieder ein bissi spaeter wurden weltweit IBM-Platten boykotiert, in dem Sinne, dass Grosshaendler weniger Platten orderten und nur auf diese Weise ging IBM ein Licht auf. Und ist der Ruf erstmal ruiniert, kann der Manager auch seiner Lieblingsbeschaeftigung nachgehen, naemlich bei schlechten Zahlen Werke zudrehen, so geschehen in Ungarn, bei einem HDD-Werk. Wie zu das jetzt wirklich weiss ich nicht, aber ich glaube mich zu erinnern das es sehr deutlich aufgeloest wurde.
Kein Schwein im Retailmarkt hat mehr IBM gekauft, IBM hat weiter gemauert und ploetzlich hatte die IBM-HDD-Sparte einen neuen Besitzer. Den weiteren Verlauf der Geschichte kennen wir eh.

Aber was genau war da passiert? Nun, darueber gibts mehrere Stories, jede fuer sich plausibel jedoch unbestaetigt. IBM springt ja nicht ueber den eigenen Schatten und gibt zu wo sie Sch... gebaut haben, na wo simma denn.
Eine Variante sagt dass die Magnetische Beschichtung sich mit der Zeit von selber aufgeloest hat, der Controller wollte das korrigieren hatte aber keine funktionierenden Sparse(=Reserve)-Sektoren mehr und die Platte erzeugte nur mehr das beruehmte IBM-Platten-Schab-Geraeusch. Das wurde in Insiderkreisen bald so bekannt wie der Klick-of-Death bei den altehrwuerdigen ZIP-Medien (allerdings ganz andere Ursache).
Eine andere Version berichtete dass der Kopf-Park-Mechanismus nicht immer korrekt funktionierte der Kopf also aufsetzte als der Plattenstapel sich noch drehte. Spanabhebende Fertigung.
Falls diese Story stimmt dann stimmt die Vermutung das die althergebrachten Beschichtungsverfahren in diesem Punkt widerstandsfaehiger waren und die Labortechnik auf den Umstand eines Fehlverhaltens des Controller halt einfach nicht ausreichend getestet wurde.
Wieder eine andere Geschichte hat mit dem Werk in Ungarn zu tun. Als die Misere kurz vor der Uebernahme von Hitachi stand gab es Geruechte, die meisten der defekten HDDs kamen aus dem ungarischen Werk. Dort hatte man mit der Fertigungsqualitaet enorme Probleme, die sich aber erst im Praxiseinsatz zeigten. Vielleicht wurde dort eine Einsparungsmoeglichkeit probiert, dann von anderen Werken uebernommen und mit der Zeit waren halt viele Platten betroffen. Falls diese Story stimmt erklaert sich auch das Abwuergen dieses Werkes in Ungarn.
Was jetzt wirklich genau die Ursache war, wird wohl erst dann veroeffentlicht wenn auch die Papst-Archive endlich geoffnet werden, weil ungefaehr genauso verschlossen ist die Info-Lage in diesem Betrieb.

HEUTE aber kann man die Hitachi-Produkte wieder kaufen, denn die fehlerhafte Techik wurde weiter entwickelt und jetzt passts halt wieder. Immerhin waren die Techniker ja keine Idioten sondern hatten auch viel Pech. Aus Fehlern lernt man - und so sind Hitachis heute sicher genauso einsatzfaehig wie all die anderen Marken. Doch der Homo Computeriensis ist ein Gewohnheitstier das sich auch am Ruf der Marke orientiert und dieser ist fuer immer&ewig dahin ...


Alle Zeitangaben in WEZ +2. Es ist jetzt 14:28 Uhr.

Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag