![]() |
Harddisk für Storage? IDE-HDD & Dauerbetrieb?
Servus@all,
für die gelegentliche Datensicherung von großen & vielen Foto- und Videodaten überlege ich die Anschaffung einer HDD > 200 GB. Jetzt gibt's 2 Möglichkeiten:
Bei a) mach ich mir Sorgen wegen Dauerbetrieb & preiswerter IDE-HDD, b) ist Fummelei, wenn mans braucht - dafür wären die Daten schneller drüben als übers 100Mb-Netzwerk. Wo liegen die Grenzen der preiswerten IDE-Harddisks - vertragen diese Dauerbetrieb, wenn's keinen nennenswerten Traffic gibt - oder sind Betriebsstunden eben Betriebsstunden, auch wenn selten zugegriffen wird? Was ist gescheiter? Thx Quintus P.S.: Wenn a.) Sinn macht, wär' noch zu klären, was das alte MoBo & Debian des Servers mit einer so großen HDD anfängt - ein extra Controller wär' sicher notwendig, denk' ich mal. Packt Debian bzw. ext2 eine 300 GB-HDD bzw. Files (AVIs) mit 10-20 GB?? |
Hallo!
Also ich würde dir Vorschlagen, wenn du dir eine externe USB 2.0 Platte kaufst, da bist so mit max. 480 mb/s bei USB 2.0 sogar schneller dran als mit Ethernet. Und im übringen kannst die überall hin mitnehmen und weniger Strom braucht das Ding auch noch, wennst sie nicht im Dauerbetrieb hast. |
Zitat:
Ich könnte mich täuschen, aber ich hab im Hinterkopf das Festplatten allgemein der Dauerbetrieb sogar mehr liegt als häufiges ein/ausschalten. |
Die Lebensdauerberechnungen der Hersteller (ALLER Hersteller) sehen bei SOHO-Platten grundsaetzlich einen Betrieb mit Pause vor. Check mal die Datenblaetter aktueller Plattenfamilien, aber nicht die Werbe-PDFs sondern die wirklichen detaillierten Datenblaetter!
Lediglich die SCSI-Platten (und deren Profi-Abwandlungen) sind fuer 365/24 geeignet, allerdings schlaegt sich das im Preis nieder. Wenn du das Risiko liebst, kannst du 365/24 mit einer normalen IDE/SATA probieren. Ich koennte mir darueberhinaus vorstellen, dass die Hersteller im Garantiefalle sogar kneissen, ob der Platte Pausen vergoennt waren oder nicht (beispielsweise durch Veraenderungen am Lager). Gegebenenfalls streichen sie ihre Garantie dann, da du die Platte ausserhalb ihrer gedachten Grenzen betrieben hast. |
Zitat:
|
Hi,
danke für die Info - dann wird's wohl eher eine externe Storage-Geschichte werden. Den 2. Teil der Frage - falls ich mich doch fürs Zocken entscheide - stell' ich ins Linux-Forum. Thx Quintus |
Vielleicht auch eine Möglichkeit: Raptor Platten. Sind zwar auf den ersten Blick schweineteuer, sind aber auf Dauerbetrieb abgestimmt und haben 5 Jahre Garantie. Nachteil ist halt wirklich der Preis, weil die größte Platte 76 GB fasst und du daher 3 Stück bräuchtest. Aber sie sind immer noch billiger als vergleichbare SCSI Geräte.
|
Das soll jetzt weniger ein Tip sein - nur ein Realitätsbericht:
Wir haben bei uns in der Firma sogar mal einen Desktop (P3 600 mit 20GB Maxtor HDD) ~2,5 Jahre lang als Server im Einsatz gehabt -> ebenfalls 24/365, keine Probleme, die Disk läuft heute noch anderweitig problemlos. Dazu kommt noch, daß einige Mitarbeiter ihre Rechner über Nacht nicht ausschalten - da gibts ebenfalls noch P2 & P3 Kastln, die sang- und klanglos ihren Dienst versehen. Garantieen kann man natürl. keine Abgeben, bei entsprechender Kühlung halten die IDE Disken wohl weit mehr aus als man von ihnen erwartet... Quintus: Du könntest die Disk ja auch in einen Wechselrahmen schieben und so recht komfortabel den Dauerbetrieb verhindern - Stöpselei ist aber natürl. auch hier nötig - wobei da die USB Disk wg. der Flexibilität schon wieder Vorteile hat - der Vorschlag kommt nur, weil ich nicht weiß wie weit Du die Disk im Rechner stecken haben willst (abgesehen von Kühlungsaspekten) |
Ich denke nicht das es Probleme gibt wenn sie im Dauerbetrieb in deinem Server läuft, würde aber auch die Externe 300GB :ja: Variante bevorzugen. Geiles Teil :D
Vor allem kannst du das Ding auch überall mitnehmen. mfg Gothic |
Hi,
@all: danke für den reichlichen Input - Raptor & Wechselrahmen sind natürlich auch noch überlegenswert. Zitat:
Danke@all, hab' nun was zum Nachdenken. MfG, Quintus |
für deine zwecke würd ich eine externe usb2 hdd nehmen, für eine sicherung ist die performance mehr als ausreichend (imho auch für alles andere aber das muss jeder selbst entscheiden). Allerdings ist dauerbetrieb auch für ide platten kein problem, auch wenn ide platten nicht (wie scsi platten) wirklich dafür ausgelegt sind. Die praktischte lösung imho ist eine externer usb2 wechselrahmen wo du dann abwechselnd mehrere ide platten verwenden kannst.
|
.
Eine einzelne IDE-Platte ist keine Sicherung, davon mußt ausgehen. Am Dauerbetrieb ist nicht der Verschleiß das Prob, sondern kleine Partikel die sich von der Platte lösen. Die Partikel bleiben dann am Kopf hängen und können nur abfallen wenn die Platte zum Stillstand kommt oder die Köpfe von der Platte offgeladen werden. (nur bei Hitachi) USB ist eine Multimedia-Port und nicht für PC-Daten zu gebrauchen. Nur für Home-Videos oder mp3s gedacht. Würd ich mir nicht zulegen. Firewire, anderer Name gleiches Ergebnis. Ich würd die Platte am Linux-Server einbauen und PowerManagment verwenden oder IDE-HotSwap. Selber hab ich eine externe SATA Lösung mit Raid1, eine Platte ist halt keine Sicherung. |
@TeeKiller:
Deinem Tatsachenbericht stimme ich voll und ganz zu, und zwar weil du geschrieben hast: "P3 600 mit 20GB Maxtor HDD" und "P2 & P3 Kastln". Die dort verbauten Platten wurden von den Firmen noch mit etwas mehr Sorgfalt gebaut, ausserdem sind Platten geringerer Kapazitaet bei mechanischen Veraenderungen (Ausleiern etc) viel robuster, da die einzelnen Daten-tragenden Spuren bei weiten nicht so nahe aneinander liegen. Abgesehen von der unsaeglichen IBM-DTLA-Serie kann man von den "alten Hunden" die bis heute durchgehalten haben, nur Gutes berichten. In meinem Umfeld laufen viele alte IBMs (Baujahr bis zum Millenium, bevor die DTLAs raus kamen) teilweise schon im vierten Rechner! Der Prozentsatz an heutigen Platten der das noch ausshaelt wird nicht wirklich hoch sein. @red 2 illusion: Du schreibst: "Die Partikel bleiben dann am Kopf hängen und können nur abfallen wenn die Platte zum Stillstand kommt oder die Köpfe von der Platte offgeladen werden. (nur bei Hitachi)" Das ist in etwa die Fehlerbeschreibung bei der DTLA-Serie von IBM, das lag an einem Versuch einer Revolution im HDD-Bau, der zwar im Labor klappte, in der Praxis aber ... [WCM-Suchfunktion benutzen :-) ] IBM hat geleugnet bis keiner mehr in ihre Platten vertrauen hatte, obwohl sie die Fehlerquelle natuerlich korrigiert haben. Nur wer einmal luegt dem glaubt man nicht - und schon hat Big Blue einen der letzten Hardwarebereiche des Unternehmens abgegeben. Fakt ist aber dass Hitachi natuerlich auch nicht auf der Nudelsuppe dahergeschwommen ist, die Verfahren mit ihrem Knowhow ebenfalls aufgewertet hat und mittlerweile kann man diese Platten auch wieder kaufen. Zumindest wenn man schlechte Ohren hat, ansonsten ziehe ich persoenlich die recht langsamen aber angenehm leisen Seagates vor (auch preislich). |
Zitat:
|
Bitteschoen.
Wenn du Plattentests betrachtest wird dir ein deutlicher aber je nach Anwendungszweck nicht weltbewegender Tempo-Unterschied auffallen. Und ich meine da nicht hauptsaechlich die mehr theoretischen Benchmark-Ergebnisse bezueglich Transferrate, sondern die Raten, die in RealLife-Tests erhoben wurden. Desweiteren gab/gibt es auf xbitlabs.com HDD-Tests, die zwar in english von einem russischen Autor stammen, inhaltlich aber sehr hochstehend formuliert sind. Allerdings muss man zig Seiten mit Diagrammen und ellenlangen Erklaerungen vorn und hinten erstmal durchdrucken ... Quintessenz von diesen aber auch anderen Tests ist dann eben genau das was ich geschrieben habe. Interessanterweise hat Seagate aber innerhalb der 7200.7-Serie aber eine Platte, die die Leistungsdaten der 7200.8 teilweise vorzieht und zwar die 200er. Jene Platte arbeitet genau wie die 160er mit zwei Platter, die Spuren sind auf der 200er demnach dichter, und die Latenzzeiten somit auch geringer. Damit stoesst Seagate in die Tempo-Bereiche der anderen Marken vor - bleibt aber dabei trotzdem leiser und kuehler als die anderen. Wenn auch nicht mehr viel da die anderen Marken natuerlich ebenfalls in die Entwicklung investieren und baldigst neue Plattenfamilien praesentieren werden. Wann genau weiss zwar keiner so richtig, aber irgendwann sicher... |
Zitat:
Ich glaub bei Seagate ist die Luft raus. Hinter der Kongurenz herlaufen ist halt kaum befriedigend, aber neuen Ideen will man auch nicht aufgreifen. Warum baut Seagate nicht wies es bei SCSI länger gemacht haben riesige Platten die halt dann sehr langsam sind und eine hohe Lebendauer haben. Wäre mal was anders und in meinem Sys hätten die Teile schon einen Platz. Vorallem wenn die für echte LowLatenz Dauerbereitschaft ausgelegt sind. Der Threadstarter meinte ja auch eine Platte für Dauerbetrieb zu brauchen, aber sucht doch eine für Dauerbereitschaft. |
was genau war die fehlerquelle das IBM platten so sind wie sie sind?
also was fällt da wann ab!??! |
@Herwig
Danke für die ausführliche Erklärung. Hab ich nicht mitbekommen, meine letzten Plattentests sind aber aus der Barracuda IV / V Generation. Und da war der Unterschied zwischen den 8Mb Cache Versionen verschwindend. |
Wie die wirtschaftliche Situation bei Seagate ausschaut weiss ich leider nicht, wuerde mich aber selber interessieren. Besonders weil Seagate ja die ersten waren, die von 3 auf 1 und dann auch 5 Jahre Garantie gesprungen sind, die anderen Marken mussten zwangslaeufig nachziehen. Und was nutzt einem 5 Jahre, wenn Seagate morgen die Patschn strecken wuerde ;-)
SCSI bei Seagate war und ist eh ein Thema aber nur ein klitzkleines. Erst im Sommer erfolgte eine Pressevorstellung all ihrer neuen Produktlinien, und da waren ausser SOHO auch professionelle Produkte drin. Von der Verfuegbarkeit wirkt es aber wie ein Paperlaunch, aber bekanntlich braucht es ja immer Ewigkeiten bis sich ein neues Ding nach Austria verirrt. Warum keine Riesenmegasuperspitzenmaximal-Platten gebaut werden, sollte eigentlich klar sein: Hitachi (IBM) hat ihre Spitzenplatte aus der 7K250-Linie (oder deren Nachfolger, weiss jetzt nicht) ja auch nur 400GB praesentiert, dass sie halt was zum Potzen haben. Wer als Kunde dieses Produkt kauft hat sowieso den Vogel abgeschossen. Mein ich aber nicht wegen dem Tempo sondern wegen der Temperatur und der Lautstaerke denn diese Platte enthaelt sagenhafte FUENF Platter, also 5 Arme mit 10 Koepfen. Das einer davon mal spanabhebend arbeitet liegt wohl schneller auf der Hand als bei einer SINNVOLLEN Begrenzung der Platterzahl auf ZWEI Stueck, wie eben bei der 7200.7er Reihe. Bei den neuvorgestellten 7200.8er gibts ja auch Platten mit 300GB, schoen fuer sie, das war der Marktdruck, aber drei Platter kauf ICH schon nicht mehr. Und womit macht denn eine HD-Firma den meisten Umsatz? Nicht mit uns Freaks sondern mit Systemintegratoren und dort auch nicht mit den Medions und Co die aus Prahlerei Platten groesser 200GB einsetzen, sondern bei den unzaehligen Buerorechnern, wo ehrlicherweise 20GB und 4500U/min reichen wuerden. Ist ja dasselbe mit den Grakas aber das wisst ihr sicher auch. |
Naechster Punkt, was mit den IBMs los war:
Bis zur DTLA-Serie waren IBM-Platten ein Synonym fuer preiswerte und leistungsfaehige Platten. Besonders beim Thema Transferraten machte IBM allen anderen staendig einen Strich durch die Rechnung, uebrigens gilt dies auch heute noch, nun halt bei Hitachi. ABER: Als die 40GB-Aera hereinbrach wollen die Manager bei IBM zu sparen beginnen und drueckten den Technikern mehr Output aber weniger Kosten aufs Aug. Die Techniker hatten in den Labors eine nette Technik, die die magnetisierbare Schicht nicht auf Metall- oder Keramikplatten sondern auf Glasscheiben beschichtete (ohne jetzt naeher auf die Hintergruende einzugehen). Dieses Traegermedium sollte darueberhinaus auch noch positive Eigenschaften bezueglich Interaktion mit den SchreibLeseKoepen haben. Im Labor klappte es, bei den kuenstlichen Alterungstest wohl auch (sonst waere da Zeugs nicht auf den Markt gekommen), doch im JAHRELANGEN Praxiseinsatz fiel noch fast eine jede DTLA aus. Anscheinend haben die Typen noch mehr aus der Technik rausholen wollen und nach einer Zeit konnte man davon ausgehen, dass diese Platten mit grosser Chance bereits die ersten Monate nicht ueberlebte (ausser der PC laeuft nur alle Wochenenden mal). Interessanterweise lernte IBM nicht aus den Rueckgabezahlen und so bekam die nachfolgende Serie, IC35L, in etwa die selbe Technik verpasst. Mit entsprechenden Folgen. IBM nahm die Herstellergarantie aber seit Bestehen des Werkes wirklich ernst und so tauschte halt jeder mit kaputter Platte diese mittels RMA direkt bei IBM aus. IBM haette demzufolge noch intensiver die Chance gehabt aus den kaputten Platten zu lernen, tat es aber nicht. Warum? Das wissen nur die Goetter, aber mit einer Riesenportition Arroganz hat dies sicher zu tun. Weil nicht sein kann, was nicht sein darf... Wieder ein bissi spaeter wurden weltweit IBM-Platten boykotiert, in dem Sinne, dass Grosshaendler weniger Platten orderten und nur auf diese Weise ging IBM ein Licht auf. Und ist der Ruf erstmal ruiniert, kann der Manager auch seiner Lieblingsbeschaeftigung nachgehen, naemlich bei schlechten Zahlen Werke zudrehen, so geschehen in Ungarn, bei einem HDD-Werk. Wie zu das jetzt wirklich weiss ich nicht, aber ich glaube mich zu erinnern das es sehr deutlich aufgeloest wurde. Kein Schwein im Retailmarkt hat mehr IBM gekauft, IBM hat weiter gemauert und ploetzlich hatte die IBM-HDD-Sparte einen neuen Besitzer. Den weiteren Verlauf der Geschichte kennen wir eh. Aber was genau war da passiert? Nun, darueber gibts mehrere Stories, jede fuer sich plausibel jedoch unbestaetigt. IBM springt ja nicht ueber den eigenen Schatten und gibt zu wo sie Sch... gebaut haben, na wo simma denn. Eine Variante sagt dass die Magnetische Beschichtung sich mit der Zeit von selber aufgeloest hat, der Controller wollte das korrigieren hatte aber keine funktionierenden Sparse(=Reserve)-Sektoren mehr und die Platte erzeugte nur mehr das beruehmte IBM-Platten-Schab-Geraeusch. Das wurde in Insiderkreisen bald so bekannt wie der Klick-of-Death bei den altehrwuerdigen ZIP-Medien (allerdings ganz andere Ursache). Eine andere Version berichtete dass der Kopf-Park-Mechanismus nicht immer korrekt funktionierte der Kopf also aufsetzte als der Plattenstapel sich noch drehte. Spanabhebende Fertigung. Falls diese Story stimmt dann stimmt die Vermutung das die althergebrachten Beschichtungsverfahren in diesem Punkt widerstandsfaehiger waren und die Labortechnik auf den Umstand eines Fehlverhaltens des Controller halt einfach nicht ausreichend getestet wurde. Wieder eine andere Geschichte hat mit dem Werk in Ungarn zu tun. Als die Misere kurz vor der Uebernahme von Hitachi stand gab es Geruechte, die meisten der defekten HDDs kamen aus dem ungarischen Werk. Dort hatte man mit der Fertigungsqualitaet enorme Probleme, die sich aber erst im Praxiseinsatz zeigten. Vielleicht wurde dort eine Einsparungsmoeglichkeit probiert, dann von anderen Werken uebernommen und mit der Zeit waren halt viele Platten betroffen. Falls diese Story stimmt erklaert sich auch das Abwuergen dieses Werkes in Ungarn. Was jetzt wirklich genau die Ursache war, wird wohl erst dann veroeffentlicht wenn auch die Papst-Archive endlich geoffnet werden, weil ungefaehr genauso verschlossen ist die Info-Lage in diesem Betrieb. HEUTE aber kann man die Hitachi-Produkte wieder kaufen, denn die fehlerhafte Techik wurde weiter entwickelt und jetzt passts halt wieder. Immerhin waren die Techniker ja keine Idioten sondern hatten auch viel Pech. Aus Fehlern lernt man - und so sind Hitachis heute sicher genauso einsatzfaehig wie all die anderen Marken. Doch der Homo Computeriensis ist ein Gewohnheitstier das sich auch am Ruf der Marke orientiert und dieser ist fuer immer&ewig dahin ... |
Zitat:
Meine Seagate bekommt wie alle anderen Hersteller den Tunnelblick. Müssen Festplatten wirklich Einheitsprodukte sein die sich nur in 1/10 bei den Benchmarks unterscheiden oder wäre mit einer Anpassung der Produkte an die Kundenwünsche nicht eine Käuferschicht zu gewinnen. Ich fand die großen 5Zoll SCSI-Platten von Seagate jedenfalls immer interessant, warum sollte der Homeuser nicht TB-Platten brauchen die halt mit 100ms Zugriffzeiten daherkommen werden bei der derzeitigen Technik. Zitat:
Den "click of death" haben diese Platten auch schon gehen aber nicht defekt dabei. Der "click of death" ist glaub ich sowas wie eine Zwangsreinigung. |
Eine Firma wuerde mit Produktwuenschen einer sehr kleinen Kaeuferschicht zwar eben diese Menschenmenge zufriedenstellen - ihren Aufsichtsrat aber nicht.
Weil es keinen relevanten Umsatz und daher keine Gewinnchance bringen wuerde. Wo wird denn der Reibach mit der Stueckzahl gemacht, bei den Retail-Haendlern oder bei den Systemintegratoren? Der BreakEven-Point zwischen Entwicklung/Fertigung/Werbung/Vertrieb und natuerlich Verkaufsergebnissen wird dabei entweder gar nicht oder erst irgendwann (fuers aktuelle Geschaeftsjahr einer Firma wohl zu kurz) erreicht werden. Es ist der Nachteil der Marktwirtschaft dass der Shareholdervalue wichtiger ist als (aus Sicht der Geschaeftsleitung RISKANTE) Innovation. Das deine IBMs noch nicht ausgefallen sind ist schoen fuer dich und wird in deinem Sinne hoffentlich noch lange so bleiben. Den "Click of Death" als eine Art Reinigungsmechanismus zu beschreiben ist sehr gewagt und sollte von dir mal in einem entsprechenden DTLA-Thread in einem beliebigen Forum veroeffentlicht werden. Der Kabarett-Preis dieser Einrichtung waere dir sicher. Aber versteh mich richtig: Ich hoffe wirklich fuer dich dass dich deine HDs nicht vorzeitig verlassen, aber eine ordentliche Backupstrategie waere in deinem Falle kein Fehler. |
"click of death" ist nur bei der dtla tötlich, auch den ibm scsi platten gibts diesen click der absolut normal ist wird sogar auf der homepage beschrieben inkl. wav datei.
|
Zitat:
Möglicherweise tu' ich ein paar 120 GB rein (die sollte der onboard-Controller noch packen) und verpasse ihnen eine Energiesparoption, d.h. lege sie bei Nichtgebrauch still. MfG, Quintus |
Zitat:
Zitat:
Ich kann mir jedenfalls keinen anderen Grund vorstellen, als die Reinigung, warum die Köpfe mit vollem Speed auf diese Begrenzung gefahren werden und dort fast aufsetzen. Diese "Art der Reinigung" haben die neuen IBM und Hitachi Platten jedenfalls nicht mehr. Zitat:
|
Yepp, Backup ist Trumpf!
Das lernt aber erst durch Erfahrung wovon wir beide wohl schon einiges abbekommen haben ;-) Zu den HDDs kann ich dir ganz allgemein versichern, dass wenn es in der Kiste derart rappelt, dass da je nach der Art des Abschlags nebst Geraeuschproduktion, entweder 100% Schuss in den Ofen oder eben beabsichtigtes Parken ist. Nachdem ich ein leidenschaftlicher Zerleger von allem was nicht rechtzeitig vor mir fluechtet bin, kann ich dir versichern dass rein mechanisch das Parken von den Entwicklungsingenieuren NICHT mit einem LAUTEN Anschlag designt wurde. Egal welche Platte egal welche Marke egal welches Alter. Wenn der Kopf auf die Oberflaeche tuscht bzw durch die abrupte Abbremsung des Armes weil laut dir "an die Begrenzung" faehrt, findet eine mechanische Beschaedigung des Bauteils statt. Punktum. Aber lassen wir das. Du meintest : "KernKopetenzen und GewinnAnteile gebens bei IBM nicht auf, Besitzer ist das falsche Wort dafür...." IBM hat im Hintergrund wohl Aktien von Hitachi erworben bzw sich sonst irgendwie finanziell nicht ganz von der ehemals sehr gewinnbringenden Sparte verabschiedet. Wuerde aber jede andere Firma auch so machen. Allerdings macht BigBlue es recht schlau, denn offiziell haben sie NIX mehr mit den Consumer-Platten zu tun ... |
FYI: von meiner Seite ist die Frage beantwortet bzw. gelöst - ich hab' eine 300GB Maxtor gekauft. Sie wird in den Datenserver kommen und energiesparmäßig abgedreht, wenn sie nicht gebraucht wird: somit ist auch das Thema "IDE - nicht geeignet für Dauerbetrieb" vom Tisch.
Ob sie nun unter Linux oder unter Windows laufen wird, ist noch nicht geklärt (siehe Thread bzw. Linux - Samba schwächelt). Momentan schaut es eher nach Windows aus... MfG Quintus |
backups sind zwar schon und gut nur wenn das datenvolumen so groß ist das es nicht mehr (preiswert) zu sichern ist wirds mühsam, wüsste nicht wohin ich 1TB sichern sollte. Blueray wär eine lösung aber selbst damit bräuchts 40 medien. Nicht das ich ein TB lebenswichtige daten hab aber die wieder "zusammenzusammeln" ;) wär halt mühsam.
|
Zitat:
|
Zitat:
http://www.idealo.de/preisvergleich/...gory/3096.html :D private backups sind was für luschen :p ist sowieso alles veraltet... |
hab auch raid5 (4x300gb) nur trau ich ide raid5 nicht so ganz. Immer wieder (1-2mal im jahr bei 24/7 betrieb) fällt eine platte aus ohne defekt zu sein, dann muss man sie wieder hinzufügen und neu aufbauen.
@frazz: :hammer: :verwirrt: |
ja, das schon, aber du hast halt eben den Vorteil das alle deine Daten da sind. Wennst sehr skeptisch gegenüber IDE bist häng halt noch eine 5. Platte dazu.
|
hab aber nur 4 kanäle :(
|
|
hardware, promise sx4000
|
Zitat:
Der Anschlag der Köpfe ist auch nicht so laut obwohl Stahl auf Stahl schlägt, vielmehr ist das kurze Abschalten vom Motor stark an dem Klack bedeiligt. Aber ich hab nur meine Platten gesehen die ich zugegeben mit einem unbekannten Firmwareupdate versehen hab nachdem ich die orginal Firmware mit einem LowLevelFormat eines anderen Hersteller teilweise gelöscht hatte. |
| Alle Zeitangaben in WEZ +2. Es ist jetzt 20:14 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag