![]() |
Synchronisieren eines Ordners auf 2 Festplatten
Hi!
Also ich will, dass wenn ich Daten hinzufüge/ändere/lösche, diese "automatisch" auf einer anderen Platte/Wechselmedium genauso geändert werden(Nur ein Ordner inkl. Unterordner). Eine Art Spiegelung/Backup. Ich frage deshalb euch, weil ich nicht lange suchen bzw. probieren will. Eine Frage hätt ich noch: Dauert es lange bei großen Änderungen? Wahrscheinlich darf dieser Vorgang dann nicht abgebrochen werden ... Grüße anve |
Versuchs doch mal mit dem "Super Flexible File Syncronizer".....http://www.superflexible.com/download.htm
damit müßte es funktionieren |
http://allwaysync.com/
Allway Sync is free file and folder synchronization software for Windows. Allway Sync uses innovative synchronization algorithms to synchronize your data between desktop PCs, laptops, USB drives and more. Allway Sync combines bulletproof reliability with an extremely easy-to-use interface. Ich verwende den und bin seit langen sehr zufrieden damit. Wie lange es daurt hängt halt von der Menge, Dateigröße und der verwedneten Hardware ab. |
Danke für eure Antworten! Ich werde es mal ausprobieren! THANKS!
|
Vor langer Zeit hab ich fuer mich die Entscheidung getroffen, solche Aufgaben manuell zu loesen, also irgendeinen zwei-Fenster-Dateimanager, zB TotalCommander, FreeCommander, usw, und dann halt manuell hin und herkopieren/loeschen/umbenennen usw.
Ist natuerlich deutlich mehr Arbeit, aber man weiss genau WAS und WIE es gemacht wurde. Wenn du automatische Tools verwenden moechtest, musst du vorher genau einstellen wie es zB reagieren soll, wenn du im Orig-Dir eine Datei geloescht hast, ob das Tool diese Datei im Copy-Dir auch loeschen oder aufheben soll. Detto wenn du eine Versionierung wuenscht, also dass im Zieldir der jeweils vorige Zustand per *.bak-Datei erhalten bleiben soll. Ausserdem was soll passieren, wenn da mal das Copy-Dir als Arbeits-Dir benutzt, die dort neuen Daten dann in die Gegenrichtung sichern moechtest usw. Edit: Nachtrag: Windows hat das glaub ich eh in den Bormitteln drin, bei Win95 hiess das Ding "Aktenkoffer". --- Gerade geschaut in der WinXP-Hilfe, das Ding gibts immer noch. Gib dort einfach "Aktenkoffer" als Suchwort ein. --- Es gibt sogar noch so ein Ding, es heisst "Offlinedateien". Auszug aus der entsprechenden Einleitungsseite aus der WinXP-Hilfe: Zitat:
|
Hi!
Danke für dein Reply! Ich hab bis jetzt die ersten zwei Programme getestet, wobei Superflexible nicht so das macht, was es machen sollte, oder ich hab was falsch eingestellt (zu viele Einstellungen). Jedenfalls hab ich im Explorer die Anzahl der Datein angeschaut und verglichen - da haben über 100 Datein gefehlt ... Allwayssync nimmt zwar viele Ressourcen (RAM, CPU usw.) in Anspruch aber ich glaub es funktioniert(mehr weiter unten dazu). Ich hatt zufällig einen Ordner gelöscht und hab es synchronisiert. Da meldet er dass dies und das gelöscht worden ist. Man braucht nur auf Ignorieren gehen und er löscht es auch auf dem Synchronisationsort. Ich brauch übrigens eine Synchronisation nur in eine Richtung (also eher als Backup, aber nicht dass er ständig alles neu machen muss wenn sich nur eine Datei geändert hat). Ich weiß zwar, dass einaml mit 1000 Bits und einmal mit 1024 Bits gerechnet wird, dennoch will ich diese Frage stellen: Wenn man die nachfolgenden Grafiken anschaut, warum verbraucht eine Art auf der HDD mehr als auf einer DVD? Die Größe und Anzahl der Datein ist gleich ... Quelle: http://img183.imageshack.us/img183/613/hddem6.png Ziel: http://img83.imageshack.us/img83/1664/dvdji1.png Woran liegt das? Ich will nur sichergehen, dass auch wirklich alles drauf ist! Noch was zu allwayssynch: Er legt eine versteckte xml Datei im Hintergrund an, die bei mir ca. 20 MB groß ist. Wahrscheinlich nutzt er das zum Abgleich. Naja wie schon gesagt, CPU & RAM-Auslastung gehen bei mir an die Grenzen ... (nicht immer aber immer öfters). Grüße anve |
Zitat:
|
hi,
mit den WinXP-Boardmittel-> Sicherungen! kannst deine Daten sichern. kostet nichts! |
Der Groessenunterschied bei "Groesse auf DATENTRAEGER" ergibt sich wegen der verschiedenen Dateisysteme, also FAT32/NTFS (auf HDDs) und CDFS (auf CDs).
Dateien werden auf fast jedem Medium (Baender sind dabei ausgenommen) in kleinen Broeckchen gespeichert, genannt Cluster. Der letzte Cluster wird dabei nicht komplett aufgefuellt, es bleibt also Verschnitt. Bei vielen Files macht dieser Verschnitt eine ganze Menge aus und bei jedem Dateisystem ist diese Menge dazu noch unterschiedlich gross. Die Datensicherheit betrifft dies jedoch nicht, also kein Grund zur Sorge. Um sicher zu gehen, dass die Daten BYTEWEISE identisch sind, und nicht nur der Groesse nach, solltest du ein Compare-Tool einsetzen. Gibts von gratis bis sehr kostenpflichtig, von Kommandozeile bis zu allem graphischen Pipapo. Hinweis: der von dir angegebene moegliche Grund mit der 1000/1024er-Sache kommt hier NIRGENDS zu tragen! Windows verrechnet alles richtig mit 1024, nur die HDD-Hersteller besch... gerne ihre Kunden und machen aus HDDs mit 298GB gerne welche mit 320. Zur Kennzeichnung gibts nach der ISO-Normierung die Unterscheidung in GiB und GB, das wird aber selten bis nie verwendet. |
....habe heute im c't gelesen, dass es jetzt von Microsoft auch ein Syncronisationstool gibt. Wer also auf Look and feel von WinXP steht.....
|
Das von MS heist SyncToy und ist Freeware.
Verwende ich schon einige Zeit problemlos. |
Zitat:
Was ist der Unterschied zwischen "Größe" und G"röße auf dem Datenträger"? Nur so, für meine Wissensbereicherung! @ alle anderen: Danke für die Infos! MFG anve |
Bei "Groesse" wird der Netto-Wert berechnet, also wieviel Geld hast du im Saeckl. Bei "Groesse auf dem Datentraeger" wird angegeben, wieviel Geld du brutto haettest, also wieviel du in den Saeckl reinstopfen kannst (aber nicht real, also netto hast).
HDD-Technisch heisst das, wenn dein Dateisystem zB Clustergroessen von 4kB hat wie zB bei NTFS, dann wird eine Datei die 7.9kB gross ist, genauso 2 Cluster belegen wie eine 5kB grosse Datei. Es gibt also immer einen Verschnitt, wie wirtschaftlich das ist, kommt aber auf das Verhaeltnis Anzahl der Dateien zu durchschnittlicher Dateigroesse statt. Wikipedia sagt auszugsweise: Das Dateisystem kann im Allgemeinen nur vollständige Cluster adressieren, es ist nicht möglich, einzelne Datenträger-Blöcke oder gar einzelne Bytes innerhalb eines Clusters zu adressieren. Daher belegen Dateien auf einem Datenträger immer eine ganze Anzahl von Clustern. Je größer die Cluster sind, desto weniger Verwaltungsaufwand muss für große Dateien aufgewendet werden und desto geringer wird die statistische Fragmentierung einer Datei. Da für jede Datei im Mittel ein halber Cluster verschwendet wird, sind größere Cluster hierbei im Nachteil. Soll heissen, wenn du auf einer Partition zB nur MP3s speicherst mit einer Durchschnittsgroesse von 4MB hast du in Summe zwar weniger Dateien aber weit weniger Verschnitt als wenn du auf der selben Partition 100tausende kleine kB-grosse Textfiles speichern wuerdest. |
Es ist nur komisch, daß es in einem Dateisystem nicht einen Bereich gibt, wo die letzten Bytes einer Datei gespeichert werden, und zwar in einem einzigen Sektor. Dann gibt es im Mittel einen halben Sektor Verschnitt, die Verwaltungsinformation benötigt die Nummer des ersten Clusters der Datei (somit ist eine eindeutige Zuordnung gegeben) und der letzte reguläre Cluster verweist auf den einzelnen Sektor, der sich in einem speziellen Bereich der Partition befindet.
Damit ist das Problem des Verschnitts ein für alle Mal gelöst ;) Statt 2 Kilobyte Verschnitt im Mittel sind es dann 256 Bytes Verschnitt im Mittel bei 4 KB Clustergrösse und 512 Byte Sektorgrösse. |
Ohne jetzt ins Detail gehen zu wollen, NTFS geht mit sehr sehr kleinen Dateien eh schon platzsparend um indem sie direkt in die MFT (MasterFileTable) geschrieben werden.
Dein Vorschlag ist durchaus denk- und machbar, doch fehlt vielleicht die Wirtschaftlichkeit in Sachen Aufwand/Nutzen. Ein stark erhoehter Origanisationsaufwand seitens des Dateisystemtreibers (ich spreche hier von Optimierung auf C bzw Assembler-Ebene, nix C++ oder Java-Spielzeug!) steht einer recht kleinen Minimierung des Verschnitts gegenueber. NTFS arbeitet durch die Verwendung von 4kB-Cluster schon verdammt effizient was die Speicherplatznutzung angeht, jedoch alles in einer Bandbreite gemessen. Eine durchschnittliche Partition enthaelt gleichermassen grosse als mittlere und kleine Dateien, es mittelt sich recht gut. |
Jetzt wird's aber ssseeehhhrrr theoretisch (..und auch offtopic). Bei 300 GByte Festplatten unter 100 Euro wird wohl niemand ernsthaft den Vorschlag in die Tat umsetzen....auch wenns der richtige Ansatz wäre...
|
Eine Festplatte mit 300 GB hat keine tatsächlichen 300 GB, sondern erheblich weniger.
300 * 1000 * 1000 * 1000 = 300 Milliarden Bytes 300 * 1024 * 1024 * 1024 = 322(,122547200) Milliarden Bytes |
...dass stimmt alles, aber solange der Festplattenplatz derart günstig ist, wird sich niemand dieser Problematik annehmen..../Ironie an/ den selbst wenn 2,8 GByte tatsächlich auf der Platte 3,0 GByte einnehmen, ist auf der 300 GByte Platte noch immer genug freier Platz übrig, auch wenns nicht wirklich 300 GByte sind, und wenn der Platz zu eng wird, denn kauf ma halt a größere Platte.../Ironie aus/...verstehst, was ich meine ?
|
100 Euro für 300 GB sind eh nicht teuer ;)
|
...natürlich sind 100 Euro noch immer 100 Euro, aber man muß dass in der Relation sehen. 100 Euro für 300 GByte ist für mich ein gerechtfertigter, wenn nicht "zu billiger" (:rolleyes: ) Preis.
Wenn man bedenkt, dass man für 2 Schriftfonts auch 100 Euro hinblättern muß (siehe hier: http://www.wcm.at/forum/showthread.php?threadid=201894 ....und da wurde mir noch spöttisch erklärt, dass 100 Euro nicht mal ein Posting wert sind...:rolleyes: |
Finde ich nicht, daß 300 GB diesen Preis wert sind.
|
...ich kann mich noch an Zeiten errinnern, wo 54 MByte (!!!) knapp 5000 Schilling gekostet haben ! *in Nostalgie schwelg*
|
Alle Zeitangaben in WEZ +2. Es ist jetzt 15:01 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag