Überlegungen zur Sicherung

Status
Für weitere Antworten geschlossen.

emerq

Benutzer
Mitglied seit
09. Dez 2012
Beiträge
51
Punkte für Reaktionen
0
Punkte
6
Danke für die Info.
Ich habe es mir fast gedacht, dass man es auslesen kann. Schade :eek:


Zitat:
Verschlüsselung und Backup wird von Synology so gehandhabt, dass das Backup auch immer verschlüsselt ist. Man kann sich aber auch (relativ einfach) selbst was scripten, wo man es dann handhaben kann wie man möchte.


Eigentlich will ich grundsätzlich die gegebenen Möglichkeiten seitens der Backupfunktionen nutzen... Aber nach welchem Stichwort muss ich mich umschauen bei dem Thema?
 

nasfan2

Benutzer
Mitglied seit
05. Aug 2013
Beiträge
10
Punkte für Reaktionen
0
Punkte
0
ich stimme itari für den privaten Bereich zu 100% zu,
-manuelles backup, dann kann ich sofort kontrollieren ob es auch sauber gelaufen ist.
-gelegentliche restore-kontrolle, dann weiß ich sicher ob die Technik auch einwandfrei funktioniert.
-ich hab meine datenbereiche aufgeteilt in "fotos", "video",... und sichere jeden einzeln
-backupplatte immer physikalisch vom nas treffen, wg blitzschlag
-zweite sicherung an getrenntem Ort wg. Einbruch, Feuer
gruß nasfan
 

forf79

Benutzer
Mitglied seit
29. Dez 2013
Beiträge
16
Punkte für Reaktionen
0
Punkte
0
Hallo,

wie ihr an meiner Beitraganzahl sehen könnt, bin ich ein absoluter Newbie. Habe praktisch keine Vorerfahrung mit NAS und bin auch kein IT-Experte. Habe mich bisher nur eingelesen und bin letztendlich bei Synology gelandet u.a. auch wegen der tollen Community.

Meine Überlegungen als Laie für den Privatgebrauch:
-NAS (DS213J) mit Raid1 --> geht eine Platte defekt kann ich leicht tauschen und alles läuft weiter.
-externe HD an NAS für tägliches Backup.
-Zusatzüberlegung!? Ursprung, eigentlich wollte ich nur ein Lösung, damit ich alle meine Bilder nicht nur auf dem NAS habe, sondern "gespiegelt" auf dem Notebook, falls ich mal unterwegs bin und Bilder schauen/zeigen möchte. Internetzugriff ist mir als Newbie (noch) zu heikel. Mit CloudStation habe ich eine tolle Lösung gefunden, um meine Bilder (und andere Daten) immer auch auf dem Notebook syncron zu haben. Somit habe ich hier eine weiter Sicherung meiner Daten. Zumal diese zum einen direkt am Notebook prüfbar sind, ob alles funktioniert. Zum anderen sind die Daten dann gleich auf einem Gerät welches nicht per Kabel mit dem NAS verbunden ist (Schutz vor Blitzschlag, viele schaffen es wohl nicht die externe Platte abzustöpseln ;-) ).

Was haltet ihr von der Lösung? Murksgedanken eines Laien oder gute zusätzliche Möglichkeit der Sicherung?

Grüße
forf
 

carabira

Benutzer
Mitglied seit
12. Jan 2014
Beiträge
18
Punkte für Reaktionen
0
Punkte
0
Hallo zusammen,
ich habe über verschiedenste Methoden und Varianten in diesem Thread gelesen. Dennoch würde ich gerne meine doofe Frage loswerden (bitte schlagt mich nicht, es ist nicht einfach als Frau :) !)
Ich habe eine Synology 213+, die ich als RAID1 eingerichtet habe (besser gesagt, ein guter Freund half mir). Es laufen 2 x 3 TB Platten und ich würde gerne regelmäßig Sicherungen auf eine externe Festplatte vornehmen. Ich hatte gedacht, hierzu kaufe ich eine externe 3 TB Platte, die ich einfach anstöpsele und gut ist.
Jetzt habe ich mir paar Platten angeschaut: bspw. eine von WD, die hat jedoch einen Ein/Aus-Schalter. Muss ich die Platte dann immer Ein- und Ausschalten, wenn die Sicherung läuft um die externe nicht immer laufen zu lassen ? Habe hier irgendwo gelesen, dass es Platten mit Zeitschaltfunktion gibt ?! Oder sollte ich mir einfach eine Synology Erweiterungsbox kaufen, auf die ich die Sicherung ziehen lasse ? Gehe ich recht in der Annahme, dass irgendwo im Menü der Synology die Backup-Funktion als Wizzard hinterlegt ist ? Oder muss ich irgendwas bestimmtes beachten ?

Ich möchte Euch vorab für Eure Unterstützung danken.
Cara
 
Mitglied seit
10. Jan 2014
Beiträge
393
Punkte für Reaktionen
0
Punkte
0
Hallo Cara,

ich habe gerade meine USB-Platte als Sicherungsmedium an meine DS213j geklemmt.
Die Syno unterstützt auch den Stromsparmodus meiner USB-Platte....
Und ja, das mit dem Backup ist als Wizzard im Hauptmenu links oben unter "Datensicherung und -wiederherstellung" zu finden.

Habe auch ein Raid1 und überlege gerade, ob das nicht ziemlicher Quatsch ist.
Raid1 bedeutet ja Hardware-Ausfallsicherheit mit 0 Downtime....aber keine Sicherheit gegen Bedienungsfehlern (von mir).
Auf die geringe Downtime kann ich locker verzichten, aber meine eigene Doofheit ist schwer kalkulierbar :cool:
Aber die USB-Platte befindet sich fast zwangsläufig im selben Raum.....bei Feuer/Wasser sind dann die beiden internen + die USB-Platte kaputt 8-(
Tja...alles nicht so einfach..

Micky
 

carabira

Benutzer
Mitglied seit
12. Jan 2014
Beiträge
18
Punkte für Reaktionen
0
Punkte
0
Hallo Mickey,
danke für Deine Antwort.
Ich muß zugeben, dass ich nicht weiß, was "0 Downtime" bedeutet.
Ich verstehe das Problem mit Backup-Medien im gleichen Raum - aber das wäre für mich ok. Ich habe keine Lust auf eine separate Cloud irgendwo oder sonst was derartiges.
Mir würde es reichen, wenn ich eine externe Platte an die Box klemme und die die Daten sichert.
Wenn ich Dich richtig verstehe, würde dann die externe Platte immer an sein und der Stromsparmodus würde dann über die Synology-Box geregelt werden ?
 
Mitglied seit
10. Jan 2014
Beiträge
393
Punkte für Reaktionen
0
Punkte
0
Hallo,

0 Downtime bedeutet, dass es nichts ausmacht, wenn bei Raid1 eine Festplatte kaputt geht.
Das Ding läuft einfach weiter. Man müsste dann nur irgendwann die defekte Platte tauschen.

Hast du nur eine Platte, oder Raid0, muss du erstmal die defekte Platte ersetzen, dann dein Backup ( z.B. von USB-Disk) wieder auf die neue Platte bringen und könntest erst dann wieder arbeiten.
Das bedeutet: Solange du mit der Wiederherstellung der Platte/Daten beschäftigt bist, hast du "keinen" Zugriff auf die Daten. Downtime halt.
"Kein Zugriff" ist aber relativ zu verstehen, da du die USB-Platte immer noch am PC anschliessen könntest.

Und: ja, wenn die USB-Platte eine Stromsparfunktion hat, kann die DS diese steuern.

Micky
 

trininja

Benutzer
Mitglied seit
03. Jan 2014
Beiträge
446
Punkte für Reaktionen
0
Punkte
0
Da muss ich eingreifen: Jain, die Stromsparfunktion von externen Festplatten ist differenziert zu betrachen, vor allem im Hinblick auf die LCC Problematik. Du kannst zwar in der DSM einstellen, das Platten nach X Minuten in den Standby gehen, aber externe USB Platten haben noch eine eigene APM (Advanced Power Management) Funktion, die zusätzlich zum tragen kommt, da die DS hier nur den Abschaltbefehl per USB weiterleitet, nicht direkt die APm Funktion des Laufwerks anspricht. Letztens erst wieder eine USB Platte gesehen, die nach 6 Monaten Einsatzzeit als externes Speichermedium 700.000+ LCCs hatte. Neues Medium angeschafft, APM deaktiviert über CrystalDiskInfo (Geht nicht bei allen.) und die LCCs nach 3 Monaten waren bei unter 40. Ein angenehmer Wert.

Datensicherung ansich ist eh son Thema, über das man tagelang, achwas monatelang Diskussionen führen kann. Optimale Strategien verlassen sich nicht auf nur Festplattenspeicher, sondern gesicherte Onlinespeicher, Festplattenspeicher, Datenbänder und externe Medien. Dazu eine saubere Generationsversionierung der Daten (Ich persönlich setze auf 20 Generationen mit einem Vollbackup alle 6 Zyklen.) mit gezielter Prüfsummenprüfung (MD5, CRC32, SHA-256, RIPEMD-256, Tiger und Whirlpool.), was zwar den Aufwand erhöht, aber definitiv jegliche Fehler ausschliesst bei der Übertragung von Host A nach Host B, C und D. Und selbst dann kann man sich nicht sicher sein, das alle sauber funktioniert.

Monitoring von Backupaufgaben sind bei uns Pflicht, einfach weil zuviel schief gehen kann, da wir mit vielen unterschiedlichen Quell Dateisystemen arbeiten und hier die Case-Sensitive/Case-Intensive Geschichten zum Beispiel überwacht werden müssen (Siehe das Thema mit dem "Riesenbug" bei Apple Geräten, was von mir hier betreut wurde, da ist diese Ganze Problematik schön zu sehen.), auch wenn das die Backupsoftware übernimmt (Eigentlich. Aber Murphys Law für Computer.)

Bei RAID Versionen und Möglichkeiten kann man viel diskutieren, ich persönlich setze bei EXTREM wichtigen Daten auf Lösungen und RAID Level, die eine Synology nicht kann, bzw. nicht nur persönlich, sondern auch geschäftlich. Wenn es um Standarddaten geht und die Größe des Speichers wichtig sein sollte, RAID5 mit HotSpare auf Synology, wobei ich auch vermehrt auf RAID6 umsteige bei Synos mit min. 8 Bays. RAID1/10 wird bei geforderter Ausfallsicherheit gefahren. Unwichtige Daten liegen meistens auf RAID5 rum. RAID0 habe ich noch nie verwendet, war von anfang an dagegen. SHR macht Sinn bei unterschiedlicher Bestückung, aber wir fahren hier eh Synos nur mit identischen Platten, meistens sogar aus derselben Produktionslinie, da wir Platten in Massen kaufen und dann meistens 100-200 Platten mit aufeinanderfolgenden Seriennummern bekommen. Was auch Differenzen bei den Produktionslinien eliminiert.

RAID1 Ausfallsicherheit ist auch nur dann gegeben, wenn dir eine Platte abraucht oder wenn 2 abrauchen und diese nicht zufällig Source und Targetplatte sind. Bei so einem Fall sind die Daten weg, da ja Source und Target direkt gespiegelt sind und nicht wie bei RAID5/6 hat zwar Downtimes, aber bei RAID6 zum Beispiel spielt es keine Rolle welche Platten ausfallen, da bei RAID6 die Wiederherstellungsinfos auf allen Festplatten verteilt geschrieben sind und dir somit 2 Platten abrauchen dürfen. In verboindung mit HotSpare hast du dann meistens auch direkt schon einen Ersatzdatenträger im System (Wobei wir mittlerweile bei einigen RAID Konstellationen bis zu 20 HotSpare Platten im System haben, vor allem bei Systemen mit 80+ Platten.)

Beim Format der Sicherung wird es schwer. Manche Sicherungen müssen wir verschlüsseln, das ist Vorgabe und können wir nicht umgehen, Komprimierung wird auch verwendet bei manchen Backuptypen, da die Quellsysteme zuviele Daten vorrätig haben, die aber komprimiert nur 10% des Speichers belegen. Ineffiziente Dateisysteme oder auch Software, die so ineffizient speichert sollte eigentlich ausgewechselt werden, was aber bei speziellen Lösungen für genau dieses Unternehmen manchmal nicht machbar ist, vor allem wenn die gesamte Kundenbasis auf diesem System basiert mit allen Schnittstellen und ein Austausch mindesten 5 Jahre Entwickelung und 3 Jahre intensive Tests dauern würde, dann noch parallel fahren mit der aktuellen Lösung, dazu noch die Kosten und das zusätzliche Entwicklen von Schnittstellen. Wir arbeiten mit einigen Kunden zusammen, deren Kernsoftware auf AS390 und AS400 Servern laufen, mit genau darauf angepassten Schnittstellen zu SAP und eigens nur für diese Firmen entwickelten FiBu/KuBu Lösungen.

Magnetstürme, ähm, ja, ich sehe das relaxed, die Server, Quell- wie auch Zielserver sind ausreichend gegen sowas bei uns geschützt, Privat kann ich das nicht wirklich beantworten, spiele gerade mit dem Gedanken mit nen eigenen 19" Schrank mit allen Sicherheitsfeatures zuzulegen, so groß ist mein Privater IT Haushalt geworden. (Gut, ich hab auch schon vor Snowden gepredigt das wir alle abgehört werden und wurde als Spinner belächelt, heute schauen mich genau diese Leute nurnoch an und senken peinlich berührt den Blick. - Zusammenhang: Genau die Spinner, die so paranoid arbeiten und sich gegen alles absichern, die nur belächelt wurden, sind heute diejenigen, die gefragt werden was man tun kann. Deswegen auch das Thema Magnetstürme und Co. nicht zu verachten ist auf Dauer.)
 

JoGi65

Benutzer
Mitglied seit
03. Dez 2011
Beiträge
651
Punkte für Reaktionen
7
Punkte
44
Ich verstehe das Problem mit Backup-Medien im gleichen Raum - aber das wäre für mich ok. Ich habe keine Lust auf eine separate Cloud irgendwo oder sonst was derartiges.
Mir würde es reichen, wenn ich eine externe Platte an die Box klemme und die die Daten sichert.

Das ist in Deinem Fall auch das vernünftigste. Und genau wie Du schreibst, nur dann an die Synology und am Stromnetz anstecken wenn Du sicherst. Damit bist Du gut unterwegs, weil Du dem häufigsten Fremdeinfluß, Stromnetz Probleme (Überspannung, Blitzschlag), ausweichst.
 

ong10

Benutzer
Mitglied seit
20. Mai 2010
Beiträge
262
Punkte für Reaktionen
3
Punkte
18
Hallo,

da bin ich wieder. Der Beitrag von trininja und den paar davor hat mich animiert noch etwas von einem Gau zu berichten.
Ein Freitag im Herbst 2012: Alles läuft prima. Raid das die Platten spiegelt - keine Ahnung mehr ob es nun mit oder ohne Parity war - lief wunderbar. Montag wieder im Hause: Server tot. Warum? Raid Controller war defekt. Auf Grund des Alters (irgendwas zwischen 4 oder 6 Jahre) wurde mir gesagt, Reparatur ist nicht sinnvoll (d.h. es gab auch keinen neuen Controller), es gibt einen neuen Server. Haha: Alle Daten futsch! Daher möchte ich egal was wie gesichert ist jedenfalls dazu raten nochmal auf ein externes Medium zu sichern.
Seit dann - um die Weihnachtszeit (!) - ein neuer Server kam, habe ich eine ganz normale externe Platte dranhängen und sichere per Windows Aufgabenplanung 2x in der Woche auf diese (ca. 750 GB).

PS: Dass es so lange gedauert hat konnte ich nicht beeinflussen. Öffentlicher Dienst - genauer: Schule (da waren die Daten - der Schüler - dann wohl eben nicht wichtig genug und DV Unterricht ist mit Papier doch auch interessant - oder ;-) ).... Ach ja, bevor jemand mit dem Finger zeigt: Ich war nicht für das Setup verantwortlich. Und ja, ich weiß, dass auch das nur eine halbgare Lösung ist.

Olaf
 

Frogman

Benutzer
Mitglied seit
01. Sep 2012
Beiträge
17.485
Punkte für Reaktionen
8
Punkte
414
...Auf Grund des Alters (irgendwas zwischen 4 oder 6 Jahre) wurde mir gesagt, Reparatur ist nicht sinnvoll (d.h. es gab auch keinen neuen Controller), es gibt einen neuen Server. Haha: Alle Daten futsch! Daher möchte ich egal was wie gesichert ist jedenfalls dazu raten nochmal auf ein externes Medium zu sichern.
"Daten futsch" nur wegen eines defekten RAID-Controllers? Nun ja... Und ein RAID1 ist ja auch keine Sicherung - daher ist ein richtiges Backup immer Pflicht (am besten nicht nur auf eine externe Platte, sondern in mehreren Generationen, redundant und eventuell auch diversitär, wenn ich auch nicht bis auf 20 Generationen gehen muss, wie es trinija macht)!
 

Mad07

Benutzer
Mitglied seit
30. Jan 2014
Beiträge
35
Punkte für Reaktionen
0
Punkte
0
"Daten futsch" nur wegen eines defekten RAID-Controllers? Nun ja... Und ein RAID1 ist ja auch keine Sicherung - daher ist ein richtiges Backup immer Pflicht

Das ist der Grund, warum meine DS ein Backup auf die Buffalo Linkstation macht... Wenn die Syn abraucht, sind die Daten noch auf der Linkstation und umgekehrt ( Beides Raid1)

War zwar ein wenig ein gefrickl, daß die 2 NAS sich unterhalten konnten, funktioniert jedoch bei Beiden mit reinen Boardmitteln ( rsync)
 

Galileo

Benutzer
Mitglied seit
22. Jan 2014
Beiträge
329
Punkte für Reaktionen
0
Punkte
16
Hallo, :)

bin erst seit einigen Wochen DS-User, und meine "Überlegungen zur Datensicheung" sind noch im Fluss, daher will ich sie hier auch mal zur Diskussion stellen:

Was haltet ihr von der Theorie,

(a) dass man keine (!) automatisch startenden Backups anfertigen sollte, sondern das Backup immer manuell anstoßen sollte, weil auch tatsächlich was zum Sichern da ist und ansonsten das Backupmedium 'aus' sein sollte
Sehe ich für mich genauso. Die tägliche Arbeit wird nebenbei temporär auf dem Notebook gesichert, ein Backup der DS sollte nach tatsächlichen Aktivitäten erfolgen, im Durchschnitt bei mir maximal alle 1-2 Wochen.

(b) dass man mindestens zwei (in Ziffern: 2) Backups haben sollte, weil auch beim Backup-Lauf die Gefahr vorhanden sein kann, dass Original und Backup zeitgleich defektieren
Richtig. Ich wäre bei meinen Daten sogar für 2*2, also 2 mit einem Zyklus von 1-2 Wochen und weitere 2 mit einem Zyklus von 2-3 Monaten, falls man erst später merkt, dass man im Original etwas wichtiges gelöscht hat. Je Satz soll ein Backup im Banksafe und einer unterwegs sein.

(c) dass man immer überwachend dabei sein sollte, wenn ein Backup läuft, weil man ja sonst nichts Wichtiges zu tun hat
Kommt natürlich auf die Backup-Methode an, siehe unten.

(d) dass man sein Backup ab und zu dahingehend kontrollieren sollte, ob ein Restore (Rücksicherung) auch tatsächlich funktioniert, weil man ansonsten ja die Zeit für ein Backup, was nicht geht, auch sparen könnte
Auf jeden Fall!

(e) dass man keine (!) verschlüsselten Daten als Backup anlegen sollte, weil man dann nicht einfach feststellen kann, ob man auch an die Daten einer einzelne Datei schnell und einfach heran kommen kann (damit sag ich nicht, dass man verschlüsselte Daten, die bereits im Original verschlüsselt sind, jetzt entschlüsseln sollte ... ich weiß, dass ist jetzt schwere Kost, würde Klitschko sagen ... bis man das verstanden hat)
Ja, wobei meine Daten auf der DS verschlüsselt sind und dies dann im Backup auch so bleibt.

Würde mich freuen, kontroverse Meinungen zu lesen
Eine kontroverse Meinung würde ich gerne bei der Thematik der Backup-Methode in den raum stellen, allerdings nicht kontrovers zu deinen Überlegungen sondern kontrovers zur überwiegend im Forum gefundenen Meinung:

Und zwar geht es darum, ein Backup durch Rotation einer Platte aus einem Raid-1-Array zu machen:

Problem beim Backup ist doch eigentlich immer, dass man während es läuft die Daten in Ruhe lassen muss, man hat also quasi eine "Downtime". In meinem Fall wäre diese Downtime besonders lang, denn ich habe mich entschieden, meine Daten auf der DS in einem einzigen großen Truecrypt-Container zu halten. Das hat viele Vorteile, erweist sich bei der Datensicherung aber als unpraktisch, denn wie das bei TC-Containern nun mal ist sollte der am Besten von vorn herein schon die Größe haben, die er irgendwann in Zukunft vielleicht einmal brauchen wird.

Geht man von 1 TB aus, dann beträgt die Kopierzeit über USB3 oder eSATA bereits 3 h, bei 4 TB (Größe meines Volumes) wären es sogar 12 h.

Nun bin ich auf die Idee verfallen, mein Volume auf der DS 1513+ als RAID-1 mit 3 Platten anzulegen, und zwecks Backup einfach nur immer die 3. Platte zu tauschen. Ich habe das auch ausprobiert, es funktioniert gut. Damit die DS nichts falsch macht wird die jeweils wieder einzubauende Platte vorher kurz am Notebook über USB-Adapter initialisiert, ist dann also leer.

Nach einiger Sucherei habe ich nun im Forum allerdings drei, vier Threads gefunden, in denen davon abgeraten wird, weil die SATA-Spezifikation nur eine Haltbarkeit von 50 Steckvorgängen vorschreibt. Dem widersprechen jedoch zwei andere Quellen:

Zum einen gibt es hier im Forum die Wiedergabe einer Auskunft von Synology, die von 500 Steckvorgängen spricht: Lebensdauer der SATA Steckverbindungen ?:
Hier die Antwort von Synology

Thank you for your feedback.

I consulted this issue with our connector supplier, the max connection cycles is 500. Hope this information could be of some help to you.

If you have further questions or suggestions, please feel free to contact Synology support again.

Sincerely,

Adair Hsu

Zweitens und damit übereinstimmend habe ich hier die SATA-Spezifikation gefunden, und die besagt:
Durability EIA 364-09
50 cycles for internal cabled application;
500 cycles for backplane/blindmate application.

Wenn niemand Einspruch erhebt würde ich also davon ausgehen, dass 500 Steckvorgänge als Mindesthaltbarkeit spezifiziert sind (d.h. in der Praxis sollten es dann noch ein paar mehr sein). Nun umgerechnet auf meinen Zyklus von im Mittel 1-2 Wochen käme ich also auf eine Haltbarkeit von mindestens 15 Jahren wenn ich immer den selben Steckplatz beanspruche. Wechsle ich hingegen die 3 Steckplätze meines RAID-1-Arrays durch, dann wären es sogar 45 Jahre.

Mit der Methode hätte ich dann also ohne nennenswerte Downtime mein 4 TB-Volume einschließlich DS-Setup alle 1-2 Wochen komplett gesichert.

Das längerfristige Backup (alle 2-3 Monate) würde ich durch USB- oder eSATA-Kopie anfertigen, einfach weil ich dann die Daten auch noch im NTFS-Format habe.

Wie seht ihr das?
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.890
Punkte für Reaktionen
1.172
Punkte
754
Interessante Ausführungen! Handelt es sich um theoretische Überlegungen oder hast Du das so schon umgesetzt und praktische Erfahrungen damit sammeln können? Deine Signature spricht dagegen, aber wer weiß ...
 

Galileo

Benutzer
Mitglied seit
22. Jan 2014
Beiträge
329
Punkte für Reaktionen
0
Punkte
16
Hallo,

ich habe das lediglich ausprobiert, "Erfahrung" würde ich das aber noch nicht nennen, darum stelle ich es hier ja zur Diskussion.

Die ersten drei WD40 meiner DS1513+ bilden ein RAID-1-Volume, auf dem ich in einem Truecrypt-Container meine ernsthaften Daten untergebracht habe. Momentan hat der probeweise mal 900 GB, das funktioniert seit ein paar Wochen sehr gut, deshalb würde ich ihn demnächst nochmal neu anlegen mit 1,8 TB (dann passt eine Kopie davon noch immer auf meine kleine WD Passport-USB3-Platte).

Der Zugriff ist problemlos, sowohl lokal als auch via OpenVPN über Internet. Das Mounten mit TC funktioniert auf beiden Wegen auch gut, (nur wenn man vergisst zu dismounten und die Verbindung abbricht muss man die DS neu starten, sonst wird die Datei noch als offen betrachtet und kann nicht erneut gemounted werden.)

Zu bedenken ist natürlich, dass nicht zwei Clients gleichzeitig einen TC-Container mounten können (was für uns kein Problem ist). Das aber nur am Rande, TC ist hier ja nicht das Thema.

Ich habe dann auch mal ausprobiert wie sich das verhält wenn man eine Platte raus nimmt und eine leere hinzufügt mit der das Volume dann ergänzt wird, das funktioniert gut. Vor allem geht dadurch die Übertragungsleistung des Volumes nicht nennenswert in die Knie, die Synchronisation läuft fast unmerklich im Hintergrund.

Ich habe auch mal verifiziert, dass ich die Daten auf der entnommenen Platte zur Not auch mit der DS414 lesen kann, denn es kann ja auch mal das DS1513-Gehäuse kaputt sein.

All das hat mich soweit zufrieden gestellt, dass ich jetzt mal Langzeiterfahrungen damit sammeln will. Ich finde die Methode der Sicherung halt schon bestechend schnell und einfach.
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.890
Punkte für Reaktionen
1.172
Punkte
754
Kannst Du sagen oder herausfinden, wie hoch die CPU-Last während der Synchronisation ist? Sprich: Die DS idled, die Synchronisation läuft noch.
 

Galileo

Benutzer
Mitglied seit
22. Jan 2014
Beiträge
329
Punkte für Reaktionen
0
Punkte
16
CPU- und RAM-Last ist nahe Null (unterster Strich, ca. 5%).
 
Zuletzt bearbeitet:

MieserTyp

Benutzer
Mitglied seit
20. Feb 2014
Beiträge
66
Punkte für Reaktionen
0
Punkte
0
Hallo itari

Backups sind toll, automatische Backups sind noch besser, manuelle Backups werden fast immer vergessen oder aus Zeitgründen ignoriert (kenne ich von vielen Kunden).
Ich hab mir das so überlegt: Wenn mein Haus abbrennt was hab ich dann noch? Mein automatisches Backup?? ups! mache täglich ein Backup von wichtigen Daten, wöchentlich ein Fullbackup (nicht Ingremental und auch nicht Differenziell ) besser Fullbackup mit 2 oder 3 Versionen und ein manuelles Backup alle paar Monate das ich bei einem Kumpel lagere in Verbindung mit dem Streubackup:)

kannst ruhig lachen, Streubackup bedeutet wirklich wichtige Daten wie z.B Bilder von meinem Sohn die mir niemand wiederbringen kann habe ich z.B. in mindestens 2 Clouds gespeichert z.B. onedrive oder avirabackup oder oder oder, man kann sich nicht vor allem schützen. Brennt mein Bude ab und jemand startet einen Firesale bin ich auch alles los, wenn nicht mein Kumpel wäre.
 

DS212

Benutzer
Mitglied seit
27. Jan 2012
Beiträge
49
Punkte für Reaktionen
0
Punkte
6
Hallo,
ich wollte mal um Rat bzgl meines Backup-Plans ersuchen.

Folgende Situation:
Besitze eine DS 212 mit 2x1TB HDDs. Zurzeit laufen die beiden Platten getrennt als zwei Volumes.
Auf dem ersten Volume sind meine Daten, also Dokumente, Bilder, Musik, Videos etc. Auf der zweiten Platte befindet sich deren Sicherung in Form eines TimeBackup-Auftrages.
Nun möchte ich mit Hilfe einer externen USB-HDD das ganze ein wenig "aufrüsten" um im Falle eines Defekts einfacher an meine Daten zu kommen.
Dazu gibt es jetzt folgende Möglichkeiten:

1) Ich erstelle mir mit den beiden internen HDDs ein RAID1 um gegen einen Ausfall einer Platte gewappnet zu sein und führe ein Backup auf die externe Platte durch.
2) Ich lasse die beiden Volumes wie sie sind und ergänze das Ganze um das zusätzliche Backup der externen HDD mit der "Gefahr", dass eine interne Platte defekt wird bevor die Daten auf die andere interne Platte übertragen wurden.

Die nächste Frage die sich mir stellt ist, welche Methode (TimeBackup oder lokale Datensicherung) ich verwenden sollte?
Geht eine Festplatte kaputt o.Ä. und die DS funktioniert, sollte das wiederherstellen mit beiden Methoden und mit beiden Strategien (1+2) ohne Probleme von Statten gehen, oder nicht?
Geht allerdings gleich die DS mit drauf wird es schwierig.
Wie stelle ich bspw. ein TimeBackup ohne eine DS wieder her, oder die lokale Datensicherung?
Kann ich in beiden Fällen die externe Platte an einen Win-Rechner (sofern er mittels Programm/Treiber das ext4-Format lesen kann) hängen und die Daten "einfach runterziehen"?

Hoffe ihr könnt mir ein paar Hilfestellungen geben.
Vielen Dank!

Mfg
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.890
Punkte für Reaktionen
1.172
Punkte
754
1) Ich erstelle mir mit den beiden internen HDDs ein RAID1 um gegen einen Ausfall einer Platte gewappnet zu sein und führe ein Backup auf die externe Platte durch.

Bei diesem Modell gewinnst Du Verfügbarkeit, nicht primär Datensicherheit. Löscht Du beispielsweise aus versehen eine Datei, wird diese Löschung unmittelbar auch auf die gespiegelte Platte übernommen. Machst Du dann obendrauf noch eine Datensicherung ohne Versionierung und merkst die Löschung nicht vor der nächsten Sicherung, dann ist die Datei weg.

2) Ich lasse die beiden Volumes wie sie sind und ergänze das Ganze um das zusätzliche Backup der externen HDD mit der "Gefahr", dass eine interne Platte defekt wird bevor die Daten auf die andere interne Platte übertragen wurden.

In Sachen Datensicherheit in meinen Augen das klar überlegene Modell. Aber richtig ist natürlich, dass man mehr Aufwand hat, wenn eine Platte kaputt geht, ohne vorher zu mucken.

Ich persönlich würde ja noch anderes vorgehen und erstmal überlegen, welche Daten welche Sicherung haben sollen. Dabei würde ich folgende Stufen unterscheiden:

1. Keine Sicherung - ich habe solche Daten nicht, aber es gibt im Forum immer wieder Leute, die sich dafür aussprechen.
2. Backup ohne Versionierung - z.B. DSM-Datensicherung
3. Backup mit Versionierung - z.B. Time Backup
4. Archiv - z.B. eigene rsync-Skripte

Der Vorteil des Backups ohne Versionierung, ist der Nachteil von Time Backup, wenn ich es richtig verstehe. Die Daten werden einfach ins Filesystem geschrieben, man braucht keine DS, keine spezielle Software zur Restaurierung. Damit sichere ich aktuell alles. Der große Vorteil von Time Backup ist die intelligente Versionierung. Die hilft meiner Meinung nach enorm bei Daten, die besonders wichtig sind _und_ viel bearbeitet werden. Das sind bei mir eher wenige und vor allem kleine Dateien.

Meine großen Mediendatensammlungen sind hingegen sehr wichtig, ändern sich aber kaum. Für die verwende ich Archive. Bei den Fotos handelt es sich um Unikate, der Aufwand zur Erstellung und Pflege meine Musik- und Video-Archive war enorm. Archive erstelle ich so, dass ich pro Archiv zwei rsync-Skripte laufen lasse. Der eine macht einen Trockenlauf, in dem keine Änderung vollzogen wird, aber alle potentiellen Änderungen protokolliert werden. Dann prüfe ich das Logfile, korrigiere ggfs. Dinge und wiederhole den Trocklauf, und lasse am Ende das zweite rsync-Skript laufen, dass das Archiv dann aktualisiert - auch hier wieder inkl. Logfile.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat