Information: Hyperbackup Lokal (Einzel) - Schlechte Programmierung von Synology

OmalleyTEC

Benutzer
Mitglied seit
10. März 2012
Beiträge
36
Punkte für Reaktionen
0
Punkte
6
Ich bin auf eine Unzulänglichkeit im Programm gestoßen, die ich hier schildere, damit andere User sich meinen Ärger ersparen können.


Ich habe sehr große (3 bis 5 TB) übergeordnete Ordner innerhalb eines Shares (gemeinsamer Ordner), die ich in viele kleinere untergeordnete Ordner unterteilt habe.
Das habe ich gemacht, damit ich Datensicherungsaufgaben zerlegen kann, weil mir sonst einzelne Sicherungen tagelang das System belasten. Insbesondere wenn sie komplett neu aufgesetzt werden müssen.
Ich kann auf meinem System leider nicht flüssig arbeiten, wenn eine Hyperbackup-Aufgabe läuft.

Ich habe zuerst die Unterordner 1 bis 10 in die Sicherung eingeschlossen, dann 11 bis 20, usw.. Letztlich waren alle Daten gesichert und auch, von mir nachgeprüft, im Sicherungsziel vorhanden.
Es gibt darüber hinaus keine einzelnen Daten außerhalb der Unterordner.
Dann habe ich im übergeordneten Ordner, der mit einem Minuszeichen versehen war, den Haken gesetzt, damit neue Unterordner automatisch in die Sicherung aufgenommen werden.

Und siehe da, beim Start der Sicherungsaufgabe wurden alle Daten komplett nochmal neu geschrieben. So als wären sie nicht im Sicherungsziel vorhanden.

Meine Nachfrage bei Synology hat ergeben, dass das bewusst so programmiert wurde. Das ist ärgerlich. Zumal Synology das bei der datenbankbasierten Sciherung besser gemacht hat.

Ich umgehe das Problem jetzt dadurch, dass ich, bei einer neuen Komplettsicherung, die Daten in der Quelle aus dem übergeordneten Ordner vorübergehend in andere Ordner verschiebe.
Ich kann dann den übergeordneten Ordner sofort komplett (also mit Haken) in die Sicherung aufnehmen und schiebe anschließend nach jedem Sicherungsdurchlauf die einzelnen Unterodner nach und nach wieder zurück.
Das ist umständlich, funktioniert aber.

Man könnte den Eindruck haben, dass Synology die filebasierte Sicherung (Datenspiegelung) absichtlich userunfreundlich gestaltet!

Ich kann die datenbankbasierte Sicherung von Hyperbackup nur für kleinere Datenbestände nutzen. Für große Bestände ist es einfach zu langsam.
Insbesondere auch die Wiederherstellung von Daten ist so extrem langsam, dass ich damit nicht arbeiten will. Ich würde die Wiederherstellung meiner Daten nach einem Totalausfall vermutlich nicht mehr erleben. ;-)
Bei meinen Mediendaten ist mir zudem der direkte Zugriff auf die lokalen Sicherungdaten wichtig.


Es wäre sicher gut, wenn alle User, die mit der filebasierten Sicherung arbeiten und auf Schwierigkeiten stoßen, sich damit immer wieder an den Support wenden, damit die Entwickler diese Funktion nicht links liegen lassen.
Oder wie schon mal geschehen, ganz aus Hyperbackup entfernen.
 

ottosykora

Benutzer
Mitglied seit
17. April 2013
Beiträge
4.317
Punkte für Reaktionen
68
Punkte
128
also ich habe nicht ganz begriffen was da nicht in Ordnung sein sollte.

Ich habe da bei 'einzel' eine Aufgabe mit ca 295GB, 19190 File, 3318 Folder

wenn ich die laufen lasse, dann wird alles schön 1:1 gesichert, dauert etwas.

Wenn ich die Aufgabe eine weile später durchführe, dauert es nur ganz kurz, also es wird nichts komplett neu geschrieben.

Normale Backup laufen bei mir mit der Datenbank bassierten Version, die 'einzel' wird bei mir dann etwas seltener ausgeführt.

Die Sicherung erfolgt auf eine lokale usb Platte und auch auf eine andere DS via Netzwerk.
 

OmalleyTEC

Benutzer
Mitglied seit
10. März 2012
Beiträge
36
Punkte für Reaktionen
0
Punkte
6
Hmmm ... das scheint in meinem Kopf klarer gewesen zu sein als es sich für dich liest. :)

Also neuer Versuch:

Ich lege eine neue Sicherung an.
Zuerst setzte den Haken in einen übergeordneten Ordner, um ihn in eine Sicherungsaufgabe einzuschließen. Dann nehme ich einigen Haken von Unterordnern wieder raus, um die Sicherung aufzuteilen.
Jetzt wird im übergeordneten Ordner anstatt des Hakens ein Minus angezeigt.
Ich lasse die Sicherungsaufgabe ausführen und die Daten der eingeschlossenen Unterordner werden gesichert.
So mache ich das nach und nach mit allen Unterordnern.
Ich habe jetzt eine komplette Sicherung aller Daten durch mehrere Teilsicherungen erreicht.
Erst jetzt setzte ich wieder den Haken im übergeordneten Ordner. Zum Beispiel damit zukünftige neu angelegte Unterordner automatisch in die Sicherung eingeschlossen werden oder damit einzelne Dateien, die direkt unter dem überg. Ordner gespeichert sind ebenfalls gesichert werden.
Dann starte ich die Aufgabe neu. Hyperbackup teilt mir jetzt mit, dass noch keine Sicherung durchgeführt worden sei, obwohl sich am Bestand nichts geändert hat.
Jetzt werden alle bereits gesicherten Daten nochmal neu in die Sicherung geschrieben, d.h. alle bereits vorhandenen Daten der Unterordner werden überschrieben.
Laut Synology Support erkennt Hyperbackup das als neue Sicherungsaufgabe, obwohl keine Änderungen am Datenbestand vorgenommen wurden.
Und das finde ich schlecht programmiert.

Hinzu kommt noch Folgendes.
Wenn ich eine Einzelsicherung erstmals ausführe und vor Ende der Erstsicherung abbreche, werden die bereits gesicherten Daten zwar nicht verworfen (sie bleiben im Datensicherungsziel stehen), sie werden aber beim nächsten Start der Sicherungsaufgabe nochmal neu geschrieben. Auch hier erkennt Hyperbackup die bereits gesicherten Daten nicht mehr und führt die Sicherung jedesmal von vorne aus, bis sie einmal komplett durchgelaufen ist.
Das kann man bei einer einfachen Datenspiegelung besser programmieren. Ein Tool wie FreeFileSync, das ich zum Beispiel über die Windows-Shares auch auf der DS benutzen kann, erkennt vorhandene und sogar verschobene Dateien.
Wenn ich dafür nicht mein Notebook über Nacht laufen lassen müsste, würde ich umsteigen.

Ich bin mir fast sicher, dass das früher (DSM 4 und 5) anders war und die bereits geschriebenen Daten erkannt wurden.
 

RichardB

Benutzer
Mitglied seit
11. Juni 2019
Beiträge
1.327
Punkte für Reaktionen
26
Punkte
74
Wozu der Lärm?
Das ist das Wesen eine Einzelsicherung. Mach inkrementelle, dann hast Du das Problem nicht. Ich verstehe sowieso nicht, wozu eine Einzelkopie gut sein soll (außer im Notfall, wenn man schnell ein Backup machen muss, weil man es bis jetzt verabsäumt hat). Das Wesen einer Sicherung ist imho, dass mehrere Versionen vorliegen.
Dass eine Einzelversion jedes Mal neu angelegt wird ist halt so. Ich verstehe Deine Aufregung nicht.
 

ottosykora

Benutzer
Mitglied seit
17. April 2013
Beiträge
4.317
Punkte für Reaktionen
68
Punkte
128
hmm, also verstehe ich es richtig:

nach einer erfolgreichen Sicherung wird der Task verändert und danach wieder gesichert und deswegen schreibt es neu?

Das würde ich jedoch verstehen, weil ich mir nicht vorstellen kann dass auch die 'einzel' ohne irgendwelche Liste (oder eben Datenbank) funktioniert. Das machen doch andere Snyc etc Programme auch.
Ich würde es so verstehen, dass halt nun der Task neu ist und damit auch eine vorherige Liste oder so was gelöscht wird, weil sonst der Datenbestand auf dem Backup Medium nicht klar ist.

Wie das im Detail funktioniert weiss ich natürlich nicht, aber man muss bedenken dass auch hier mehrere Kopien sein können und das alles muss irgendwie geordnet sein.

Die meisten Leute ändern die Tasks nicht dauernd, setzen es einmal auf und lassen es so.

Ich werde bei Gelegenheit schauen ob es bei DSM 4.x anders ist, dort heisst es auch nicht Hyper und ist leicht etwas anderes.



----
habe soeben einen Backuptask auf einer DSM 4.3 , dort heisst es Backup and Restoration, leicht geändert. Alles wurde auf 'noch nie durchgeführt' gestellt und es fängt nun alles von Vorne zu backupen auf die externe Disk.
Allerdings läuft dann zuerst ein Teil der sich meldet mit reserve backuped files at destination.
Muss mal schauen was das genau macht, löscht es eben die Daten nicht sondern schreibt es neu.
Mal sehen wenn das alles fertig wird.
 
Zuletzt bearbeitet:

rednag

Benutzer
Mitglied seit
08. November 2013
Beiträge
3.915
Punkte für Reaktionen
2
Punkte
104
Kann ich nachvollziehen.

@RichardB, nur weil Du keinen Sinn darin siehst, gibt es trotzdem etliche Anwendungsfälle.
 

OmalleyTEC

Benutzer
Mitglied seit
10. März 2012
Beiträge
36
Punkte für Reaktionen
0
Punkte
6
Nachtrag:
Der Support sagt: Wenn man bei Lokale Datensicherung (Einzel) die Ordnerauswahl in der Sicherungsquelle ändert, wird das von Hyperbackup als neue noch nicht durchgeführte Sicherung erkannt. Dies gilt nicht, wenn untergeordnete Ordner eines bereits gesicherten Ordners ein- oder ausgeschlossen werden. Wurde die Sicherung jedoch noch gar nicht zu Ende ausgeführt, führt jede Änderung dazu, dass die Sicherung als neu eingestuft wird.
Es gibt also keine Alternative zu meinem Workaround aus meinem ersten Posting.
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten, denn dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit einem hohen technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive oder Themen fremde Werbung. Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.