Hyper Backup Hyper Backup dauert lange, neue Dateigröße ungewöhnlich groß

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Hallo zusammen,

ich nutze zur Sicherung meiner DS218+ Hype Backup auf externen USB HDDs. Das klappt auch. Backup wird nur alle paar Wochen mal gemacht, das reicht mir.
Eine externe HDD sichert die kompletten DSM Ordner, die andere sichert nur nochmal einen wichtigen Ordner auf der DS.
Soweit so gut.
Mein Problem ist das ich denke, entweder was falsch eingestellt zu haben oder irgendwas läuft faul.
Das Backup dauert bei mir immer ewig.
Datenübertragung zwischen 3 und 15 MB/s. Außerdem zeigt er die "Neue Dateigröße" immer recht hoch an. Wenn ich richtig gelesen habe sind das die Änderung seit dem letzten Backup. Aktuell sind es über 1TB. Ich habe aber nie im Leben über 1TB an Daten verändert seit dem letzten Backup.

Früher hatte ich als Backupmethode Einzelversionen, weil ich gerne die Rohdateien direkt auf der HDD haben wollte. Mittlerweile habe ich aber das Standardformat gewählt (Container) weil ich gelesen hatte, dass das schneller gehen soll.
Anbei ein Screenshot.

Kann ich das irgendwie noch beschleunigen? Ich würde an sich gern öfters die externe Sicherung machen. Nur habe ich keine Lust, immer 2-3 Tage zu warten.
Außerdem hätte ich an sich auch gerne ein paar Versionen. Aber meine externe HDD ist 5TB und intern in der DS sind aktuell 3,5TB belegt (Hyperbackup zeigt komischerweise 4,1TB an). Denke viele Versionen passen da nicht drauf. Bin mir nicht ganz sicher, wie man die Backupaufgabe optimal einstellt.
An sich habe ich die Verschlüsselung eingeschaltet, Versionierung auf 2 gestellt, alle Apps mit reingenommen usw.
Vielleicht zieht irgendeine Einstellung ja die Geschwindigkeit dermaßen herunter. Habe manchmal das gefühlt, dass es nicht ganz inkrementell abläuft. Was ist übrigens, wenn auf der externen HDD der Container beschädigt wird. Macht es da nicht eher Sinn, wieder auf Einzelversionen zu gehen?
Wie habt ihr das?

Vielen Dank im Voraus.
Manuel
 

Anhänge

  • Bildschirmfoto 2023-11-26 um 11.52.03.png
    Bildschirmfoto 2023-11-26 um 11.52.03.png
    151,4 KB · Aufrufe: 12

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Hast Du es einmal ohne Kompression ausprobiert, ob das signifikant schneller ist? Das wäre das erste, was ich an Deiner Stelle tun würde. Wie ist die CPU Last während des Backups? Was für eine externe Platte nutzt Du (Stichwort SMR).
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Ohne Kompression habe ich es noch nicht probiert. Dachte die DS218+ schafft das ohne Probleme. Aber das teste ich.
CPU Last ist bei etwa 30%-40% während des Backups.
Als externe Plate nutze ich eine Seagate Backup Plus Portable 5TB und eine WD Elements Portable. Keine Ahnung, ob die SMR können. Sind beide glaube ich als ext4 formatiert. macht es denn Sinn auf Einzelversion zu gehen oder ist der Container schon die schnellste Variante?

Gerade eben wurde der Job pausiert, da die Platte voll ist (d.h. die 2 Tage waren umsonst), muss ich abbrechen.
Ich hätte gern so viel wie möglich Versionen, so das alles immer noch lange auf die 5TB Platte passt. Aber so richtig seh ich da noch nicht durch was was bedeutet.
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Ich gehe davon aus, dass es sich um 2,5" Platten handelt, der Name spricht dafür. Die sind mit an Sicherheit grenzender Wahrscheinlichkeit SMR-Platten und nicht CMR-Platten. Die können beim Schreiben großer Datenmengen sehr langsam werden. Wenn das Backup primär einen Thread nutzt, könnte ein Thread schon voll ausgelastet sein und limitieren. Einzelversion könnte auch schneller sein, aber das solltest Du nach Deinen Anforderungen entscheiden. Wenn Du Versionierung möchtest, dann solltest Du die auch nutzen. Aber ohne Kompression könntest Du einmal testen im Vergleich, um zu schauen, ob das dann spürbar schneller geht.
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Ich hatte gerade oben nochmal editiert. Kompression ist gar nicht aktiviert. Nur Verschlüsselung.
Und eine externe HDD, wo die komplette NAS drauf gesichert ist würde ich an sich ungern unverschlüsselt herumliegen lassen. Aber Kompression ist schon aus.

Viele werden ja auch normale 2,5" Platten für die Sicherung nehmen. Kann mir nicht vorstellen, das es bei allen so ewig dauert. Von manchen lese ich, das der Vorgang nur ein paar Minuten (inkrementell) dauert. Es ist ja auch komisch, dass er 1TB an neuen Daten hat, was er sichert. Das kann nicht sein. Doch wie finde ich da den Fehler, wo fang ich an mit suchen?
 

Rotbart

Benutzer
Contributor
Sehr erfahren
Mitglied seit
04. Jul 2021
Beiträge
1.457
Punkte für Reaktionen
441
Punkte
109
Beobachte mal die Auslastung der ext.Platte im Ressourcenmanager, während des Backups,kõnnte mir vorstellen das die bei 100% liegt.
 

Benie

Benutzer
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
6.080
Punkte für Reaktionen
2.056
Punkte
279
Es ist ja auch komisch, dass er 1TB an neuen Daten hat, was er sichert.
Dem solltest Du vielleicht nachgehen woher das kommt , irgendwo kommen Sie ja her. Überprüfe mal die Ordner welche im Backup integriert sind und was da drinn ist. Hast Du Drive vor kurzem oder überhaupt in Verwendung? Stichwort Versionierung....
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Beobachte mal die Auslastung der ext.Platte im Ressourcenmanager, während des Backups,kõnnte mir vorstellen das die bei 100% liegt.
Ja die Platte ist oft bei 100%. Aber daran sollte es doch nicht liegen oder? Es ist ja eine ganz normale 2,5" Plate. Ich denke eine andere hochwertige 2,5" Platte macht da keinen Unterschied. Und 3,5" Platten sind halt nicht gerade komfortabel bzgl. des Netzteiles.
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Dem solltest Du vielleicht nachgehen woher das kommt , irgendwo kommen Sie ja her. Überprüfe mal die Ordner welche im Backup integriert sind und was da drinn ist. Hast Du Drive vor kurzem oder überhaupt in Verwendung? Stichwort Versionierung....
Drive hatte ich damals mal kurz getestet, aber nutze ich nicht mehr.
Es kommen natürlich ein paar GB an RAW Fotos dazu. Ansonsten auch TimeMaschine Backup. Vielleicht liegt es auch daran, da ja bei jedem täglichen TM Backup vom Mac der Container von TM neu geschrieben wird. Der ist alleine 650GB groß und die DS erkennt eine Änderung und schreibt den ganzen Container neu. Ich denke daran liegt es zum Teil. Doch wie geht man da am besten vor.
Mein Macbook macht TM Backups auf einen freigegebenen Ordner. Die liegen dann nur auf der NAS. Gerne hätte ich den TM Container ja nochmal zusätzlich mit gesichert, falls die DS defekt geht.
Ich nutze 2 6TB Ironwolf Platten, die gespiegelt werden (SHR). Sollte ich vielleicht da ein anderes Format wählen?
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Ich finde 2,5" Platten auch viel praktischer, weil sie kein Netzteil brauchen, mir sind sie nur oft zu klein. Und eine SMR-Platte bei 100% könnte problematisch werden. SMR bedeutet einfach ausgedrückt, dass manchmal mehrfach geschrieben werden muss, was bei Dauerlast zu Performanceeinbrüchen führen kann.

Edit: Das Thema TM Backup könnte besser laufen, wenn Du das HyperBackup blockbasiert schreiben läßt.
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Edit: Das Thema TM Backup könnte besser laufen, wenn Du das HyperBackup blockbasiert schreiben läßt.
Sorry bin da trotzdem noch ziemlich am Anfang bei der ganzen Geschichte. Mich ärgert nur, dass es so ewig alles dauert.
Was meinst du genau mit "blockbasiert"?
Gerne bin ich für Tipps offen, falls ich grundlegend was ändern soll an der Backupstrategie. Glaube eh, dass da noch nicht alles 100% durchdacht ist bei mir. Einmal war der TM Container schon defekt und ich musste das Backup neu machen.

///Edit: Die Option "Gesamtes System" scheint leider nicht auf ext. HDD zu funktionieren. Also kann ich nur Ordner und Pakete sichern. Das scheint aber nicht Blockbasiert zu sein. Habt ihr alle die Verschlüsselung mit drin?
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Bei mir sieht das in HyperBackup so aus (DSM 7.1.1 wohlgemerkt), wie im Screenshot anbei dokumentiert.

Ich sehe auch keine Option für blockbasierte Speicherung, vielleicht gibts die erst ab DSM 7.2, aber "Gesicherte Daten komprimieren" wird mir angeboten und ist auch vorausgewählt.

1701094226789.png
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Schaut bei mir so aus. Aufgabe ist aber damals schon angelegt worden. Weiß nicht, was sich da inzwischen geändert hat. Nutze DSM 7.2.
Wohlgemerkt die ext. HDD ist nicht angesteckt, deshalb kann ich vermutlich manche Sachen nicht ändern (ist der zweite Backupjob, der erste läuft gerade).
Du sicherst täglich 3 Uhr auf ext. HDD? Ist die da dauerhaft angesteckt?

//Edit: Aktuelle Geschwindigkeit 10-250 KB/s :-(
 

Anhänge

  • Bildschirmfoto 2023-11-27 um 15.17.51.png
    Bildschirmfoto 2023-11-27 um 15.17.51.png
    101,9 KB · Aufrufe: 12
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Nee, 3 Uhr ist der default, der vorgeschlagen wird, wenn man einen neuen Job anlegt, kein realer Job von mir.
 
  • Like
Reaktionen: T-Bone

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Alles klar. Ich kann halt auch nicht mit Zeitplan arbeiten, da meine DS die meiste Zeit aus ist.
Echt schwierig. Denke das TM Backup spielt da eine große Rolle. Aber wie man das lösen könnte, bin ich überfragt. Muss nochmal im Forum andere suchen, die auch TM nutzen. Muss es doch eine Möglichkeit geben, dass er nicht jedes mal den kompletten Container neu sichert.
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754
Mach doch einfach einmal genau das Gleiche wie ich: Erstelle testweise einen neuen HyperBackup-Job und schau Dir dort die Optionen an. Fall blockweises Backup dort angeboten wird, dann mach damit einmal einen Testjob und schau Dir die Geschwindigkeit an.
 

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Blockweise wird nur angeboten, wenn ich statt "Ordner und Pakete" das "Gesamte System" sichere. Steht zumindest direkt auf der ersten Seite, wenn ich einen neuen Job mache.
Aber das gesamte System geht nicht auf eine ext. HDD, nur C2 und andere Diskstation
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.948
Punkte für Reaktionen
1.222
Punkte
754

T-Bone

Benutzer
Mitglied seit
04. Dez 2019
Beiträge
132
Punkte für Reaktionen
0
Punkte
16
Kann ich irgendwo denn sehen, was alles als "Neue Dateien" von Hype Backup gesichert wird? Damit ich schauen kann, woher die vielen Daten kommen, die ständig neu geschrieben werden.
Ich vermute aber fast wirklich, dass das von Time Machine kommt.
 

Thonav

Benutzer
Sehr erfahren
Mitglied seit
16. Feb 2014
Beiträge
7.879
Punkte für Reaktionen
1.503
Punkte
274
Schon per se macht ein versioniertes Backup eines TimeMachine Backups keinen Sinn. Leg dafür einen gesonderten, dateibasierenden Backup Job an.
 
  • Like
Reaktionen: dil88


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat