Upgrade DSM 7.0 + Hyperbackup auf USB, extrem langsam ?!?

xashx

Benutzer
Mitglied seit
05. Jan 2016
Beiträge
82
Punkte für Reaktionen
0
Punkte
8
Guten Tag zusammen,

ich habe vor 3 Tagen auf das neue DSM 7 gewechselt. Und im gleichen Zuge gestern meine alte Seagate USB Festplatte aus Platzgründen gegen eine aktuelle und größere Intenso Platte getauscht. Diese formatiert via DSM und einen neuen Backuptask erstellt via Hyperbackup (keine Verschlüsselung und standardeinstellung bei komprimierung) direkt auf diese Platte.

Diskstation ist eine 718+ mit erweitertem Ram (16GB). Die Festplatte ist an den Blauen 3.0 USB Port hinten angeschlossen.

Problem ist jetzt das der ganze Backup Task unglaublich langsam läuft. Laut Resourcenmonitor, schreibt die NAS mit lediglich 8 - 9 Mb/s (manchmal auch schwankend weniger) auf die USB Festplatte. So dauert mein Initialbackup schon bei Insgesamt 3,7 TB nochmal gut 3 Tage. Die Diskstation ist aber bei weitem nicht ausgelastet ( CPU 3% / Ram 3 %). Was läuft hier falsch ?
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.220
Punkte für Reaktionen
4.941
Punkte
519
Ich hänge mich hier mal dran.
Vor dem Upgrade auf DSM 7 hatte ich meine Dateien mal ordentlich "ausgemistet" und auch gleich einen neuen Backup-Job erstellt. Und dann die Initialsicherung: ca 1,6TB hat über einen Tag gedauert! Und auch die Folgesicherungen dauern sehr viel länger als noch unter DSM 6. Der einzige Faktor, der sich geändert hat, ist die Version des Betriebssystems. Ich verwende die gleiche Backup-Festplatte am gleichen USB 3-Port und ich habe mein Nutzungsverhalten definitiv nicht geändert (somit fällt ungefähr die gleiche Datenmenge bei Folgesicherungen an, das bestätigt auch die Anzeige in Hyperbackup).

Mir ist das "Phänomen" vorhin erst richtig bewusst geworden, als ich diesen Thread entdeckt habe. Auch bei mir keine nennenswerte Auslastung auf der DS festzustellen und dennoch kommen teilweise Übertragungsraten zustande, die ich seit der Einführung von USB2.0 nicht mehr gesehen habe.

Nach meinem Empfinden ist die Schwuppdizität unter DSM 7 deutlich höher. Ausgenommen der USB-Backup-Geschichte.
 

mexxit

Benutzer
Mitglied seit
21. Aug 2011
Beiträge
15
Punkte für Reaktionen
1
Punkte
3
Hallo,

ich kann das ebenfalls bestätigen. Nach dem DSM7 Update (DS720+, Clean-Install) braucht die erste Sicherung auf die USB-Platte deutlich länger.
 

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
8.596
Punkte für Reaktionen
1.435
Punkte
288
Um was für externe Platten handelt es sich bei euch? Nicht das ihr hier ein Problem mit SMR habt und das irrtümlicherweise DSM7 (eigentlich Hyper Backup) anlastet.
 

mexxit

Benutzer
Mitglied seit
21. Aug 2011
Beiträge
15
Punkte für Reaktionen
1
Punkte
3
Ich verwende eine 2,5" Platte von LaCie. Das wird wohl eine SMR-Platte und somit eh nicht die schnellste sein. Aber trotzdem dauert das Backup länger als noch mit DSM6 womit ich die Platte auch schon in Verwendung hatte.

Grundsätzlich ist es mir übrigens nicht so wichtig, ob es nun 1 oder 2 Tage läuft - mir war es halt nur aufgefallen.
 

xashx

Benutzer
Mitglied seit
05. Jan 2016
Beiträge
82
Punkte für Reaktionen
0
Punkte
8
Blöde Frage... Was bedeutet smr? Ich hab eine usb festplatte von intenso mit usb 3.0 und eine von Seagate auch 3.0 usb. Von smr steht da nichts drauf. Die Seagate war schon länger im Einsatz und lief immer viel schneller mit hypernackup.
 

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.264
Punkte für Reaktionen
923
Punkte
174

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
336
Punkte
123
Ein SSD Cache bremst auch nochmal so Einiges aus.
Erstmal ist es unpraktisch, dass HyperBackup (aber auch andere Tools) die Dateien durch den Cache lesen, anstatt beim Lesen zu sagen, dass sie keinen Cache möchten. Schließlich wird nur einmal jede Datei gelesen und vermutlich auch noch so viel, dass eh nicht Alles in den Cache passt.
Und das mehrfache unnötigt Lesen und Schreiben bremst nunmal.
Ich hab 'nen Schreib-/Lesecache und hier werden RAIDs ja per Software behandelt, also 3x Speichern.

Gut, ich hab hier nicht die schnellsten SSD drin, aber im Normalfall reichen die WD Blue vom Tempo her aus. (wenn man nicht mal eben sinnlos 11TB auf den 2x1TB speichern will)
 

cpav

Benutzer
Mitglied seit
06. Aug 2021
Beiträge
4
Punkte für Reaktionen
0
Punkte
1
Moin,
da ich seit dieser Woche ein Backup mache (nach 7.0 Upgrade), um die Platten zu tauschen, bin ich über Euren Thread gestolpert. Die Backup Geschwindigkeit war nämlich saumäßig (20 MB/s) und das ist untragbar.

Heute ein paar Tests gemacht und ich kann nur sagen, es liegt NICHT an den Festplatten. Kopiert doch einfach über die Filestation einmal eine größere Datei auf die USB Platte und schaut in den Resourcen Manager. Ich habe dann Schreibraten von 80-120 MB/s, was ok ist.

Die Sicherung vom Hyper Backup dümpelt aber zwischen 20-30 MB/s herum. Damit sollte der Fall klar sein, oder? Support kontaktieren?

EDIT: Die Performance der Sicherung ist nach ca. 10 Min. angestiegen auf 60-70 MB/s, damit ist es wohl im Toleranzbereich.
 
Zuletzt bearbeitet:

xashx

Benutzer
Mitglied seit
05. Jan 2016
Beiträge
82
Punkte für Reaktionen
0
Punkte
8
Naja ich weiß nicht aber schwankt extrem bei mir. Im Schnitt um die 15 - 20 mb/s schreiben. Das ist zu wenig. Wenn ich was von Hand von der Filestation auf USB kopiere, hab ich geschwindigkeiten von 80 - 85 mb/s das ist akzeptabel. Komischerweise war das bisher kein Problem und Hyperbackup lief mit dieser Festplatte auch immer schneller und gut. Von daher glaube ich wirklich an einen Bug im Zusammenhang mit DSM 7.
Speedtest.png
 

cpav

Benutzer
Mitglied seit
06. Aug 2021
Beiträge
4
Punkte für Reaktionen
0
Punkte
1
Hängt vielleicht auch von den Dateien ab. Bei größeren Dateien, die jetzt darüber gesichert werden, bin ich mittlerweile bei über 120 MB, schwankt aber auch ganz ordentlich.

1628240388892.png
 

Dieter59

Benutzer
Mitglied seit
14. Mai 2015
Beiträge
53
Punkte für Reaktionen
2
Punkte
8
Ich habe gestern Hyperbackup eingerichtet und sichere gerade auf eine externe SSD über den USB 3.0 Port (ist überigens ne olle DS215j mit neuester Firmware).
Nach nun ca. 20 Stunden Laufzeit hat er immerhin schon 410 GB gesichert, ich bin mir nicht sicher, ob ich die Daten nicht besser abgeschrieben hätte :sick:
 

pensionado

Benutzer
Mitglied seit
22. Jul 2021
Beiträge
3
Punkte für Reaktionen
1
Punkte
3
@Dieter59: Das sollte schneller gehen ...

Ich sichere 328 GB (ca. 143k Dateien) von einer DS216j
- per Hyperbackup (Lokaler Ordner und USB (Einzelversion)) auf eine Toshiba 1TB HDD USB 3.0, ext4, Cache eingeschaltet, in 143 Minuten
- per Hyperbackup (Lokaler Ordner und USB) auf dieselbe Toshiba 1TB HDD USB 3.0, ext4, Cache ausgeschaltet, in 220 Minuten.

Welche Hyperbackupvariante, welches Dateisystem nutzt Du, mit/ohne Cache, wieviele Dateien sind zu sichern, große/kleine?
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
336
Punkte
123
DS218+ für 11TB, mit mehreren Millionen Dateien, knapp über 2 Tage (geschrieben waren es wohl um die 8 TB, falls ich das grad so richtig in Erinnerung hab)

MB/s mal schneller und mal langsamer (vermutlich an den Stellen, fast nur große Dateien, bzw. wo vorwiegend massenhaft winziger Kleinkram vorkam)


Aber so richtig schnell wurde es, als ich das Backup kurz pausiert und dann den SSDCache vom Volume deaktiviert hatte.
Komplett alle Daten durch den Cache zu lesen, ist eine saublöde Idee ... nicht nur langsamer, sondern auch sinnlose Verschwendung der Lebenszeit/TBW der SSDs ... und zusätzlich ausbremsen der nachfolgenden Arbeit, da Cache mit vorwiegend nutzlosen Daten überfüllt.
(hatte mich erst im Ressourcen-Monitor gewundert, dass 3 Mal so viele Daten geschrieben, wie gelesen wurden ... von 3 Platten SHR1/RAID5 lesen und auf 1x USB speichern, hätte ja eigentlich maximal andersrum aussehn sollen)
 

Dieter59

Benutzer
Mitglied seit
14. Mai 2015
Beiträge
53
Punkte für Reaktionen
2
Punkte
8
Jetzt habe ich gesehen, dass meine Kiste nicht auf DSM 7 aktualisiert hat o_O dann werde ich das zuerst mal machen ... wenn mein Backup dann irgendwann mal durch ist. Es sind übrigens 350.000 eher kleine bis mittlelgroße Dateien
 

xashx

Benutzer
Mitglied seit
05. Jan 2016
Beiträge
82
Punkte für Reaktionen
0
Punkte
8
DS218+ für 11TB, mit mehreren Millionen Dateien, knapp über 2 Tage (geschrieben waren es wohl um die 8 TB, falls ich das grad so richtig in Erinnerung hab)

MB/s mal schneller und mal langsamer (vermutlich an den Stellen, fast nur große Dateien, bzw. wo vorwiegend massenhaft winziger Kleinkram vorkam)


Aber so richtig schnell wurde es, als ich das Backup kurz pausiert und dann den SSDCache vom Volume deaktiviert hatte.
Komplett alle Daten durch den Cache zu lesen, ist eine saublöde Idee ... nicht nur langsamer, sondern auch sinnlose Verschwendung der Lebenszeit/TBW der SSDs ... und zusätzlich ausbremsen der nachfolgenden Arbeit, da Cache mit vorwiegend nutzlosen Daten überfüllt.
(hatte mich erst im Ressourcen-Monitor gewundert, dass 3 Mal so viele Daten geschrieben, wie gelesen wurden ... von 3 Platten SHR1/RAID5 lesen und auf 1x USB speichern, hätte ja eigentlich maximal andersrum aussehn sollen)
wie deaktiviere ich den cache ? Kannst mir da behilflich sein ?
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.220
Punkte für Reaktionen
4.941
Punkte
519

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
336
Punkte
123
Ja, den Cache ganz deaktivieren geht, aber beim de-/aktivieren werden alle Prozesse gestoppt und das Volume neu gemountet.
Ich hatte dann das Backup pausiert, den Cache deaktiviert und dann das Backup fortgesetzt, damit die nächsten TB nicht auch noch durch müssen und das Backup war gleich fast 2-3 Mal so schnell.

Außerdem hätte das fast 2% meiner SSDs gekillt, wenn da 11 TB von den 600 TBW verschwinden würden.

Das lesende/schreibene Programm muß es beim Öffnen der Dateien angeben, damit Linux hierfür den Cache "umgeht".
Als Entwickler dieser Backupprogramme weiß man ja, dass man übermäßig Daten liest/schreibt und daher sollte man das gefälligst auch machen.
Auch der FileCache im RAM ist hier komplett nutzlos, nur dass sich der RAM zum Glück nicht so schnell abnutzt, aber der Cache für die anderen Programme wird dabei unnötig geleert.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.220
Punkte für Reaktionen
4.941
Punkte
519


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat