HyperBackup quält die Sicherungsplatte (eigenartiges Verhalten)

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Woolfgang359

Benutzer
Registriert
17. Nov. 2010
Beiträge
125
Reaktionspunkte
21
Punkte
18
Hallo,
ich habe ein neues NAS (DS224+) fertig konfiguriert und zuletzt noch die Datensicherung mit HyperBackup installiert.
Ich habe intern eine 8TB Platte (ext4) mit 6,5TB Daten und extern die gleiche 8TB Platte (ext4) in einem USB3 Gehäuse.
Die Sicherung wurde als "eine Versions Sicherung" gemacht und es werden "Ordner und Pakete" von der internen Platte auf das USB3 Laufwerk gesichert.
Die USB Platte ist leer und neu. (intern und extern WD80EFPX WD Red Plus 8TB)
Das Kopieren der alten Daten auf die interne HDD war problemlos. Auch wenn ich manuell zwischen interner Platte und USB3 Laufwerk hin und her kopiere ist alles normal.
ABER:
Nachdem ich die Sicherung eingerichtet hatte und dann manuell gestartet habe, da ratterte der Schreibkopf los wie ein Maschinengewehr.
Und der Datenduchsatz war im Schnitt bei 1MB/s !! (siehe Bild)
Ich habe in meinen 30 Jahren IT schon ausgesprochen viele Festplatten gehört, aber das ist mir neu.
Wenn ich die Daten mit der FileStation von der Quelle zum Ziel kopiere läuft es wie gewohnt.
Kaum Bewegungen des Schreibkopfes auf die leere Platte und 50MB/s Datendurchsatz. Es wundert mich zwar dass es nicht mehr ist, aber vielleicht liegt das an dem alten USB3 Gehäuse in welches ich die neue HDD eingebaut habe. Aber das ist nicht das Thema.
Der ungesunde Sound, den ich noch nie in diesem Ausmaß erlebt habe und die 1MB/s Datendurchsatz haben mich dazu gebracht nach 7 Minuten den Vorgang abzubrechen.

Hat jemand eine Idee?
Ich hatte auf dem alten Gerät DS109 auch die damals (12 Jahre alte) übliche Datensicherung und die lief 12 Jahre problemlos.
Auch der normale Kopierprozess zwischen den Laufwerken läuft wie üblich!
Aber HyperBackup kann ich so nicht verwenden.

Hat jemand eine Idee was da los sein könnte?
 

Anhänge

  • HyperBackup.jpg
    HyperBackup.jpg
    48,6 KB · Aufrufe: 21
Ich habe das USB3 Gehäuse gewechselt und einen USB3-sATA-Adapter direkt an die Festplatte angesteckt. Auch hier das gleiche Verhalten. Mit HyperBackup permanent extreme Schreibkopfbewegung und Datendurchsatz 2MB/s. Und mit FileStation wenn ich den gleichen Ordner kopiere klingt es normal, also man hörte gelegentlich den Schreibkopf und ich habe einen Datendurchsatz von 60MB/s.

Gibt es andere Möglichkeiten der Sicherung? Ich schreibe mir sonst ein Script auf der Konsole. Aber lieber wäre mir die Bequemlichkeit einer funktionierenden Backup-Software.
 
Du kannst HyperBackup auch mit der Variante "Eine Version" nutzen, dann wird rsync verwendet. Weiterer Vorteil: Die Daten werden direkt ins Filesystem der externen Platte geschrieben. Solange das Filesystem unterstützt wird, kannst Du sie an einem Rechner direkt ohne weitere Software auslesen.
 
Danke, das weiß ich und das mache ich genau so (habe ich geschrieben). Hilft mir bei meinem Problem aber nicht.

@all
Wem das Eröffnungsposting zu lange ist hier die Kurzform:
Sichern freigegebener Ordner mit HyperBackup (Variante: Eine Version) von interner Platte (ext4) auf USB3-Platte (ext4) stresst die USB3-Platte mit extremen(!) Schreibkopfbewegungen und Datendurchsatz von 1-2MB/s. (Beide Platten 8TB sind neu und okay!!)
Wird der gleiche Ordner wird mit FileStation manuell kopiert, dann mit kaum hörberer HDD und Datendurchsatz von 50-60MB/s. So wie es ein soll. HyperBackup würde die 6,5 TB etwa 1,5 Monate sichern. FileStation in 32 Stunden. Da passt doch was nicht. Aber was?

Nachtrag:
rsync -a --delete /volume1/quellordner /volumeUSB1/usbshare/zielordner
funktioniert astrein. Da hört man die Festplatte fast gar nicht mehr und der Datendurchsatz ist gewaltig. Ich habe zwar kein GUI um den Datendurchsatz zu sehen, aber er passt.
 
Zuletzt bearbeitet:
Moment, Du sicherst schon mit einer Version? Sorry, wenn ich das überlesen habe. Dann probiere es mit HyperBackup "Mehrere Versionen"!
 
Mehrere Versionen geht nicht auf USB-Laufwerke (und ich will/brauche es auch nicht).
Es wird bei "Mehrere Versionen" kein USB Ziel vorgeschlagen. Bei "eine Version" wird aber USB Ziel vorgeschlagen.

Habe grad beim vorigen Posting einen Nachtrag zu rsync geschrieben. Hat sich evtl. überschnitten, kannst zur Info noch lesen.
Danke! lg Wolfgang
 
Habe gerade einen Test mit HyperBackup gemacht und einen Ordner mit riesigen Videodateien gesichert. Hier läuft alles normal. Ich vermute, dass HyperBackup zu jeder Datei, die gesichert wird, einen Eintrag in seiner Datenbank oder sonst wo macht und daher bei vielen kleinen Dateien permanent der Schreibkopf bewegt wird. Während bei den großen Dateien nur irgendwann, nachdem eine Datei fertig kopiert wurde, ein Eintrag gemacht wird. Da fällt es nicht auf.
Denn beim Sichern meines Video-Ordners mit HyperBackup habe ich jetzt einen Datendurchsatz von etwa 130MB/s (und mehr) und die Festplatte ist so leise wie sie sein soll.

Also die Ursache ist vermutlich der Overhead, den HyperBackup schreibt, was bei vielen Kleinstdateien ein Schreibkopfgewitter verursacht (das ich bis jetzt noch nie so extrem gehört habe). Und bei mittleren oder großen Dateien ist der "Sound" so wie man ihn kennt. :)
 
Sorry, ich habe das verwechselt mit "Ordner und Pakete" und "Gesamtes System".
Bei "Gesamtes System wird keine USB Platte vorgeschalgen.

Hat mit Versionen nichts zu tun. Danke!

Im vorigen Posting #7 (hat sich mit dir überschnitten) habe ich nochmal einen Test mit großen Dateien gemacht. Ich denke das beschreibt die Ursache.
 
TESTBERICHT

Aufgrund der oben beschriebenen Problematik habe ich Geschwindigkeitstests zum Kopieren und zu Backups gemacht. Anstatt den Test bei mir, mit einem Aha-Erlebnis, abzulegen, lasse ich euch teilhaben. Vielleicht interessiert es jemanden.
Dabei habe ich verschiedene Kopier- und Backup-Methoden getestet, sowie das Ganze auch mit einer Fülle kleinster Dateien und auch Backups mit ganz großen Dateien. Weiters auch von Platte auf die gleiche Platte, sowie von Platte auf andere Platte. Es sind alle Details in der folgenden Tabelle ersichtlich. Falls es Fragen gibt können wir die ja hier besprechen.
Wenn man bei Variante 1 die 3. Zeile betrachtet weiß man warum ich beunruhigt war wie HyperBackup ein Schreibkopfgewitter veranstaltet hat, ohne dass ich Fortschritte gesehen habe. Vermutlich gibt es bei HyperBackup (und nur bei HyperBackup) einen großen OverHead pro Datei wodurch die Performance bei vielen kleinen Dateien in den Keller geht. Aber wenn diese Dateien auf der Festplatte sind, dann wird ja nur mehr im Änderungsfall geschrieben (4.Zeile). Denn dieser ungesunde FestplattenSound von HyperBackup trat nur beim ersten Backup auf. Sonst hätte ich diese Software nicht mehr verwendet und als Festplattenkiller abgetan. Trotzdem könnte der Hersteller für kleine Dateien eine Lösung integrieren.

Geschwindigkeitstest.jpg
 
Zuletzt bearbeitet:
Vielleicht habe icb es überlesen, aber ich sehe das Problem nicht.

Mir ist es relativ wurst wie lange das Backup braucht, das läuft nachts, wenn eh keiner was tut. Da ist es doch egal ob es 10 Minuten oder 1 Minute braucht.🤔
 
  • Like
Reaktionen: ottosykora
Trotzdem könnte der Hersteller für kleine Dateien eine Lösung integrieren.

Da müsstest Du Dich hierfür mit Synology in Verbindung setzen und das beklagen. Mach ein Ticket oder Feature Request auf.

Das HyperBackup besonders mit kleinen Dateien verbunden und das am Ende noch mit SMR HDDs deshalb bis zum Backup Abbruch führt ist seit langem kein Geheimnis.
 
Vielleicht habe icb es überlesen, aber ich sehe das Problem nicht.

Mir ist es relativ wurst wie lange das Backup braucht, das läuft nachts, wenn eh keiner was tut. Da ist es doch egal ob es 10 Minuten oder 1 Minute braucht.🤔
Ja klar hast du die Sache überlesen, denn die Zeit ist nicht das Problem. :)
 
Zuletzt bearbeitet:
Da müsstest Du Dich hierfür mit Synology in Verbindung setzen und das beklagen. Mach ein Ticket oder Feature Request auf.

Das HyperBackup besonders mit kleinen Dateien verbunden und das am Ende noch mit SMR HDDs deshalb bis zum Backup Abbruch führt ist seit langem kein Geheimnis.
Zum Glück sind meine HDDs keine SMR Platten, da habe ich schon drauf geachtet.
Du schreibst "Kein Geheimnis". Ich habe nichts gefunden. Falls du weißt wo mehr dazu steht, dass HyperBackup ein Graus ist wenn man kleine Dateien hat, das würde mich interessieren, denn wenn es genug Material gibt, dann konfrontiere ich Synology damit. In den 6.5TB Serverdaten sind anscheinend so viele kleine Dateien, die Sicherungsplatte hüpft fast in der Gegend herum und ist recht warm. Und das liegt nicht an der Platte sondern an der Anwendung. Ich bin kurz davor die Sicherung abzubrechen und mir mit rsync selbst ein Script zu machen. Man braucht nur in meiner Tabelle rsync und HyperBackup vergleichen. Und es geht nicht um die Sicherungszeit sondern um das Quälen der Festplatte in ungeahntem Ausmaß. Ich bin seit 30 Jahren in der Branche aber das ist jetzt das Maximum an HDD Quälerei was da neben mir abgeht. :oops:
 
Ich bin mit dem Beitrag fertig.

Ich musste die HyperBackup Sicherung abbrechen. Das oben mehrfach beschriebene extreme(!) Schreibkopfgewitter welches die HDD aufs höchste Maß stresst ist nur der erste Grund. Ich kenne das Grummeln der Festplatten, aber was da abgeht ist indiskutabel. Im Office-Bereich gibt es anscheinend so viele kleine Dateien die HyperBackup überfordern. Der andere Grund ist, dass nach 12 Stunden nur 3% der 6,5TB Daten gesichert sind. Das geht gar nicht. rsync hat in dieser Zeit mehr als 50% der 6,5TB gesichert. Und bei rsync wird koninuierlich geschrieben, sodass man den Schreibkopf kaum hört. Details sind oben mehrfach beschrieben, daher fasse ich hier nur zusammen falls jemand den Beitrag nicht verfolgt hat. Ich mag jedenfalls nicht mehr. :D
Für mich ist HyperBackup ein Festplattenkiller mit unzureichender Performance. Und selbst wenn sich die HDD durch eine Sicherung gequält hat und daher nur mehr Änderungen geschrieben werden, dann geht alles wieder von vorne los, wenn die Daten reorganisiert werden und ein Ordner umbenannt wird. Natürlich soll dann wieder gesichert werden, sodass ein 1:1 Abbild auf der Sicherungsplatte liegt. Aber nicht zu den Bedingungen die in Post #10 geschildert sind.

Ich schreibe mir ein rsync Script mit einer einigermaßen bequemen Funktionalität.
 
Du weißt das Hyperbackup auch rsync benutzen kann ?
 
  • Like
Reaktionen: dil88
Das Problem bei HyperBackup ist ja der OverHead der zu Problemen beim Kopieren vieler Kleinstdateien führt, nicht der reine Kopierbefehl.
Aber ich würde es gerne versuchen. Was meinst du damit, dass man damit auch rsync benutzen kann?
Wird das nicht sowieso benutzt? Kannst du dazu mehr sagen?
 
Du kannst ja beim Erstellen eines Backupjobs als Ziel ein RSync-Server (Synology oder andere) auswählen, ob es bei deinem Problem hilft weis ich nicht, ist aber sicherlich ein Versuch wert bevor du selber versuchst mit einem eigenen Script, da du ja auch sicherlich die ganzen Datenbanken,Apps usw. mit sichern willst.
Übrigens kannst du auch mal bei @Tommes vorbeischauen, der hat da schonmal was vorbereitet.
 
  • Like
Reaktionen: dil88
... und ihn das hier bereits unter die Nase gerieben :sneaky:
 
  • Like
Reaktionen: Rotbart

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat