Hyper Backup HyperBackup-Auftrag wird nicht fertig und blockiert so alle anderen Aufträge.

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

schmueller

Benutzer
Registriert
03. Aug. 2016
Beiträge
3
Reaktionspunkte
0
Punkte
1
Hallo, ich habe in Hyper Backup verschiedene Backup-Jobs eingerichtet, die als Ziel Amazon S3, eine lokale USB Platte und ein entferntes NAS über rsync haben.
Das ist auch bisher gut gelaufen, aber in den letzten Tagen ist das Backup über rsync auf ein remote NAS irgendwie hängen geblieben, also einfach nicht fertig geworden. Das hat dazu geführt, dass die anderen Jobs auch nicht ausgeführt wurden, da anscheinend immer nur ein Job zu einem Zeitpunkt laufen kann.
Diese Situation ist natürlich nicht gut. Gibt es eine Möglichkeit einen Timeout für ein Backup zu definieren, nach dem der Job als gescheitert abgebrochen wird?
Ich möchte ja nicht täglich auf dem NAS gucken müssen ob die Backups gelaufen sind. Dafür werden ja eigentlich entsprechende Statusmails gesendet. Leider fällt es aber nicht so schnell auf, wenn keine Mail gesendet wird, weil der Job weder fertig wird noch erkannt wird, dass er nicht weiter läuft.
Habt Ihr eine Idee dazu?

Vielen Dank
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat