Hyper Backup Hyper Backup funktioniert nicht mehr

Status
Für weitere Antworten geschlossen.

gaulo23

Benutzer
Mitglied seit
30. Mai 2013
Beiträge
978
Punkte für Reaktionen
0
Punkte
36
Ich habe folgendes Problem. Seit ein paar Tagen kommt wenn meine DS ein Backup machen soll immer folgende Fehlermeldung. Network Backup - Server_DS415play failed on Server weiß einer was das sein kann. Meiner Meinung nach, ist alles richtig eingestellt. Meine DS soll ein Backup auf einer anderen DS machen die an einem anderen Standort steht. Hat bis vor ein paar Tagen alles super geklappt.
 

Sunfan

Benutzer
Mitglied seit
14. Jul 2016
Beiträge
2
Punkte für Reaktionen
0
Punkte
1
Hallo,

ich habe das selbe Problem auf zwei Diskstations seit ich vor ein paar Tagen Hyper Backup aktualisiert habe. Hyper Backup hat nun ein paar neue Funktionen - aber das Sichern auf entfernte Diskstations (Hyper Backup Vault) geht ncht mehr.

Wenn man die Sicherung von Hand startet kommt die Meldung : "Nur der Eigentümer dieser Datensicherungsaufgabe darf die Datensicherung durchführen".

Ich habe den Sicherungsjob als Admin auf der lokalen Diskstation eingerichtet. Bei der Definition der Ziel-Diskstation habe ich die Anmeldedaten eines dort definierten Users (Username: Safeme) verwendet. Das ging wochenlang problemlos - bis zum Update.

Erster Lösungsansatz:
Wenn ich auf der Ziel-Diskstation nachschaue gehört der Job dem User Safeme. Als lokaler Admin darf ich diesen Job nun nicht mehr starten - weil er mir nicht ghört.
Versuchsweise habe ich einen User Safeme mit dem selben Passwort wie der remote User Safeme lokal eingerichtet. Aber auch dieser darf den Sicherungsjob nicht starten.

Zweiter Lösungsansatz:
Ich habe einfach wie bisher nochmals einen neuen Job definert ( lokal als Admin mit den Anmeldedaten des remoten useres auf der Ziel-Diskstation ). Das funktioniert!
Ich kann nun remote wieder sichern.

Richtig unangenehm bei dieser Lösung ist aber, dass ich nun nochmals mehrere Dutzend Gigabyte über das Internet sichern muss - weil der Job ja neu ist - und nicht nur die wenigen Änderungen inkrementell gesichert werden. Das ist bei meiner Uploadgeschwindigkeit trotz DSL16000 ein echtes Zeitproblem. Da ich das an einem Tag nicht schaffe, muss ich die Datensicherungsmenge Tag für Tag ordnerweise erhöhen. Mein Provider verpasst mit nachts immer eine neue öffentliche IP-Adresse - somit kann ich nicht über mehrere Tage hinweg sichern.

Oder ich muss die remote Synology Diskstation wieder abbauen, lokal installieren, die Daten erstmailg über mein GigabyteLan sichern, dies Ziel-Synology wieder abbauen und am entfernten Standort wieder installieren. Das ist eine ganz schön hoher Aufwand für ein von Synology versemmeltes Hyper Backup Update!! Wie oft steht mir/uns das künftig noch bevor???


Haben die Programmierer von Hyper Backup da etwas übersehen?
Oder liegt der Dankfehler bei mir?
Hat jemand eine bessere Lösung?

Herzliche Grüße, Sunfan
 
Zuletzt bearbeitet:

gaulo23

Benutzer
Mitglied seit
30. Mai 2013
Beiträge
978
Punkte für Reaktionen
0
Punkte
36
Ich habe jetzt mal an Synology Support geschrieben. mal schauen was die dazu sagen. Hat sonst keiner das Problem ?
 

Nils_

Benutzer
Mitglied seit
25. Okt 2010
Beiträge
35
Punkte für Reaktionen
1
Punkte
8
Ich hatte ein ähnliches Problem. Daraufhin habe ich auf dem Sicherung-NAS über File-Station den Besitzer des Ordners geändert, in den gesichert wird. Als neuen Besitzer habe ich den Benutzer angegeben, der im Sicherungsjob hinterlegt ist.
 
  • Like
Reaktionen: nome

mr_DH

Benutzer
Mitglied seit
30. Jul 2009
Beiträge
21
Punkte für Reaktionen
0
Punkte
1
Hallo gaulo, ich habe dasselbe Problem. HyperBackup kann das Backup auf die Remote NAS nicht mehr durchführen. Ärgerlich!

Berichte doch bitte, was der Synology-Support zum Problem meint :)

(Hätte ich doch besser ein rsync-Backup eingerichtet :eek:)
 

Zap2Zero

Benutzer
Mitglied seit
18. Jul 2016
Beiträge
3
Punkte für Reaktionen
0
Punkte
0
Mein Backup per rsync auf ein anderes NAS funktioniert seit dem letzten Update auch nicht mehr.

Beim manuellen Wiederholen läuft es zu Anfang ordentlich, transferiert das Delta von ein paar GB seit dem letzten Durchgang bis 99% Fortschritt und dann bricht es mit den lapidaren Meldungen "Failed to backup data" und "Failed to run backup task" ab.
 

Nightlover

Benutzer
Mitglied seit
29. Mrz 2016
Beiträge
529
Punkte für Reaktionen
0
Punkte
0
Hallo Zusammen, bei mir klappte alles bis zur heutigen Sicherung, bekomme diese Meldungen:

HB.jpg

Gruss Night
 

Zap2Zero

Benutzer
Mitglied seit
18. Jul 2016
Beiträge
3
Punkte für Reaktionen
0
Punkte
0
Heute Morgen gabs ein neues Update von Hyper Backup und schon gehts wieder... war also offensichtlich ein Softwarebug. :D
 

semaxx

Benutzer
Mitglied seit
28. Sep 2014
Beiträge
29
Punkte für Reaktionen
0
Punkte
1
Habe dasselbe Problem; Software ist auf dem neuesten Stand und habe nichts an der bisher funktionierenden Einstellung geändert.
 

frogy

Benutzer
Mitglied seit
09. Sep 2009
Beiträge
22
Punkte für Reaktionen
0
Punkte
1
Hallo ich versuche die Daten auf HuBic zu sichern und es bricht sofort am Anfang ab. Ich habe mich an den Support gewanft und sie schauen gerade auf die Diskstation drauf. Ich hatte das CloudBackup auch mla mit Google Drive getestet und dort das gleiche PRoblem gehabt.
 

DanMar

Benutzer
Mitglied seit
22. Apr 2016
Beiträge
3
Punkte für Reaktionen
0
Punkte
1
Gestern gab es ein Update von Hyper Backup (1.2.1-0235). Seit dieses eingespielt wurde, laufen die Backups nicht mehr (DS216+, DSM 6.0.2-8451).
Scheint sich um den gleichen Fehler zu handeln wie bereits im Post #7 in diesem Thema beschrieben. Die Fehlermeldungen im Log sind:
- Failed to run backup task.
- Failed to backup data.
- Exception occured while backing up data. (The backup destination is not ready.)
- Failed to access the backup destination. (The backup destination is not ready.)

Hat noch jemand dieses Problem?
 

frogy

Benutzer
Mitglied seit
09. Sep 2009
Beiträge
22
Punkte für Reaktionen
0
Punkte
1
Hallo

bei mir funktionier das Backup wieder. Der Support hat das Problem gefunden. Es lag an einem Python PAckage das ich manuel eingespielt hab.

Our developer found this is because of no permission under /usr/lib/python2.7/site-packages/protobuf-3.0.0-py2.7.egg/EGG-INFO

root@DiskStationBIG:/usr/lib/python2.7/site-packages/protobuf-3.0.0-py2.7.egg/EGG-INFO# ll
total 36
drwxr-xr-x 2 root root 4096 Aug 29 14:21 .
drwxr-xr-x 4 root root 4096 Aug 29 14:21 ..
-rw-r----- 1 root root 1 Aug 29 14:21 dependency_links.txt
-rw-r----- 1 root root 7 Aug 29 14:21 namespace_packages.txt
-rw-r----- 1 root root 1 Aug 29 14:21 not-zip-safe
-rw-r----- 1 root root 718 Aug 29 14:21 PKG-INFO
-rw-r----- 1 root root 20 Aug 29 14:21 requires.txt
-rw-r----- 1 root root 1839 Aug 29 14:21 SOURCES.txt
-rw-r----- 1 root root 7 Aug 29 14:21 top_level.txt


And this is caused by python protobuf module bug : https://github.com/google/protobuf/issues/737


Do you manual install this python module? /usr/lib/python2.7/site-packages/protobuf-3.0.0-py2.7.egg

Do you have any special concern to this folder permission -rw-r----- ?

Can we manual change the folder permission to 644?
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat