Hyper Backup Hyper Backup unerträglich langsam

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Mit einem rsync-Backup auf USB3 oder eSATA ist eine 212+ m.E. aber auch CPU-limitiert. Die DB gefällt mir auch nicht, aber Synology hat immerhin den HyperBackup Explorer für Windows, Mac OSX und Linux herausgebracht. Man braucht also nicht unbedingt DSM.
 

glodecki

Benutzer
Mitglied seit
27. Apr 2012
Beiträge
117
Punkte für Reaktionen
0
Punkte
16
ja,stimmt.Da hast du recht...

Was denkst du von einer neuen/größeren Synology mit mehr Prozessorleistung? Quad Core Prozessor. Die 916+ z.b. Ich werde den Gedanken nicht los mir diese anzuschaffen... alleine was die Leistungswerte angehen (und bitte nicht wieder die Frage stellen wie: Bist du denn eine Firma mit vielen Leistungsabfragen ect)
Ich kaufe mir ja kein Ferarri weil ich NUR schnell fahren will... Ich will die Leistung haben WENN ich Sie brauche. Meine Frage stellt sich nur,ob die 916+ so viel schneller ist. Das ist natürlich auch ne Preisfrage. ca. 600€ zu zahlen umm dann endtäuscht zu werden wäre echt schade.
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Eine CPU-Limitierung beim Backup hast Du mit der 916+ jedenfalls nicht mehr. Bei anderen Anwendungen kann es sein, dass Du keinen Unterscheid merkst oder auch einen dramatischen - beispielsweise bei allem, was eine FPU braucht wie z.B. die Thumbnailsgenerierung. Die 212+ hat nämlich keine FPU.
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Wenn Du nicht auf Versionierung angewiesen bist, würde Dir empfehlen, es im Datensicherungsassistenten mit einer "Lokalen Datenkopie" zu probieren.

Ich möchte einen filebasierten Sicherungsjob erstellen und suche mich im Hyper Backup jetzt schon eine ganze Weile dumm und dämlich nach dieser Option. Bräuchte wohl mal einen Tipp, danke!


Verglichen mit neu erstellten Datensicherungsaufgaben gingen die unter DSM 5 erstellten und nach Hyper Backup übernommenen filebasierten Backup-Jobs ja noch relativ flott, so dass ich hauptsächlich diese genutzt habe. Nun habe ich den folgenschweren Fehler begangen und einen nicht benötigten Ordner deselektiert. Daraufhin sagte mir Hyper Backup "Noch keine Sicherung" und behandelt es wie eine komplett neue Aufgabe. Hochgerechnet wird diese mindestens eine Woche benötigen. Den Haken wieder zu setzen ändert gar nichts - man sollte sich das also verdammt gut überlegen. Das Ziel Zeit zu sparen ging hier voll nach hinten los. Darum auch die Frage nach der lokalen Kopie.
 
Zuletzt bearbeitet:

Joaquim

Benutzer
Mitglied seit
27. Mai 2016
Beiträge
418
Punkte für Reaktionen
2
Punkte
18
Morgen :)

Die "Lokale Datenkopie", zur Erstellung eines filebasierenden Sicherungsjob, findest du (wie auch die Versionierung) unter ...
"Datensicherungsaufgabe/Datensicherungs-Assistent/Datensicherungsziel".

Musst nur ganz nach unten scrollen.

HyperBackup_LokalerDatenkopie.JPG
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Hi Joaquim,

stehe immer noch auf dem Schlauch :). Bei mir sieht es runtergescrollt nämlich so aus:

lokale kopie.png

DSM ist aktuell. Was mache ich falsch?



(Ganz oben gibt es noch die Option "Lokaler freigegebener Ordner und externer Speicher", aber da kommt ja wie gesagt kein filebasierter Sicherungsjob bei raus.)
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Ist das Hyper Backup Paket auch aktuell?
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Verdammt, das war's! Hätte wahrscheinlich noch Tage gebraucht, um auf den naheliegendsten aller Gedanken zu kommen! :) Danke!

Hab gleich eine Reihe von selektiven Jobs angelegt, und ein bisschen fixer scheints ja insgesamt zu gehen, ohne das jetzt gemessen zu haben. Eine alles andere blockierende Komplettsicherung tu ich mir fürs Erste nicht an.
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Bräuchte nochmal Rat. Ich kann aktuell keine Sicherungen auf die angeschlossene USB-Platte mehr durchführen, weil diese randvoll ist. Nur kann ich mir das nicht erklären, denn auf der Synology sind lediglich 1,9 TB von insgesamt 4 belegt. Die USB-Platte hat die gleiche Kapazität.

Ins Schleudern gekommen mit meinen Sicherungen bin ich, seitdem ich bei meinem (noch aus Zeiten vor Hyper Backup stammenden) Komplettsicherungsjob ein Häkchen enfernt hatte. Woraufhin Hyper Backup das als komplett neue Sicherungsaufgabe definierte ("bisher wurden keine Sicherungen durchgeführt") und nicht mehr inkrementell sicherte. Was wie gesagt locker eine Woche gekostet und zusätzlich zur bisherigen Sicherung dann auch tatsächlich den vorhandenen Platz gesprengt hätte.

Anstelle einer neuen Komplettsicherung habe ich daher erstmal mehrere kleine Sicherungsjobs angelegt. Immer wenn einer davon fertig war, habe ich den entsprechenden Ordner aus der bisherigen Komplettsicherung gelöscht, womit nach meiner Logik ja eigentlich genügend Kapazität hätte vorhanden sein müssen. Stattdessen ist die Platte jetzt aber voll und nichts geht mehr. Etliche Sicherungen lassen sich nicht mehr auf den aktuellen Stand bringen, was mich angesichts der Unersetzbarkeit vieler Daten doch zunehmend nervös macht. Wenn ich mir die Ordner auf der USB-Platte anschaue, gibt es dort aber nichts Doppeltes, was sich noch entfernen ließe. Kurzum, ich verstehe nicht, woher die 3,6 TB auf der USB-Platte kommen.

Das alte Backup komplett zu löschen traue ich mich jedenfalls nicht, bevor die Sachen alle neu gesichert sind. Auch möchte ich den Rechner nicht wieder tagelang laufen lassen müssen, bis die kompletten 2 TB rübergeschaufelt sind. Zumal sich momentan ständig was ändert an meinen Daten und ich eigentlich täglich neu sichern müsste.

Seit Hyper Backup wächst mir das vorher so unkomplizierte Sichern jedenfalls etwas übern Kopf und hat mich schon verdammt viel Zeit und Nerven gekostet. Dabei glaubte ich, mit der Option "Lokale Datenkopie" sei jetzt endlich alles wieder easy.

Hoffe jedenfalls, jemand hat einen Tipp für mich, wie sich das (zumindest mir nicht erklärbare) Kapazitätsproblem lösen lässt.
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Schau Dir die externe Platte mit einer Shell und dem Kommando du (disk usage) an, dann solltest Du klären können, wo der Platz verbraten wird. Ich würde an Deiner Stelle die Lebenszeit sparen und entweder eine zweite Backupplatte kaufen oder diese hier direkt löschen und neu bespielen.
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Danke. Lebenszeit, du sagst es. Hab ich meiner Disc Station schon genug geschenkt zuletzt.

Werde deinen Rat befolgen und die Platte komplett löschen und neu bespielen. Vor dem Löschen der Sicherung allerdings erstmal alles auf eine externe kopieren, sonst ist mir das zu riskant. Auch wenn das nochmal zusätzlich Lebenszeit kostet.

Aus Interesse, um ähnliche Probleme für die Zukunft zu vermeiden: Könnte es sein, dass Platz, der durch händisches Löschen einzelner Backup-Ordner (über den Windows Explorer) physisch nicht freigegeben wurde und es deshalb eng wurde?
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Hab noch zwei grundsätzliche Fragen, um weiteren Schlamassel zu vermeiden. ;)

Hab nun begonnen, auf eine andere Platte zu sichern (lokale Datenkopie). Als der Job bei 76% war, wurde die USB-Maus plötzlich nicht mehr erkannt und ein Neustart des Rechners notwendig. (Genau deshalb lege ich keine Komplettsicherungen mehr an, sondern splitte sie in kleine Jobs.) Nach dem Neustart beginnt der ganze Blues also von vorne. Obwohl mehr als die Hälfte der Daten schon geschrieben sind, geht es nur unwesentlich schneller. Braucht der Abgleich so lange oder werden die tatsächlich nochmal überschrieben? Gibt es irgendeine Methode, einen Sicherungsjob anzuhalten und später genau an dieser Stelle fortzusetzen?

Und dann nochmal hinsichtlich meiner ungeahnten Kapazitätsengpässe (s.o.): Reicht im Normalfall reicht ein Größenverhältnis von 1:1 zwischen zu sicherndem Medium und Sicherungsziel aus, oder ist es sinnvoll, für Zweiteres mehr Platz einzukalkulieren?
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Wie sieht denn Deine CPU-Last aus auf der DS? Welches Modell nutzt Du? Der Abgleich kann durchaus dauern. Hängt primär von der Power Deiner DS ab und von der Anzahl der Dateien.

Wenn Du kein versioniertes Backup machst und Dateien, die an der Quelle gelöscht wurden, auch im Backup entfernst, dann belegt das Backup genausoviel Platz wie die Quelle.
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Wenn Du kein versioniertes Backup machst und Dateien, die an der Quelle gelöscht wurden, auch im Backup entfernst, dann belegt das Backup genausoviel Platz wie die Quelle.

Umso erstaunlicher dann die 3,7 TB auf der anderen Platte (so groß ist die Partition 1), obwohl ich alle doppelten Backups am Ziel gelöscht habe (teilweise über den Windows Explorer, aber das dürfte ja keine Rolle spielen.) Theoretisch hätten da sogar weniger als die 1,9 TB der Quelle drauf sein müssen.

Wie sieht denn Deine CPU-Last aus auf der DS? Welches Modell nutzt Du? Der Abgleich kann durchaus dauern. Hängt primär von der Power Deiner DS ab und von der Anzahl der Dateien.

Benutze die DS115j, CPU Auslastung schwankt aktuell zwischen 70% und 88%, Arbeitsspeicher 42%.
 
Zuletzt bearbeitet:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Da ist die 115j am Anschlag. Ansonsten wie gesagt: Mit dem Kommando du bekommst Du auf der Shell relativ einfach heraus, woran es liegt.
 

take the cake

Benutzer
Mitglied seit
13. Mrz 2015
Beiträge
15
Punkte für Reaktionen
0
Punkte
1
Ok, dann hab ich wohl tatsächlich die falsche DS gekauft, um halbwegs komfortabel und entspannt damit arbeiten zu können. Hab die potenziellen Stolpersteine insgesamt ein bisschen unterschätzt.

Den Tipp hinsichtlich Disk Usage werd ich dann bei Gelegenheit auch nochmal ausprobieren, scheint ja nicht sonderlich kompliziert zu sein und macht mich schon neugierig, wo der ganze Platz hin ist. Aber erstmal alles auf die neue Platte sichern. Ächz. Dank dir jedenfalls!
 
Zuletzt bearbeitet:

AngusMac

Benutzer
Mitglied seit
12. Aug 2014
Beiträge
211
Punkte für Reaktionen
0
Punkte
16
Als ebenfalls Leidgeplagter muss ich mich hier auch mal einklinken.

Zunächst plädiere ich für eine Umbenennung von Hyper Backup in Hypo Backup.
Jedenfalls was die Performance angeht.
Meine DS rödelt seit 8 Stunden für 1,1 TB und ist gerade mal bei 25%, wobei die Geschwindigkeit schon seit geraumer Zeit zwischen 0,00 und 100 kB/s schwankt.
Ziel des Backups ist ebenfalls eine USB 3.0 HDD, direkt angeschlossen.

Auffällig ist, dass die CPU mit 12% quasi nichts zu tun, die DS aber dennoch zum Öffnen des Ressourcen Monitors weit über 1 Minute braucht.
RAM ist zu 75% belegt und das Volume (RAID-1) langweilt sich mit 0,3MB/S lesend und 4MB/s schreibend im Prinzip auch noch.

Die Prinzipiell würde mich die Dauer des Backups nicht stören (außer das man nach Beendigung gleich ein neues anstoßen sollte, damit es halbwegs aktuell bleibt ^^), allerdings wird die gesamte DS davon in Mitleidenschaft gezogen.

Was kann denn da noch die Bremse sein?

btw: Ticket ist bereits raus.
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Gibts eventuell Pakete, die Du nicht brauchst und deaktivieren bzw. deinstallieren könntest, um RAM freizuschaufeln? SMART-Rohdaten der beteiligten Platten hast Du überprüft?
 

glodecki

Benutzer
Mitglied seit
27. Apr 2012
Beiträge
117
Punkte für Reaktionen
0
Punkte
16
Hallo,

sorry das ich hier jetzt so reingretsche... Hab bisschen gelesen
--> Zur Lokalen Datenkopie:
D.h. ja das man auf der Synology über freigegebenen Ordner eine Sicherung macht. Welchen vorteil soll das denn haben? Die Daten sind doch alle weg wenn die Festplatten mal abschmieren (Raid 1 z.b.) bzw. die Syno entwendet wird.

Welches Backup, abgesehen von Hyper Backup kann die Daten über externe festplatte so sichern ohne das man ein Program (Hyper BAckup) auf Windows nutzen muss. Also Backup Dateien werden ins Filesystem geschrieben damit WIndows direkt damit was anfangen kann.
Muss ich da dann zwingend BTRFS Formatieren? Erkennt WIndows BTRFS als externe Festplatte überhaupt?

LG und danke
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.897
Punkte für Reaktionen
1.177
Punkte
754
Das tut genau die "Lokale Datenkopie". Sie schreibt die Daten auf den gemeinsamen Ordnern ins Filesystem der externen Platte. Wenn die NTFS formatiert ist, kann man sie ohne jegliche Zusatzsoftware unter Windows auslesen.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat