Remote data copy langsam

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

Tattoofreak

Benutzer
Registriert
04. Okt. 2014
Beiträge
61
Reaktionspunkte
5
Punkte
8
Hallo Synology-Community

Ich bin im Besitz einer DS2413+ und einer DS2415+. Von der DS2415+ sichere ich meine Daten via Hyper Backup/Remote data copy auf die DS2413+.
Das sind lauter sehr grosse Dateien, so zwischen 20GB und 40GB pro File. Leider schaffe ich einfach keinen höheren Datendurchsatz als 40MB/s im Schnitt.
Ich habe testhalber mal von einem NAS auf das andere via SMB Daten transferiert und da geht das im Schnitt mit 100MB/s.
Mir ist klar, dass ein Backup-Job sicher mehr Prozessorleistung benötigt als ein einfaches Kopieren, aber diesen Unterschied finde ich schon ein wenig krass, da beim Backup-Job keine Komprimierung der Daten stattfindet.
Gibt es eine Möglichkeit, dies zu optimieren? Z.B. indem man gewisse "unnötige" Funktionen des Backup-Jobs deaktivieren kann? Vielleicht durch Ändern eines Parameters in einem File via Kommandozeile wo die Backup-Jobs hinterlegt sind? Hat da jemand Erfahrung damit?
 
Nein, mit den Standardmethoden ist das m.E. der zu erwartende Durchsatz. Normalerweise ist das nicht so ein großes Problem, weil nur neue und geänderte Daten gesichert werden. Wenn das bei Dir viel ist, könntest Du es mit einem Verfahren versuchen, dass die Änderungen nicht auf Datei- sondern auf Blockbasis sichert (z.B. das Standard Hyper Backup, das in eine Datenbank schreibt). Wenn immer fast alles geändert wird, dann vielleicht ein Shellskript schreiben und ftp nutzen.
 
Danke für die schnelle Antwort. Das habe ich befürchtet. Ja, ich wollte eigentlich das Standard Hyper Backup benutzen, jedoch habe ich ausschliesslich beim "Remote Data Copy"-Verfahren eine Möglichkeit gefunden, die ACL-Berechtigungen für die Sicherung zu deaktivieren, sprich: ACL-Metadaten sollen nicht mitgesichert werden. Ich möchte nämlich verhinden, dass bei Ändern der Zugriffsberechtigungen alle Files neu gesichert werden. In meinem Fall bedeutet das nämlich oftmals ein erneutes Sichern mit einem Zeitfaktor von mehreren Tagen.
Soviel ich weiss, kann ich die ACL-Sicherung -zumindest via GUI- beim Standardverfahren nicht deaktivieren.
 
Die Frage ist, ob eine Datei bei der Änderung ihrer Rechte unter Hyper Backup tatsächlich wieder kopiert wird. Hast Du das einmal ausprobiert? Es würde ja reichen, die Metadaten zu aktualisieren, beim Blockcheck dürften keinen Änderungen gefunden werden ...
 
Leider wird die ganze Datei neu gesichert. Zumindest bei meinen Einstellungen. Ich habe keinen Umweg gefunden.

Edit: Habe mal den Synology-Support angeschrieben. Vielleicht haben die einen Geheimtipp. Ich melde mich, sobald ich mehr weiss.

Edit 2: Der Synology-Support meint, dass es mit "Remote Data Copy" nicht schneller geht als meine 40MB/s und ich bei "Remote Synology NAS" keine ACLs ausschliessen kann. Ein entsprechender Feature-Request für Letzteres wurde erstellt.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat