USB Copy Gibt es eine Backup Anwendung für diese speziellen Anforderungen?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

statue_1997

Benutzer
Registriert
09. Juni 2025
Beiträge
11
Reaktionspunkte
1
Punkte
3
Hallo an die Community

ich suche eine Backup Anwenderung, mit der ich automatisiert folgende Backup Strategie auf meinen 1821+ ausführen kann:

- Ich will einen neuen leeren Speicherpool aus 2 Festplatten erstellen mit einen leeren Volumen ( Volumen ist größer als die gesammtkapazität aller anderen Volumen ;) ) .
- Auf diesen Pool will ich in gewissen Zeitabständen ein Backup bzw Kopie aller Daten von den anderen Speicherpools im NAS speichern.
- Die Daten sollen allerdings als reine Daten vorliegen, nicht als Backup Containen, sprich die sollen nur automatisiert kopiert werden.
- Nach dem initialen Sicherungsvorgang sollen dann bei jeden Sicherungsvorgang natürlich auch dann nur die Daten überschrieben werden, die sich seit dem letzten Sicherungslauf geändert haben.

Ich habe hier im Forum und auch schon im Synologie Paketzentrum gesucht, aber ich habe weder ein Thema gefunden, welches so einen UseCase konkret wiederspiegelt noch hab ich in den Paketen etwas gefunden, wo solch eine Funktionalität beschreiben wird.

Daher die Frage an euch, ob ihr eine entsprechende App kennt,

Was ich nicht möchte:

- Anleitung für Raid1 (ich möchte keine sofortige Syncnisierung!)
- Scripte / Befehle, die per Telnet / ssh eingerichtet werden. (ich bin zu vergesslich um das immer zu kontollieren, außerdem fallen Probleme gerade bei so einen System dann nur sehr schwer auf, wenn man nur über die Oberfläche geht etc.)

Ich hoffe ihr könnt mir hier weiterhelfen.

Vielen Dank schon einmal im Voraus
 
Deine Anforderungen stellen einen gewissen Widerspruch dar: Inkrementelles Backup setzt eine Datenbank voraus, die das steuert. Du willst aber die nackten Daten.

Am dichtesten dran von den nativen Tools wäre HyperBackup auf Dateiebene.

Allgemeine Anmerkung: Aus meiner Sicht handelt es sich bei deinem Vorhaben nicht um ein vollgültiges Backup.

Egal was mit dem Arbeitsvolume deiner DS schief geht - es nimmt ziemlich sicher dein Backup gleich mit. Die Risikostreuung, die ein Backup eigentlich bewirken soll wird damit verfehlt.
 
Deine Anforderungen stellen einen gewissen Widerspruch dar: Inkrementelles Backup setzt eine Datenbank voraus, die das steuert. Du willst aber die nackten Daten.

Halt, hier missverstehst du mich.

ich möchte nur, das wenn Daten sich auf den Orginal ändern, die dann während des Backup Task auf den "Backup" Speicherpool geschrieben werden und die dort vorhandene Datei ersetzen. Ich will nicht dann die vorhergehende Version wiederherstellen können wie es bei einen inkrementellen Backup der Fall wäre. Sprich keine Versionierung.

Quasi wie unter Windows mit dem Archiv Bit. Wenn das gesetzt ist, wurde die Datei seit der lezten Sicherung verändert und wird wieder mit in das Backup aufgenommen.

Egal was mit dem Arbeitsvolume deiner DS schief geht - es nimmt ziemlich sicher dein Backup gleich mit. Die Risikostreuung, die ein Backup eigentlich bewirken soll wird damit verfehlt.

Das ist nicht so problematisch, ich will nur dem FS / HDD Ausfall etwas entgegenwirklen. Wenn die ganze DS Hops geht, habe ich wenn dann noch ein Offline Backup, welches ich jeden Monat mache.
Ich möchte aber eben noch ein Hotbackup haben, auf welches ich ohne die Apps zugreifen kann und um quasi auszuschließen, das eine Container Corruption das gesammte Archiv killt.
 
Zuletzt bearbeitet:
Das will der TE nicht 🤷‍♂️
Halt, hier missverstehst du mich.
wenn Daten sich auf den Orginal ändern, die dann während des Backup Task auf den "Backup" Speicherpool geschrieben werden und die dort vorhandene Datei ersetzen.
Dann nimm halt HB und stell die Anzahl der Versionen auf 1. Dann sollte das an sich gehen.
 
Wieso dann nicht einfach raid1, was dafür doch da ist?

ich möchte nicht, das das instant passiert, da selbst kleine Fehler sofort dann auch auf die andere Platte geschrieben werden würden. Es soll quasi ein Hotbackup werden, bei dem man auch die verhergehende Version wiederherstellen kann, solange kein neuer Backupzyklus durchgelaufen ist.

Unter Windows kann man sowas mit Ascomp Synchredible wirklich nice einrichten. In der absoluten Not könnte ich mein Vorhaben auch damit lösen. Aber nur wenn es wirklich nicht anders geht. Denn ich will diesen Backup Speicherpool eigentlich nicht im Netzwerk public machen.

Dann nimm halt HB und stell die Anzahl der Versionen auf 1

Das würde dennoch alles in einer Container Dateien enden oder? Das soll eben nicht so sein. Denn ich kenne Container Corruption ... da brauch nur ein byte quer liegen und nicht mehr korrigierbar sein und schon ist das gesammte Backup hin.
Ich möchte die Daten unkomprimiert und nicht in Containern in den Speicherpool haben,
 
Könnte vielleicht mit Drive Backup funktionieren.
Meiner Meinung nach auch mit HyperBackup und Einzelversionssicherung , läuft inkrementell und Klartext Dateien.
 
Das geht mit HB Einzelversion, siehe Screenshots.
 

Anhänge

  • hb_local_00.png
    hb_local_00.png
    153,5 KB · Aufrufe: 16
  • hb_local_01-1.png
    hb_local_01-1.png
    194,6 KB · Aufrufe: 14
  • hb_local_02.png
    hb_local_02.png
    153,5 KB · Aufrufe: 13
  • hb_local_03.png
    hb_local_03.png
    130,4 KB · Aufrufe: 14
  • hb_local_04.png
    hb_local_04.png
    47,6 KB · Aufrufe: 14
  • hb_local_05.png
    hb_local_05.png
    286,3 KB · Aufrufe: 16
  • hb_local_06.png
    hb_local_06.png
    103,4 KB · Aufrufe: 15
  • hb_local_07.png
    hb_local_07.png
    143,8 KB · Aufrufe: 15
  • hb_local_08.png
    hb_local_08.png
    90,6 KB · Aufrufe: 16
Und ich habe es gerade getestet, das sichert auch inkrementell. Ich habe einen neuen Ordner in der Backup-Quelle erstellt und die Sicherung erneut ausgeführt, war innerhalb von ein paar Sekunden erledigt.
 
  • Like
Reaktionen: statue_1997
kannst du das mal bitte verlinken, denn im Paket Zentrum der 1821+ finde ich das Paket nicht
Das ganze ist in Synology Drive integriert, im Nachhinein ich habe da auch nicht weit genug gedacht. Intern würde es eh nicht funktionieren da es hierfür keinen Client gibt.

Ich persönlich würde mich von Haus aus für Hyperbackup Einzelversions Backup entscheiden. Hierzu haben ja in der Zwischenzeit die anderen Forumskollegen schon einiges Beigetragen.

Habe das zuvor vermutlich nicht ganz so zum Ausdruck gebracht, da ich beides in den Raum werfen wollte.
 
Container Corruption ....

Also erst mal unterliegen die Dateien auf dem Originalverzeichnis keiner "Container"-Corruption, weil sie sich in keinem Container befinden. Du hast hoffentlich BTRFS benutzt, als das Volume eingerichtet wurde. Lass regelmäßig die Datenbereinigung ausführen, dann werden gekippte Bits zurückgesetzt. Dateifehler, die erkannt werden, aber nicht korrigiert werden können (2 bits gekippt), werden ausgewiesen.

Wenn du dann noch ein RAID verwendest (tust du doch, oder läuft das als JBOD ?) gibt es zu einer defekten immer auch noch eine korrekte Version. Die wird verwendet, wenn BTRFS den Fehler alleine nur erkennen, aber nicht korrigieren kann.

Wenn du dann noch ECC-RAM einsetzt, sind die Daten auch während ihrer Verarbeitung gegen Speicherfehler geschützt.

Also was soll die Panik ? Ist dein "Persönlicher Plan zur Weltdominanz" so ein Sensibelchen, dass eine einzige kaputte Datei ihn zum Scheitern bringt ? Dann ist wie du korrekt beschreibst ein ordentliches Backup das Mittel der Wahl. Wenn ordentlich aufgesetzt greifen ähnlich Mechanismen wie zuvor beschrieben. Mir ist aus den ganzen von mir gelesenen Forumposts (und das ist ein Haufen) kein Fall von "Container Corruption" bekannt. Kommt vielleicht vor, ist aber wohl ein flüchtiges Reh und kein Elefant im Backupladen.

Die Duplikation des Datenbestands auf ein zweites Volume, das noch dazu in der gleichen Kiste steckt wie die Originaldaten, ist jedenfalls ein ungeeignetes Mittel, und ein unsinniges obendrein.
 
Und ich habe es gerade getestet, das sichert auch inkrementell. Ich habe einen neuen Ordner in der Backup-Quelle erstellt und die Sicherung erneut ausgeführt, war innerhalb von ein paar Sekunden erledigt.

so Backups gemacht und arbeitet fein, genauso wie ich das wollte, danke dir!


Container Corruption ....
....

Mir ist aus den ganzen von mir gelesenen Forumposts (und das ist ein Haufen) kein Fall von "Container Corruption" bekannt. Kommt vielleicht vor, ist aber wohl ein flüchtiges Reh und kein Elefant im Backupladen.

so um dir das nochmal nahe zu bringen: mit Container Corruption meine ich das wenn in Archiv Containern, so die Dateien gespeichert sind, die Daten sehr schnell komplett verloren gehen können, wenn irgendwas an einer entscheidenden Stelle ein Fehler entstanden ist und oder das Backup Programm im Recovery Modus einfach abbricht, weil es nicht mit Fehlern im Archiv umgehen kann.
Hab ich schon gehabt, hat einiges an Datenverlust mit sich gebracht!
Also sichere ich lieber die Daten nicht in Archiven, sondern unkomprimiert in Reinform, so das ein Fehler maximal eine Datei zerstören kann. Das einzige was ich als Archiv sichere, ist meine System und ProgrammSSD. da dort eine Wiederherstellung auf Dateiebene auch wegen Dateisystemberechtigungen und Symlinks nicht anders möglich ist.

Ja BTRFS ist aktiv, aber auch kein Allheilmittel.

Und nur weil man wenig davon ließt, kommt es vor. Wie gesagt, ich habe es schon gehabt, brauch es nicht nochmal und sichere deshalb auf diese Art und Weise.


Wenn du dann noch ein RAID verwendest (tust du doch, oder läuft das als JBOD ?) gibt es zu einer defekten immer auch noch eine korrekte Version.

Wie gesagt, ich WILL kein Raid! Wie oben erwähnt ich möchte keine "Anleitung für Raid1 (ich möchte keine sofortige Syncnisierung!)" und "ich möchte nicht, das das instant passiert, da selbst kleine Fehler sofort dann auch auf die andere Platte geschrieben werden würden. Es soll quasi ein Hotbackup werden, bei dem man auch die verhergehende Version wiederherstellen kann, solange kein neuer Backupzyklus durchgelaufen ist."

Also was soll die Panik ? Ist dein "Persönlicher Plan zur Weltdominanz" so ein Sensibelchen, dass eine einzige kaputte Datei ihn zum Scheitern bringt ?


wenn die eine Kaputte Datei die Archiv Datei ist, aus der man im Recovery Fall wiederherstellen will, ist Panik angesagt!
Das hat nichts mit Sensibelchen zu tun sondern mit ggf. eklatanten Datenverlusten,


Die Duplikation des Datenbestands auf ein zweites Volume, das noch dazu in der gleichen Kiste steckt wie die Originaldaten, ist jedenfalls ein ungeeignetes Mittel, und ein unsinniges obendrein.

Als Hotbackup, welches nicht permanent aktualisiert wird, nicht. Einzig wenn beide Volumen quasi gleichzeitig die Hufe hochmachen oder ein Virus auf das NAS kommen und alles wipen würde, hätte man ein Problem. Das Sicherungsvolumen ist nämlich nicht vom Netzwerk aus erreichbar.

Und natürlich habe ich die Daten nochmal als Cold Backup auf 2 getrennten externen Festplatten, die monatlich aktualisiert werden.
 
  • Like
Reaktionen: ctrlaltdelete
Was ich nicht verstehe: Du suchst ein Backupprogramm, legst dich aber im Thementitel per Präfix auf USB-Copy fest. Was soll dieser Unsinn?
 
Archiv Containern, so die Dateien gespeichert sind, die Daten sehr schnell komplett verloren gehen können,
das sind irgendwelche Urban Legends, hier wird doch ein richtiges Backup empfohlen und keine 7zip besprochen. Da können Bits kippen, das macht gar nichts.
 
, legst dich aber im Thementitel per Präfix auf USB-Copy fest.

man MUSS leider einen Präfix wählen - wenn man keinen Präfix wählt, kommt eine Fehlermeldung beim Erstellen und der hat einen das Thema nicht erstellen lassen.
Und HyperBackup sah für mich in der Beschreibung etc nicht so aus, als könnte das meine Anforderung erfüllen, das ohne Containerdateien zu sichern.

das sind irgendwelche Urban Legends, hier wird doch ein richtiges Backup empfohlen und keine 7zip besprochen.

... selbst erlebt, Recovery wurde bei 20 % mit einen Fehler "Archiv beschädigt, Recovery wird abgebrochen" abgebrochen.

7zip fängt das wenigstens ab und entpackt zumindest den Rest.

Da können Bits kippen, das macht gar nichts.

... ich wünsche nicht, das es dir passiert, aber ggf. wäre es lehrreich. Wie gesagt, es gibt einige Programme, die sich daran stören und eben die Fehler NICHT einfach übergehen.
 
das passiert immer wieder, kenn das, aber wir reden hier über Hyperbackup, das ist ein richtiges Backup aus der heutigen Zeit. Man kann natürlich auch automatisch testen ob da Fehler drin sind, das stellt man normalerweise ein wenn die Tasks erstellt werden. Archiv ist aber was ganz anderes.
 
Man kann natürlich auch automatisch testen ob da Fehler drin sind,

ja eine feine Funktion, ich weiß nicht ob die damals aktiv war. Dennoch, wenn nach der Prüfung etwas passiert, hilft die auch nicht.


das passiert immer wieder, kenn das,

dann sag nicht das das Urban Legends sind!

aber wir reden hier über Hyperbackup, das ist ein richtiges Backup aus der heutigen Zeit.

ich kenn / kannte das Programm nicht, ich kenn auch die Programmierer nicht wie die testen etc. und wie das Programm sich in einen echten Problemfall verhält (z.b. zerstörten Header oder grober Fehler innerhalb des Containers) Daher ist mein Ansatz immer lieber save than sorry und die Daten ohne Container und unkomprimiert sichern, so das im Zweifel auch ohne das Programm eine Datenrücksicherung erfolgen kann.
 

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat