Hallo,
mir sind meine Daten schon seit jeher wichtig und ich schleife auch schon eine ganze Menge Daten seit 199x mit. In den letzten Jahren sind da großen Mengen an privaten Fotos und Full-HD /UHD(4K)-Videos hinzugekommen und so wächst die Datenmenge unaufhörlich. Bisher jongliere ich mit internen Platten und externen Platten herum. Eine DS212+ habe ich auch schon seit ein paar Jahren, die ich hauptsächlich als Backupziel verwende (rsync-Script mit Versionierung). Ein extern lagerndes Backup habe ich auch, so dass ich da soweit ganz gut aufgestellt bin.
Was mir aber schon immer Sorgen macht, dass Daten mit der Zeit theoretisch degenerieren können - Ganz früher auf analogen Medien war das ja normal und hat mich da schon immer gewurmt - Aber auch im digitalen Zeitalter passiert das ja leider.
Um überhaupt etwas über den Zustand meiner Daten zu wissen, mache ich ab und zu mal einen binären Vergleich der Daten. Also z.B. synce ich die Daten von meiner internen Festplatte mit dem Backup. Ist alles identisch, weiß ich zumindest schon mal, dass den Daten nichts passiert ist - zumindest seitdem das Backup erstellt wurde. Bis auf einmal, war bisher auch immer alles identisch. Videoschnittprojekte komprimiere ich am Schluss immer mit WinRar, welches ja auch Prüfsummen erstellt und solange in dem RAR-Archiv keine Fehler sind, weiß ich, dass die Daten intakt sind.
Wenn der binäre Vergleich jedoch fehlschlägt, dann weiß ich nicht, welche Version die intakte ist. Zum Beispiel bei einem Video sieht man ein fehlerhaftes Bit auch nicht. Daher habe ich auch mal damit angefangen, Checksummen ganzer Ordner berechnen zu lassen. Mit Ordnern, wo nur Daten gelagert und nicht verändert werden, ist das kein Problem, aber Verzeichnisse, wo sich ständig Dateien ändern, schon - Den hier müsste man ständig die Checksummen aktualisieren.
Seit Synology BTRFS als Dateisystem eingeführt hat, mit welchem Lesefehler der Festplatte und damit defekte Dateien, aufgedeckt werden, plane ich, meine Daten auf einer Synology mit BTRFS abzulegen. In diesem Zuge sollen auch alle herumschwirrenden Platten damit überflüssig werden. Den ersten Schritt des Plans habe ich diese Woche nun umgesetzt und habe mir eine DS916+ zugelegt, in welche zunächst einmal 2 8TB-Platten als SHR-Raid mit BTRFS kommen.
Nachdem DSM 6.0 Lesefehler schon erkennen kann und DSM 6.1 diese dann auch bereinigen können soll, denke ich, bin ich schon wieder etwas mehr auf der sicheren Seite.
Weiß jemand, ob ich von diesen Vorgängen überhaupt etwas mitbekomme - Werden diese Ereignisse in einem Logfile abgelegt? Wenn die Platte defekte Sektoren usw. hat, sehe ich dies theoretisch in den SMART-Werten - Was ist aber mit den Lesefehlern, die erst durch die BTRFS-Checksummen aufgedeckt werden - Wo werden diese erfasst?
Weiterhin suche ich eine zusätzliche Prüf-/Reperaturmöglichkeit z.B. über PAR2. Setzt jemand so etwas ein? Wenn ja, würde mich das brennend interessieren. Wie sieht da Eurer Workflow aus und welche Tools verwendet ihr?
Grüße!
mir sind meine Daten schon seit jeher wichtig und ich schleife auch schon eine ganze Menge Daten seit 199x mit. In den letzten Jahren sind da großen Mengen an privaten Fotos und Full-HD /UHD(4K)-Videos hinzugekommen und so wächst die Datenmenge unaufhörlich. Bisher jongliere ich mit internen Platten und externen Platten herum. Eine DS212+ habe ich auch schon seit ein paar Jahren, die ich hauptsächlich als Backupziel verwende (rsync-Script mit Versionierung). Ein extern lagerndes Backup habe ich auch, so dass ich da soweit ganz gut aufgestellt bin.
Was mir aber schon immer Sorgen macht, dass Daten mit der Zeit theoretisch degenerieren können - Ganz früher auf analogen Medien war das ja normal und hat mich da schon immer gewurmt - Aber auch im digitalen Zeitalter passiert das ja leider.
Um überhaupt etwas über den Zustand meiner Daten zu wissen, mache ich ab und zu mal einen binären Vergleich der Daten. Also z.B. synce ich die Daten von meiner internen Festplatte mit dem Backup. Ist alles identisch, weiß ich zumindest schon mal, dass den Daten nichts passiert ist - zumindest seitdem das Backup erstellt wurde. Bis auf einmal, war bisher auch immer alles identisch. Videoschnittprojekte komprimiere ich am Schluss immer mit WinRar, welches ja auch Prüfsummen erstellt und solange in dem RAR-Archiv keine Fehler sind, weiß ich, dass die Daten intakt sind.
Wenn der binäre Vergleich jedoch fehlschlägt, dann weiß ich nicht, welche Version die intakte ist. Zum Beispiel bei einem Video sieht man ein fehlerhaftes Bit auch nicht. Daher habe ich auch mal damit angefangen, Checksummen ganzer Ordner berechnen zu lassen. Mit Ordnern, wo nur Daten gelagert und nicht verändert werden, ist das kein Problem, aber Verzeichnisse, wo sich ständig Dateien ändern, schon - Den hier müsste man ständig die Checksummen aktualisieren.
Seit Synology BTRFS als Dateisystem eingeführt hat, mit welchem Lesefehler der Festplatte und damit defekte Dateien, aufgedeckt werden, plane ich, meine Daten auf einer Synology mit BTRFS abzulegen. In diesem Zuge sollen auch alle herumschwirrenden Platten damit überflüssig werden. Den ersten Schritt des Plans habe ich diese Woche nun umgesetzt und habe mir eine DS916+ zugelegt, in welche zunächst einmal 2 8TB-Platten als SHR-Raid mit BTRFS kommen.
Nachdem DSM 6.0 Lesefehler schon erkennen kann und DSM 6.1 diese dann auch bereinigen können soll, denke ich, bin ich schon wieder etwas mehr auf der sicheren Seite.
Weiß jemand, ob ich von diesen Vorgängen überhaupt etwas mitbekomme - Werden diese Ereignisse in einem Logfile abgelegt? Wenn die Platte defekte Sektoren usw. hat, sehe ich dies theoretisch in den SMART-Werten - Was ist aber mit den Lesefehlern, die erst durch die BTRFS-Checksummen aufgedeckt werden - Wo werden diese erfasst?
Weiterhin suche ich eine zusätzliche Prüf-/Reperaturmöglichkeit z.B. über PAR2. Setzt jemand so etwas ein? Wenn ja, würde mich das brennend interessieren. Wie sieht da Eurer Workflow aus und welche Tools verwendet ihr?
Grüße!
Zuletzt bearbeitet: