Backup Strategien und die Umsetzung mit einem NAS

Backup ist ein wichtiges Thema für jeden, der Berührungspunkte mit digitalen Daten hat. Das reicht von der kleinen privaten Fotosammlung bis hin zu wichtigen Datenbeständen von Konzernen. Den wahren Wert der eigenen Daten erkennen viele erst, wenn diese unwiederbringlich verloren sind. Was wäre es ihnen Wert, alte Fotos der Kinder zurück zu bekommen oder welche Kosten würde es verursachen, die verlorene Buchhaltung vom letzten Jahr zu rekonstruieren? Man sollte es niemals so weit kommen lassen und sich im Vorfeld Gedanken machen, wie Datenverlust zu vermeiden ist.

Glücklicherweise kann man mit vergleichsweise geringem Aufwand und einem aktuellen NAS System sehr effektive Backup Strategien umsetzen.

In diesem Artikel beschreiben wir die Anforderungen an eine umfassende Backupstrategie und die Umsetzung mit einem NAS System.

Klassische Backupstrategien​

Klassische Backup Strategien zielen auf Redundanz, Verteilung und Versionierung ab.

Erweiterte Backupstrategien​

Es gibt allerdings einige weitere Aspekte, die neben den oben genannten Kriterien essentiell sind. Diese sind Zugriffsbeschränkung, Automatisierung, Ausschluss von Single Points of Failure, Monitoring und Verifizierung.

Gefahren für Daten​

Die Gefahren für Datenverlust haben sich über die letzten Jahrzehnte verändert. Stand früher eine Absicherung gegen Hardwaredefekte im Mittelpunkt, so ist heute die Gefahr für Datenveränderungen, die nicht rechtzeitig bemerkt werden, größer. Hier geht es um versehentliches Löschen, Veränderung von Daten durch gemeinsame Zugriffe, Anwendungsfehler, Silent Data Corruption oder Angriffe auf die Daten.

Eine moderne Backup Strategie muss dementsprechend viele Szenarien berücksichtigen.

Hardware-Defekte​

Hardware Defekte sind auf Grund hochpräziser Fertigungstechniken heutzutage selten geworden, dennoch kann ein Ausfall immer vorkommen. Datenbestände müssen also zunächst gegen Hardware Defekte geschützt werden.

Festplattenausfälle​

Für ein aktuelles NAS System ist dies eine leichte Aufgabe. Zum Schutz gegen den Ausfall von Festplatten werden Daten hierzu auf mehrere Platten verteilt, so dass bei einem Festplattenausfall die Daten mindestens auf einer anderen Festplatte redundant gespeichert sind. Hierzu stehen verschiedene Raid-Level zur Auswahl, die mit einfacher (Raid 1, Raid 5) oder mit doppelter Redundanz (Raid 6, Raid 10) arbeiten.

Für wichtige Daten empfehlen wir grundsätzlich Raid 6. Fällt aus einem Raid 6 Verbund eine Festplatte aus so bleibt immer noch eine einfache Redundanz übrig, so dass zeitgleich eine weitere Platte ohne Datenverlust ausfallen kann.

Fällt hingegen bei einem Raid 1 oder Raid 5 eine Festplatte aus, so ist das verbleibende Volumen nicht gegen weitere Ausfälle geschützt. Kritisch ist hierbei das Zeitfenster, dass für die Wiederherstellung der Redundanz benötigt wird. Neben der Beschaffungszeit für die Ersatzplatte ist die Rekonstruktionszeit problematisch. Bei einem großen Raid Verbund kann die Rekonstruktion bis zu einige Tage dauern, in denen die Platten zusätzlich noch unter hoher Last stehen. Sollen Daten in diesem Zeitfenster nicht ungeschützt sein muss ein höherer Raid Level verwendet werden oder es muss eine Backup-Version auf mindestens einem weiteren Gerät bestehen.

NAS Ausfall

Ein Ausfall des NAS Systems an sich ist für die Daten in der Regel unkritisch. NAS Systeme verwenden meist Software Raid Controller, die zwei große Vorteile bieten. Erstens kann ein Software Controller nicht kaputt gehen und zweitens steht der gleiche Controller auf jedem anderen System zur Verfügung.

Datenvolumen laufen getrennt von Systemvolumen. Sollte ein NAS ausfallen ist es normalerweise kein Problem die Datenvolumen in einem anderen NAS verfügbar zu machen.

Räumliche Verteilung​

Daten und Backups dürfen niemals am gleichen Ort sein. An nur einem Ort sind sie nicht vor Gefahren wie Feuer, Wasser, Diebstahl oder anderen physikalischen Einwirkungen geschützt.

Das beliebte Backup auf externe Festplatten ist für uns eine eher schlechte Lösung aus folgenden Gründen:

  • Zum Zeitpunkt des Backups sind Daten und Backup am gleichen Ort
  • Durch den ständigen Transport besteht ein deutlich erhöhtes Risiko für Beschädigung und Verlust
  • Backups sind nicht aktuell, da sie manuell ausgelöst werden müssen und sei es nur durch Anstecken der Festplatte.
  • Werden Backups alternierend auf mehrere Festplatten gespielt sind die Backupversionen im Schnitt noch älter
  • Eine fehlende Automatisierung führt erfahrungsgemäß nach einiger Zeit dazu, dass Backups unzuverlässig und seltener erstellt werden.

Für eine räumliche Verteilung stehen zahlreiche Verfahren zu Verfügung. Synology bietet unter anderem beispielweise Active Backup for Business, den Drive Server, Hyper Backup, Snapshot Replication oder ein High Availability Cluster.

Versionierung​

Eine Versionierung ermöglicht es auf ältere Versionen von Daten zuzugreifen. So können ältere Stände wiederhergestellt werden, falls Daten versehentlich gelöscht oder verändert wurden oder eine Veränderung der Daten gar nicht bemerkt wurde.

Versionierung ist neben der Zugriffskontrolle weiterhin ein effektiver Schutz gegen Verschlüsselungstrojaner. Ist eine Backupstrategie fehlerhaft automatisiert kann es vorkommen, dass bei einem Angriff mit einem Verschlüsselungstrojaner nicht nur die Daten verschlüsselt werden, sondern die Verschlüsselung auch auf alle Backups durchschlägt. In dem Fall kann dank Versionierung auf den letzten Stand vor der Verschlüsselung zurückgegriffen werden.

Verschiedene Arten von Versionierung

Eine Versionierung kann über verschiedene Arten erfolgen. Klassisch erfolgt sie über Backup Archive, die häufig auf proprietäre Formate aufbauen. Archivbasierte Backups bieten einige Vorteile, die man aber auch meist mit anderen Verfahren erreichen kann. Nachteilig ist, dass die Archive meist nur mit spezieller Software zugreifbar sind, der Backup Prozess aufwendiger ist und die Struktur des Archivs beschädigt werden kann, was das Archiv dann im schlimmsten Falle unbrauchbar macht. Wir raten dazu, Archive nur zu verwenden, wenn es keine andere Möglichkeit gibt.

Alternativen sind die Versionierung auf Dateiebene oder auf Dateisystemebene.

Eine Versionierung auf Dateiebene erfolgt unter Linux über einen Mix aus Dateikopien und Hardlinks. Als es die Versionierung auf Dateisystemebene noch nicht gab war dies ein sehr effektives Verfahren Datenbestände zu Versionieren.

Heutzutage verwendet man das sogenannte Snapshotting auf Dateisystemebene, das dank des Next Generation File Systems BTRFS auf den meisten NAS Systemen zur Verfügung steht.

Ein Snapshotting auf Dateisystemebene geht blitzschnell und benötigt nur ein Minimum an Ressourcen. Ändert sich eine Datei benötigt die Versionierung nur die tatsächlich geänderten Sektoren als zusätzlichen Speicherplatz, um die Version zu erstellen.

Dementsprechend können Dateiversionen im fünf Minuten Takt erstellt werden, ohne dass dies das NAS oder den freien Speicher belasten.

Intelligente Verfahren zum Löschen von gespeicherten Schnappschüssen ermöglichen es, die gespeicherten Versionen auszudünnen, so dass eine Versionierung bis Jahre in die Vergangenheit möglich ist.

Zugriffsbeschränkung​

Eine entscheidende Frage bei der Beurteilung einer Backup Strategie ist, welches System ist das führende System für welchen Backup Satz.

Schreibt ein System aktiv Backups auf drei andere und steuert dieses System darüber hinaus die Versionierung, so ist das auf den ersten Blick eine gute Strategie, denn die wichtigen Punkte Redundanz, Versionierung und Verteilung sind erfüllt. Die Strategie hat aber einen gravierenden Schwachpunkt. Hat das führende System Kontrolle über alle Backups so kann dieses System auch alle Backups manipulieren. Daten inklusive aller Backups können somit durch Fehler oder Vorsatz verloren gehen.

Die Kontrolle über Backups muss in jedem Fall aufgeteilt werden. Hierfür gibt es grundsätzlich zwei Möglichkeiten:

Push-Backups​

Bei Push-Backups schreibt das führende System aktiv auf das Backup System. Auf dem Backup System muss durch Versionierung sichergestellt werden, dass das führende System nur die aktuelle Backup Version verändern kann. Für die Versionierung selbst ist das Backup-System zuständig. Es stellt eine Art Briefkasten zur Verfügung, in den die Backups eingeworfen werden und sich hiernach der Kontrolle des führenden Systems entziehen.

Diese Aufteilung der Kontrolle ist beispielsweise für Cloud Backups wichtig, da hier in der Regel nur Push Backups möglich sind. Nicht alle Cloud Anbieter bieten hierzu ein geeignetes Rechtemanagement.

Pop-Backups​

Bei Pop-Backups lädt das Backup-System die Daten vom Live System runter. Hat das Backup-System eine „Nur-Lesen“ Berechtigung ist die Kontrolle über die Daten hierrüber wirksam aufgeteilt.

Steht ein NAS im internen Netz und ist von außen nicht erreichbar und sollen Server im Internet darauf gesichert werden sind Pop-Backups das Mittel der Wahl.

Automatisierung und Real-Time Backups​

Eine Backup Strategie ist nur gut, wenn sie auch konsequent angewandt wird. Die Erfahrung zeigt, dass alle Strategien, die regelmäßige manuelle Eingriffe erfordern meist früher oder später nicht mehr mit der nötigen Sorgfalt ausgeführt werden.

Unsere Philosophie ist, das ein Backup vollautomatisch laufen muss. Nur durch eine Automatisierung lassen sich kurze Backupzeitfenster realisieren. Eine Versionierung im kurzen Takt hilft ggf. nicht, wenn die Daten nur einmal am Tag überspielt werden.

Ausschluss Single Point of Failure​

Es gibt vielfältige Anforderungen an eine Backup Strategie. Bei jeder Strategie ist die Frage zu klären, ob es einzelne Ereignisse geben kann, die sowohl die Live-Daten als auch alle Backup Daten gleichzeitig zerstören können. An dieser Stelle sollte man sich etwas Zeit nehmen und auch abwegige Konstellationen durchdenken. Welche Systeme und auch welche Personen haben ausreichend Rechte, um auf alle Backups manipulativ zuzugreifen? Eine Backup Strategie ist erst dann vollständig, wenn ausschließlich Systeme und Personen mit zweifelsfreier Vertrauensstellung über diese Recht verfügen.

Monitoring​

Die beste Backup Strategie hilft nicht, wenn sie nicht fehlerfrei funktioniert. Was trivial klingt ist in der Praxis häufig ein Problem. Was ist, wenn ein System, das Backup Ziel nicht mehr erreichen kann oder der Prozess gar nicht mehr ausgeführt wird? Eine effektive Alarmierung im Fehlerfall ist unerlässlich.

Allerdings muss auch das Alarmsystem an sich überwacht und regelmäßig geprüft werden. Eine Alarm-Email, die nicht ankommt, weil sie Relay Probleme hat oder im Spam Ordner landet ist zur Alarmierung nicht geeignet.

Verifizierung​

Letztendlich ist sicher zu stellen, dass ein Backup auch funktioniert. Sichert man Dokumente oder Fotos, so ist das trivial. Sichert man aber Datenbanken oder ganze Installationen gehört ein Test Recovery zum Backup dazu. Stellt man im Ernstfall fest, dass ein Backup nicht funktioniert, so ist das so, als hätte man kein Backup.

Auch hier können NAS System hilfreich sein, in dem man Live Systeme virtuell ähnlich eines Staging Systems bootet und eine Wiederherstellung testet.

Lösungen von Synology, um die beschriebenen Anforderungen umzusetzen​

Synology bietet eine ganze Reihe von Lösungen, um die beschriebenen Anforderungen umzusetzen.

Synology Drive Server​

Die Drive Server Lösung besteht aus mehreren Komponenten.

  • Die „Drive Server“ Server Anwendung, die den Dienst auf dem NAS zur Verfügung stellt.
  • Der Driver Server Client, der auf Client Rechnern läuft und den Datenaustausch mit dem Server steuert
  • Die Drive Web-App für den Zugriff mittels Browser
  • Die Drive Server ShareSync Client App zur Synchronisation zwischen NAS Geräten.

Der Driver Server bietet neben der klassischen Datensicherung, bei der Verzeichnisse geplant oder in Echtzeit auf das NAS gesichert werden, Synchronisierungsaufgaben. Die Synchronisierung ermöglicht es über mehrere Geräte hinweg Datenbestände synchron zu halten.

Dies ist sowohl mit eigenen privaten Daten als auch mit Datenbeständen, die von mehreren Usern geteilt werden möglich.

Mittels der Anwendung Drive ShareSync können Datenbestände von einem NAS auf weitere NAS Geräte gespiegelt werden.

Synchronisierung bei Bedarf​

Eine Besonderheit ist die Synchronisierung bei Bedarf. Pro Datei und Ordner wird festgelegt, ob lokale Kopien vorgehalten werden oder Dateien nur auf dem NAS zur Verfügung stehen und bei Bedarf übertragen werden. Der Speicherstatus wird über kleine Symbole neben den Dateinamen angezeigt. Auf diese Weise wird Speicherplatz gespart, alle Dateien stehen aber dennoch transparent zur Verfügung und werden bei Bedarf übertragen, falls sie nicht bereits lokal gespeichert sind.

Active Backup for Business​

Active Backup Business zielt auf die Sicherung kompletter Server, PCs und virtueller Maschinen ab inkl. der Option Bare-Metal Wiederherstellungsmedien zu erstellen. Es bietet auch die Möglichkeit Dateiserver mittels SMB und rsync zu sichern.

Daten Deduplizierung​

Vollständige Systemsicherungen von kompletten Volumen verbrauchen Unmengen an Speicherplatz. Active Backup for Business verwendet eine Deduplizierungstechnologie, die den Speicherbedarf drastisch reduziert. Die Deduplizierung erkennt gleiche Speicherblöcke und speichert diese nur einfach ab. Bei fortlaufenden Sicherungen eines Servers wird auf diese Weise Speicherplatz nur für unterschiedliche und veränderte Datenbereiche benötigt, dennoch stehen alle Backupversionen vollständig zur Verfügung. Dies funktioniert sogar Server übergreifend. Werden mehrere Windows Maschinen gesichert, die auf einem ähnlichen Softwarestand sind so werden gleiche Datenblöcke auf unterschiedlichen Maschinen erkannt und müssen nur einmal gespeichert werden.

Die Grafik Zeit eine 50 GB große Sicherung einer Windows 10 Maschine. Obwohl diese Maschine in zwei Versionen gesichert ist werden weniger als 40GB Speicher benötigt.

Ein Nebeneffekt der Deduplizierung ist, das der Backupprozess stark beschleunigt wird. Es muss eine deutlich geringere Datenmenge übertragen werden wodurch vollständige Sicherungen erheblich schneller fertiggestellt werden.

Snapshot Replikation​

Geht es darum Datenbestände zu versionieren ist Snapshot Replikation die erste Wahl. Snapshot Replikation arbeitet auf Dateisystemebene und friert den Zustand des Dateisystems ein. Wird ein Schnappschuss erstellt werden Änderungen am Datenbestand separat geschrieben und verändern den eingefrorenen Zustand nicht.

Auf diese Weise können Versionen blitzschnell erstellt werden, die zunächst auch keinen Speicher belegen. Nur Veränderungen am Datenbestand erfordern zusätzlichen Speicher.

Darüber hinaus bietet Snapshot Replikation die Möglichkeit, Schnappschüsse auf weitere NAS Systeme zu klonen. Datenbestände können auf diese Weise in einem konsistenten Zustand kopiert werden. Änderungen im Quell-Datenbestand während des Kopierens haben keinen Einfluss auf den Kopiervorgang, da ein eingefrorener Zustand aller Daten kopiert wird.

Hyper Backup / Hyper Backup Vault​

Hyper Backup ist die Universalwaffe für alle Aufgaben, für die es keine spezialisierte Anwendung gibt. Es ermöglicht die Sicherung von LUNs und lokalen gemeinsamen Ordnern auf andere NAS, rsync kompatible Server oder zu verschiedenen Cloud Anbietern.

Wem das nicht reicht, der findet mit Cloud Sync eine weitere spezielle Anwendung für die Datensicherung in Clouds.

Geplante Tasks

Für spezielle Backup Anforderungen, die mit allen oben beschriebenen Möglichkeiten nicht gelöst werden können stehen als Ultima Ratio die geplanten Tasks zur Verfügung. Spätestens mit einem Shell-Skript lassen sich nahezu alle Anforderungen erfüllen. Dieses Skript kann über geplante Tasks ausgeführt und überwacht werden.

High Availability Cluster​

Der Vollständigkeit halber soll der High Availability Cluster noch erwähnt werden. Aufgabe eines Clusters ist die Verfügbarkeit und nicht die Datensicherung. Dennoch hält ein Cluster auch einen Spiegel der Daten vor.

Fazit​

Dieser Artikel soll einen Überblick über die vielfältigen Anforderungen an eine Backup Strategie und die Möglichkeiten der Umsetzung mit Synology NAS Geräten geben.

Trotz aller technischer Möglichkeiten möchten wir nochmal eindringlich darauf hinweisen, dass es essentiell wichtig ist, dass jede Backup Strategie regelmäßig manuell überprüft wird. Nichts ist schlimmer, als im Fehlerfall festzustellen, dass ein Backup nicht vorhanden ist oder fehlerhaft erstellt wurde. Es kann immer zu technischen Fehlern kommen oder Änderungen in Anforderungen und Datenbestand . Deswegen sollte in regelmäßigen Abständen die Vollständigkeit und Funktionsfähigkeit von Backups geprüft werden.

Über den Autor

Dieser Beitrag wurde durch NAS-Central.de verfasst. NAS-Central vertreibt seit 2005 NAS Server und Lösungen auf NAS Server Basis. Das Angebot gehört zu dem Systemhaus LogicTri aus Trier.

Auf NAS-Central finden sie Komplettlösungen aus den Bereichen Office & Collaboration, Storage & Backup, Virtualisierung, Vernetzung und mobile Lösungen sowie individuelle Lösungen passgenau für ihre Anforderungen.

Für gängige Installationen werden pauschale Installations- sowie Wartungspakete angeboten.

NAS-Server und zugehörige Komponenten können über den angegliederten NAS Server Shop bezogen werden. Dies ist allerdings keine Voraussetzung, um angebotene Services zu nutzen. Services werden im gleichem Umfang auch für Fremdgeräte angeboten.

Besuchen sie die Angebote von NAS-Central.de und Logictri.de und kontaktieren sie den Anbieter gerne, falls sie Hilfe oder ein  Angebot erhalten möchten.