SHR auflösen

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

spacelord

Benutzer
Registriert
06. März 2008
Beiträge
53
Reaktionspunkte
0
Punkte
6
Auf einer DS-211+ ist ein Volume 1 als

"Synology Hybrid RAID (SHR) (Mit Datenschutz der Fehlertoleranz von 1 Festplatte"

eingerichtet. Wie kann nun eine Festplatte daraus entfernt werden? Wenn es Raid 1 ist sollte dies ja kein Problem darstellen. Vielen Dank
 
Ist nicht vorgesehen. Backup und Volumen löschen dürfte der schnellste Weg sein.

Wenn Du es doch machen willst: Eine Platte raus und am PC formatieren. Allerdings bleibt das Volume 1 dann als fehlerhaft stehen.
 
Solange SHR als RAID-1 läuft, sprich du hast nur zwei Platten im Array sollt ein "Auflösen" ein leichtes Spiel sein, so dass du die HDDs wieder einzeln Nutzen kannst. Im Prinzip ist das existierende Array mit zwei Platten auf eines mit nur einer Platte umzukonfigurieren.

Anwendung auf eigene Gefahr. Immer ein Backup haben, bevor man das Erste mal mit mdadm spielt. Da kann schnell was schief gehen..

RAID-1 mit folgender Beispielkonfiguration:
  • Das RAID-1 Device heist /dev/md2
  • HDDs im Array sind /dev/sda1 und /dev/sda2
  • Das Ganze ist als /volume1 gemountet

Vorabeiten:
  • Alle Dienste über ihre Init-Scripts stoppen, die auf /volume1 laufen

Und los geht's:
  1. Filesystem /volume1 unmounten
    Rich (BBCode):
    umount /volume1
  2. Array /dev/md2 deaktivieren
    Rich (BBCode):
    mdadm --stop /dev/md2
  3. Array /dev/md2 neu erstellen (RAID1 mit nur einer HDD /dev/sda1)
    Rich (BBCode):
    mdadm --create --force /dev/md2 --run --raid-devices=1 --level=raid1 /dev/sda1
  4. Filesystem /volume1 wieder mounten
    Rich (BBCode):
    mount /dev/md2 /volume1
  5. Neustarten, damit alle Dienste wieder automatisch gestartet werden
    Rich (BBCode):
    reboot

Ansonsten unter http://linux.die.net/man/8/mdadm mal die Manpage lesen.
Finden sich auch eine Menge Beispiele für bestimmte Aufgabe im Netz...



.
 
Vorabeiten:
  • Alle Dienste über ihre Init-Scripts stoppen, die auf /volume1 laufen

ich habe schon einige Dienste gestoppt
aber ps zeigt immer noch jede menge

und unmount zeigt:

umount: /volume1: target is busy
(In some cases useful info about processes that
use the device is found by lsof(8) or fuser(1).)

lsof und fuser gibt es nicht

was muss ich noch alles stoppen???

ich habe eine DS215+
 
Zuletzt bearbeitet:
Hallo.

Ich habe es auch probieren wollen, aber ständig sagt mir meine NAS dass /dev/sda1 in Benutzung ist....
Was kann ich denn dagegen machen?
 
Schau mal, welches Tool darauf zugreift?

Code:
lsof | grep /dev/sda1

Dann evtl. unmounten o.ä.?
 
Danke aber diesen Befehl gibt es nicht auf dieser NAS
 
Was willst du mit sda1 machen? Wo ist das erwähnt weiter oben?
 
Ich habe die Befehle von oben alle der Reihe nach eingegeben. Nach dem Punkt 3. kommt halt immer wieder die Meldung, dass /dev/sda1 busy ist...
 
Dann hat höchst wahrscheinlich Punkt 2 nicht geklappt.

Hast ein Screenshot der Schritte?
 
Vorabeiten:
  • Alle Dienste über ihre Init-Scripts stoppen, die auf /volume1 laufen

@scythe42
Leider können die mit dieser Anleitung nichts anfangen und tippen einfach die Befehle ab, aber da fehlen die Befehle für die Init-Scripte, daher scheitern die gleich an Punkt2, da noch die Programme laufen.

Dann lieber gleich alles abschalten mit:
nicht vergessen vorher ''root' werden:
  • 'sudo -i'
  1. 'syno_poweroff_task -d'

Und hier beim Erstellen des RAIDs kann man sogar die Daten übernehmen, wenn man einen Parameter eingibt: '--assume-clean'
Mit dem Parameter wird nur die RAID Konfiguration geschrieben, aber keine RAID Erstellung 'aka Rebuild' durchgeführt, dann hat man nach dem Reboot auch kein 'fehlerhaft' Status im Speicher Manager mehr. Dies kann man nur beim RAID1 anwenden, da hier die Daten doppelt vorliegen, bei anderen RAID Typen funktioniert das nicht!!! (Anders ausgedrückt: egal welche Festplatte man bei RAID1 nimmt, die Daten sind identisch da, bei anderen RAID Typen ist das nicht der Fall, daher kann man da nichts weglassen)
  • mdadm --create --force /dev/md2 --run --raid-devices=1 --level=raid1 /dev/sda1 --assume-clean
 
den Befehl syno_poweroff_task -d habe ich bereits ausgeführt. Aber der beendet trotzdem nicht alles irgendwie. Habe ich das Gefühl.
Ich scheitere am Punkt 3.. da anscheinend bei mir /dev/sda1 im Zugriff ist
Weiss niemand mehr wie man das Problem lösen könnte?
 
Ja, weil die erste Partition 'sda1' das System und nicht die Daten sind

BITTE nicht alles stupide abtippen, der mdadm Befehl löscht die DATEN!!!

Bitte schaut euch immer vorher den 'ist' Zustand an und passt die Befehle an:

'cat /proc/mdstat'
1595452312344.png
md2: sind eure Daten, bei meinem Beispiel wäre es dann und nach der Reihenfolge [0] [1] [2] [3] (beim RAID5 ist die Reihenfolge wichtig)
mdadm --create /dev/md2 --run --raid-devices=4 --level=raid5 /dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5

md1 und md0 sind das DSM.

Bei eine echtem RAID1 ist die Partition die '3'
/dev/sda3
  • mdadm --create --force /dev/md2 --run --raid-devices=1 --level=raid1 /dev/sda3
und bei einem SHR: (beim SHR können noch mehr RAIDs vorkommen...md3, md4....dann lasst es bitte an dem Punkt sein oder ihr bringt euch noch LVM (Logical Volume Management) bei...)
/dev/sda5
  • mdadm --create --force /dev/md2 --run --raid-devices=1 --level=raid1 /dev/sda5
 
Zuletzt bearbeitet:
Bitte schaut euch immer vorher den 'ist' Zustand an und passt die Befehle an:

'cat /proc/mdstat'
Anhang anzeigen 54183
md2: sind eure Daten, bei meinem Beispiel wäre es dann und nach der Reihenfolge [0] [1] [2] [3] (beim RAID5 ist die Reihenfolge wichtig)
mdadm --create /dev/md2 --run --raid-devices=4 --level=raid5 /dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5
Ich würde da in dem Beispiel in der Befehlszeile die Reihenfolge noch einmal überprüfen.
 
  • Like
Reaktionen: Syno-OS
@synfor
richtig, immer doppelt prüfen: sdb und sbc müsste an der Position getauscht werden, gibt ein Gummipunkt ;)
Notfalls die RAID Information auf der Partition noch mal gegenprüfen: (ich kenne noch ein Ort, wo ihr es nach schauen könnt...)

sdb5: ist Device [2]
1595456746611.png
sdc5: ist Device [1]
1595456805535.png


bevor ihr fragt: /etc/space/space_history*
da steht dann fast alles drin, um auch ein SHR wieder zu restaurieren, aber noch kein Cache, da müsste man wieder wo anders schauen.
1595457038944.png
 
Zuletzt bearbeitet:
Also bei mir steht folgendes:


Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]


md2 : active raid1 sda5[0] sdb5[2]


7809195456 blocks super 1.2 [2/2] [UU]


md1 : active raid1 sda2[0] sdb2[1]


2097088 blocks [2/2] [UU]



md0 : active raid1 sda1[0] sdb1[1]


2490176 blocks [2/2] [UU]


Wie muss ich es dann einrichten?
 
Kann mir niemand sagen wir ich es eingeben soll?
 
Lesen und Lernen.... Und weiter nachfragen :)

Syno-OS hat ja schon sehr anschaulich Infos geliefert wie du den Ist-Zustand analysierst und wie die Befehle prinzipiell aussehen.
Speziell post 14 und 16.

Das RAID device md2 ist das Nutzdaten Raid1 um das es geht.
Dazu nochmal die Detail Infos auslesen wie in Post 16 und überlegen wie der Befehl auf Grundlage von Post 14 auszusehen hat.
Steht dort am Ende ja eigentlich schon.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat