Raid 1 auflösen ohne Datenverlust möglich?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Guten Morgen Zusammen!
Ich brauche wohl doch nochmal eure Hilfe. Nachdem der zweite Speicherpool erstellt wurde, kann ich jedoch immer noch keine Dateien darauf speichern, weil wohl ein Volume fehlt. Hat jemand von euch eine Idee was ich falsch gemacht habe?
 

Anhänge

  • Bildschirmfoto 2024-08-11 um 08.03.03.png
    Bildschirmfoto 2024-08-11 um 08.03.03.png
    104,3 KB · Aufrufe: 20
Einfach unter "Erstellen" ein Volume anlegen.
 
Wieso hat Volume 1 eine Warnung?
 
Welche DSM-Version ist das, 7.2?
Die Angabe der Volume-Belegung könnte dort belegt/frei sein, und wenn man mit 1,8 gesamt rechnet wären das knapp über 80%, also oberhalb der Default-Warngrenze. Diese lässt sich in den Volume-Einstellungen einstellen.
Grad geschaut: DSM 7.1.1 zeigt dort noch belegt/gesamt an, DSM7.2 belegt/frei
 
Hallo,
ich habe genau dasselbe Problem. Versehentlich habe ich nach dem Einbau einer zusätzlichen Platte SHR ausgewählt obwohl ich meinen Speicherplatz eigentlich mit JBOD verdoppeln wollte.

Nun laufen die 3. + 4. Platte (je 16TB) als SHR und ich möchte dieses SHR ohne Datenverlust in JBOD umwandeln.

Die 1. und 2. Platte (je 10TB) sollen dabei unverändert als SHR weiterlaufen.

Dass ich die 4. Platte wieder ausbauen und dann via SSH den oben genannten Befehl ändern und eingeben muss habe ich verstanden.

Nur diese Ausgabe meiner Diskstation übersteigt mein Wissen:

---
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md4 : active raid1 sdd5[1] sdc5[0]
15621042624 blocks super 1.2 [2/2] [UU]

md3 : active raid1 sdb6[2] sda6[3]
1953398336 blocks super 1.2 [2/2] [UU]

md5 : active raid1 sdb7[2] sda7[3]
1953494912 blocks super 1.2 [2/2] [UU]

md7 : active raid1 sdb8[0] sda8[1]
3905898432 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sda5[3] sdb5[2]
1948779648 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdd2[3] sda2[0] sdb2[1] sdc2[2]
2097088 blocks [4/4] [UUUU]

md0 : active raid1 sdd1[3] sda1[0] sdb1[1] sdc1[2]
2490176 blocks [4/4] [UUUU]

unused devices: <none>
---

Wie muss der Befehl zum degradieren des RAID geändert werden nachdem ich die 4. Platte entfernt habe?
mdadm --grow --raid-devices=1 --force /dev/md2 ???

Vielen Dank im Voraus für eure Hilfe
 
Dafür müsste man erst mal wissen, wie das momentan aufgeteilt ist. md0 und md1 ist klar, das ist der DSM/Swap über alle 4 Platten.
Aber was ist md2-md7 und md6 fehlt? :unsure:
Poste mal bitte einen Screenshot vom Speicher-Manager im aufgeklappten Zustand.
 
Sorry, ich blick's nicht, Speicherpool1 scheint ja eher md4 zu sein.
 
Ich hatte früher mal nacheinander den Ausfall von 2 Platten und diese deshalb entfernt. Dann die erste 16TB Platte zur Nutzung als Aufnahmeordner für meinen DVBLink-Videorecorder eingesetzt. Vor kurzem dann die zweite 16Tb Platte ergänzt, welche ich nun wieder entfernen und als JBOD hinzufügen möchte weil der Speicherplatz knapp wird. Warum md6 jetzt komplett fehlt verstehe ich auch nicht.
Wenns so nicht geht muss ich eben das Volume/Speicherpool neu erstellen und dann alle Daten zurücksichern ):
 
Poste mal die Ausgabe von:
lvs
vgs
pvs

Weil da sitzt ein LVM drüber, mit LV und VG
 
root@DISKSTATION:~# vgs
VG #PV #LV #SN Attr VSize VFree
vg1 1 2 0 wz--n- 14.55t 0
vg1000 4 1 0 wz--n- 9.09t 0
root@DISKSTATION:~# pvs
PV VG Fmt Attr PSize PFree
/dev/md2 vg1000 lvm2 a-- 1.81t 0
/dev/md3 vg1000 lvm2 a-- 1.82t 0
/dev/md4 vg1 lvm2 a-- 14.55t 0
/dev/md5 vg1000 lvm2 a-- 1.82t 0
/dev/md7 vg1000 lvm2 a-- 3.64t 0
root@DISKSTATION:~# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/md0 2.4G 1.2G 1.2G 50% /
none 348M 0 348M 0% /dev
/tmp 350M 2.0M 348M 1% /tmp
/run 350M 15M 336M 5% /run
/dev/shm 350M 4.0K 350M 1% /dev/shm
/dev/vg1/volume_2 15T 14T 1.4T 91% /volume2
/dev/vg1000/lv 9.0T 7.0T 2.0T 79% /volume1
/volume1/@willow@ 9.0T 7.0T 2.0T 79% /volume1/willow
/volume1/@Medien@ 9.0T 7.0T 2.0T 79% /volume1/Medien
/dev/sdq1 7.3T 2.4T 5.0T 32% /volumeUSB1/usbshare
root@DISKSTATION:~#
 
root@DISKSTATION:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
syno_vg_reserved_area vg1 -wi-a----- 12.00m
volume_2 vg1 -wi-ao---- 14.55t
lv vg1000 -wi-ao---- 9.09t
root@DISKSTATION:~#
 

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat