Redundanz bei RAID 10

Status
Für weitere Antworten geschlossen.

Caup

Benutzer
Mitglied seit
02. Jun 2014
Beiträge
120
Punkte für Reaktionen
0
Punkte
0
Jetzt ist es nach insgesamt 16 Jahren ohne Probleme passiert:
Meine DS2015xs meldet Probleme für Disks 2 und 3 innerhalb weniger Minuten.
Disk 3 meldete 66 "raw read" Fehler, bevor DSM die komplette Disk rauswarf.
Disk 2 hat inzwischen 21 "raw read" Fehler, lebt aber noch.

Disk 3 kann auch nicht repariert werden, vermutlich Versagen der Backplane.
Bevor ich jetzt wenigstens Disk 2 repariere:
Kennt jemand die Redundanzkonzepte von RAID 10, bzw. welche Disks gespiegelt sind?
1-2, 3-4, 5-6, 7-8 oder 1-5, 2-6, 3-7, 4-8 oder ???
Kann ich es mir überhaupt leisten, das System ohne Disks 2 und 3 zu betreiben?

Alle Daten sind mehrfach gesichert, also as der Sicht alles ok.
Die DS2015xs wird aber zentral im Netzwerk eingesetzt, und ich will/kann hier nichts ändern.
Ich würde gern auf die DS1819+ warten und dann komplett ersetzen.
 

himitsu

Benutzer
Sehr erfahren
Mitglied seit
22. Okt 2018
Beiträge
2.904
Punkte für Reaktionen
336
Punkte
123
RAID 10 (1+0) sind mehrere RAID 1 (Spiegel) die an einem RAID 0 (Strippe) hängen, also bei 4 Disks sind jeweils 1 und 2 gespiegelt, sowie 3 und 4.
Eine Platte geht immer, aber zwei Platten gehen nur, wenn sie aus unterschiedlichen RAID 1 stammen, also z.B. 1 und (3 oder 4).

RAID 01 (0+1) sind mehrere RAID 0 (Strippe) die an einem RAID 1 (Spiegel) hängen, also bei 4 Disks sind 1+2 auf 4+5 gespiegelt.


Bei 8 Platten ... hmmm,
sind das dann 4x RAID 1 mit je 2 Platten an einem RAID 0
oder sind das 2x RAID 1 mit je 4 Platten an einem RAID 0 (hier düefen dann in jedem RAID 1 bis zu 3 Platten ausfallen)
Wegen der größeren Datenmenge vermutlich wohl eher das Erste.


Ob du dir das leisten kannst, ganz ohne Redundanz ... wenn du unbedingt magst, dann joar.
Wenn nur die Platten futsch sind, dann kannst du die Defekten jetzt schonmal ersetzen und diese "neuen" Platten dann in der DS1819+ wiederverwenden.
 
Zuletzt bearbeitet:

Caup

Benutzer
Mitglied seit
02. Jun 2014
Beiträge
120
Punkte für Reaktionen
0
Punkte
0
Danke für Deine Antwort. Genau das frage ich mich.
Noch lebt das System:
- Disk 3 ausgefallen, nicht mit neuer Platte reparierbar (voraussichtlich Hardware Fehler)
- Disk 2 angezählt, aber Zustand "normal" mit 21 bisher stabilen raw_read_errors.

Die 10GB vernetzte DS2015xs kann ich eigentlich nur durch ein anderes 10GB Gerät ersetzen.
Und hier würde ich gern auf die neue DS1819+ warten.
Also heißt es, die alte DS2015xs bestmöglich zu stabilisieren.
Deshalb wüsste ich gern, welche die redundanten Platten für Disk 2 und Disk 3 sind.

Oder anders gefragt:
Kann ich Disk 2 gegen eine neue tauschen und reparieren?
Oder sollte ich das wg. bereits ausgefallenem Disk 3 vermeiden?
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.871
Punkte für Reaktionen
1.159
Punkte
754
Hast Du Erfahrungen mit einer Linux-Shell? Wenn ja, könntest Du Dir den Aufbau des RAID-Arrays auf der Konsole anzeigen lassen.
 

Caup

Benutzer
Mitglied seit
02. Jun 2014
Beiträge
120
Punkte für Reaktionen
0
Punkte
0
Nur oberflächlich.
Ich komme per Telnet rein und "sudo su" klappt auch noch.
Alle "mdadm --examine /dev/…" liefern aber nur eine Liste 0..7 Platten, mit 2 "faulty removed".
Gibt's da was Besseres mit Spiegelungsinfo?
 

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.871
Punkte für Reaktionen
1.159
Punkte
754
Was liefert beispielsweise

Rich (BBCode):
cat /proc/mdstat

oder

Rich (BBCode):
mdadm --misc --detail /dev/md2
 

Caup

Benutzer
Mitglied seit
02. Jun 2014
Beiträge
120
Punkte für Reaktionen
0
Punkte
0
ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid10 sdd3[0] sdh3[7] sdg3[6] sdf3[5] sde3[4] sda3[8] sdb3[1]
15608786176 blocks super 1.2 64K chunks 2 near-copies [8/7] [UU_UUUUU]
md1 : active raid1 sda2[0] sdb2[1] sdd2[3] sde2[4] sdf2[5] sdg2[6] sdh2[7]
2097088 blocks [8/7] [UU_UUUUU]
md0 : active raid1 sda1[3] sdb1[1] sdd1[0] sde1[4] sdf1[5] sdg1[6] sdh1[7]
2490176 blocks [8/7] [UU_UUUUU]
unused devices: <none>


ash-4.3# mdadm --misc --detail /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Fri Feb 26 12:35:35 2016
Raid Level : raid10
Array Size : 15608786176 (14885.70 GiB 15983.40 GB)
Used Dev Size : 3902196544 (3721.42 GiB 3995.85 GB)
Raid Devices : 8
Total Devices : 7
Persistence : Superblock is persistent

Update Time : Fri Nov 16 15:51:31 2018
State : clean, degraded
Active Devices : 7
Working Devices : 7
Failed Devices : 0
Spare Devices : 0

Layout : near=2
Chunk Size : 64K

Name : DiskStation:2
UUID : c7fdd25c:18d4e46e:e91e9330:7295c418
Events : 21194

Number Major Minor RaidDevice State
0 8 51 0 active sync set-A /dev/sdd3
1 8 19 1 active sync set-B /dev/sdb3
- 0 0 2 removed
8 8 3 3 active sync set-B /dev/sda3
4 8 67 4 active sync set-A /dev/sde3
5 8 83 5 active sync set-B /dev/sdf3
6 8 99 6 active sync set-A /dev/sdg3
7 8 115 7 active sync set-B /dev/sdh3
 

Caup

Benutzer
Mitglied seit
02. Jun 2014
Beiträge
120
Punkte für Reaktionen
0
Punkte
0
Nach Analyse der Ausgabedaten sieht es so aus, als wären 2 Sets "set-A" und "set-B" vorhanden, bestehend aus
set-A: Disks 0, (2), 4, 6
set-B: Disks 1, 3, 5, 7
Ich kann nur vermuten, dass die 4 Spiegelungen (0,1), (2,3), (4,5) und (6,7) sind.
Damit sollte Disk 1 eigentlich reparierbar sein.
Mein Gott warum einfach, wenn's auch kompliziert geht.
Danke an alle für die Hilfe.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat