Hallo,
jetzt hat es mich leider auch erwischt.
Ich habe eine CS407 mit Raid 5 und 4 x 1,5 TB Platten.
Nachdem die Disk 3 insgesamt 3 mal in den letzen Wochen einen Fehler hatte und ich dann immer den Reparaturvorgang fürs Volume erfolgreich durchgeführt habe, war es nun wieder soweit.
Da diese Fehler nun alle paar Tage kamen, war mir klar, das so die Sache langfritist nicht zu lösen war. Eine 5te Ersatzplatte einfach zum reinstecken hatte ich natürlich nicht einfach so rumliegen.
Die kurze und auch die erweiterte SMART Diagnose direkt auf der Cubestation brechen leider immer ohne Resultat ab.
Zuletzt kam sogar Volume has crashed und nicht mehr Degraded Mode.
Daher habe ich dann die immer wieder defekte Disk 3 ausgebaut und extern an einen Rechner angeschlossen und mal mit dem zugehörigen WD-Tool unter Windows checken lassen. Ergebnis: alles i.O.
Da ich eine HDD die sogar den ausführlichen Test besteht nicht zurück schicken brauche, habe ich mir dann gedacht, gut, einfach wieder einbauen führt in paar Tagen wieder zum Degraded Mode und has crashed. Dann habe ich mal die Festplatte richtig Low Level formatiert, um die danach wieder als quasi leere neue Platte in die Cube zu schieben und erneut mein Glück zu probieren.
Soweit denke ich mal ist noch alles nicht wirklich falsch gewesen.
Als ich die 3te Platte nun wieder in der Cube hatte und neu gestartet habe, gabs aber wieder nur den Piepton und die Message:
"Volume 1 on CubeStation has crashed, the server may not be able to start up."
Diesmal fehlten im Volume 1 aber nicht nur die Platte 3 sondern auch die Platte 2. An dieser habe ich definitiv nichts gemacht gehabt. Auch die Kabel stecken nach wie vor in der alten Config.
Gut jetzt hätte ich sicher besser schon hier gepostet, aber ich habe einfach Volume 1 entfernt, in der Hoffnung per WebIf das Volume 1 wiederherstellen zu können. Ging natürlich nicht.
Nu habe ich also noch 3 Festplatten mit den Daten und eine HDD die leer ist. Damit sollte sich ja mein Raid 5 wiederherstellen lassen.
Ich habe nun versucht mit diversen Befehlen hier per Telnet das Volume wieder zusammen zu bauen, aber die Tuts hier haben leider nicht gefruchtet.
Bevor ich jetzt final etwas kaputt mache, frage ich lieber nach Hilfe. Ein Backup ist leider nicht möglich, da die Datenmengen der Platten einfach zu groß ist. Im Notfall muss ich auf die Daten verzichten, das wäre zwar unschön aber es waren jetzt nicht absolut unverzichtbare Daten.
Das hier habe ich versucht:
http://www.synology-forum.de/showthread.html?t=510
Ich habe auch noch einiges andere probiert, mal der Code von den Tests heute (gestern noch einiges andere aus Threads hier)
Irgendwie fehlt mir aber der Befehl um den Status der Devices rausfinden zu können.
Weiterhin scheiterte eigentlich immer alles an der Meldung: no superblock
Ich denke es ist taktisches Vorgehen erforderlich, mit Erfahrung von jemandem der so was schon öfters mal getan hat.
Bitte um Hilfestellungen. Was soll ich per Telnet machen?
Schon mal Danke im vorraus.
jetzt hat es mich leider auch erwischt.
Ich habe eine CS407 mit Raid 5 und 4 x 1,5 TB Platten.
Nachdem die Disk 3 insgesamt 3 mal in den letzen Wochen einen Fehler hatte und ich dann immer den Reparaturvorgang fürs Volume erfolgreich durchgeführt habe, war es nun wieder soweit.
Da diese Fehler nun alle paar Tage kamen, war mir klar, das so die Sache langfritist nicht zu lösen war. Eine 5te Ersatzplatte einfach zum reinstecken hatte ich natürlich nicht einfach so rumliegen.
Die kurze und auch die erweiterte SMART Diagnose direkt auf der Cubestation brechen leider immer ohne Resultat ab.
Zuletzt kam sogar Volume has crashed und nicht mehr Degraded Mode.
Daher habe ich dann die immer wieder defekte Disk 3 ausgebaut und extern an einen Rechner angeschlossen und mal mit dem zugehörigen WD-Tool unter Windows checken lassen. Ergebnis: alles i.O.
Da ich eine HDD die sogar den ausführlichen Test besteht nicht zurück schicken brauche, habe ich mir dann gedacht, gut, einfach wieder einbauen führt in paar Tagen wieder zum Degraded Mode und has crashed. Dann habe ich mal die Festplatte richtig Low Level formatiert, um die danach wieder als quasi leere neue Platte in die Cube zu schieben und erneut mein Glück zu probieren.
Soweit denke ich mal ist noch alles nicht wirklich falsch gewesen.
Als ich die 3te Platte nun wieder in der Cube hatte und neu gestartet habe, gabs aber wieder nur den Piepton und die Message:
"Volume 1 on CubeStation has crashed, the server may not be able to start up."
Diesmal fehlten im Volume 1 aber nicht nur die Platte 3 sondern auch die Platte 2. An dieser habe ich definitiv nichts gemacht gehabt. Auch die Kabel stecken nach wie vor in der alten Config.
Gut jetzt hätte ich sicher besser schon hier gepostet, aber ich habe einfach Volume 1 entfernt, in der Hoffnung per WebIf das Volume 1 wiederherstellen zu können. Ging natürlich nicht.
Nu habe ich also noch 3 Festplatten mit den Daten und eine HDD die leer ist. Damit sollte sich ja mein Raid 5 wiederherstellen lassen.
Ich habe nun versucht mit diversen Befehlen hier per Telnet das Volume wieder zusammen zu bauen, aber die Tuts hier haben leider nicht gefruchtet.
Bevor ich jetzt final etwas kaputt mache, frage ich lieber nach Hilfe. Ein Backup ist leider nicht möglich, da die Datenmengen der Platten einfach zu groß ist. Im Notfall muss ich auf die Daten verzichten, das wäre zwar unschön aber es waren jetzt nicht absolut unverzichtbare Daten.
Das hier habe ich versucht:
http://www.synology-forum.de/showthread.html?t=510
Rich (BBCode):
CubeStation> mdadm --stop /dev/md2
mdadm: stopped /dev/md2
CubeStation> mdadm --assemble --force -v /dev/md2 /devsda3 /dev/sdb3 /dev/sdc3 /
dev/sdd3
mdadm: looking for devices for /dev/md2
mdadm: cannot open device /devsda3: No such file or directory
mdadm: /devsda3 has no superblock - assembly aborted
CubeStation>
Ich habe auch noch einiges andere probiert, mal der Code von den Tests heute (gestern noch einiges andere aus Threads hier)
Rich (BBCode):
BusyBox v1.1.0 (2010.04.19-13:36+0000) Built-in shell (ash)
Enter 'help' for a list of built-in commands.
CubeStation> mdadm --stop /dev/md2
mdadm: stopped /dev/md2
CubeStation> mdadm --remove /dev/md2
CubeStation> mdadm --create /dev/md2 --assume-clean --level=5 --raid-devices=4 /
dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: /dev/sda3 appears to contain an ext2fs file system
size=359453760K mtime=Thu Apr 10 23:13:05 1997
mdadm: Cannot open /dev/sdb3: No such device or address
mdadm: /dev/sdc3 appears to contain an ext2fs file system
size=91018304K mtime=Sun Oct 10 03:33:52 2010
mdadm: create aborted
CubeStation> mdadm --create /dev/md2 --assume-clean --level=5 --raid-devices=4 /
dev/sda3/ /dev/sdc3 /dev/sdd3 missing
mdadm: Cannot open /dev/sda3/: Not a directory
mdadm: /dev/sdc3 appears to contain an ext2fs file system
size=91018304K mtime=Sun Oct 10 03:33:52 2010
mdadm: create aborted
CubeStation> looking for devices for /dev/md2
-ash: looking: not found
CubeStation> mdadm
Usage: mdadm --help
for help
CubeStation> mdadm: looking for devices for /dev/md2
-ash: mdadm:: not found
CubeStation> ?
-ash: ?: not found
CubeStation> help
Built-in commands:
-------------------
. : alias bg break cd chdir continue eval exec exit export false
fg getopts hash help jobs kill let local pwd read readonly return
set shift times trap true type ulimit umask unalias unset wait
CubeStation> eval
CubeStation> help eval
Built-in commands:
-------------------
. : alias bg break cd chdir continue eval exec exit export false
fg getopts hash help jobs kill let local pwd read readonly return
set shift times trap true type ulimit umask unalias unset wait
CubeStation> eval help
Built-in commands:
-------------------
. : alias bg break cd chdir continue eval exec exit export false
fg getopts hash help jobs kill let local pwd read readonly return
set shift times trap true type ulimit umask unalias unset wait
CubeStation> eval
CubeStation> mdadm
Usage: mdadm --help
for help
CubeStation> mdadm --help
mdadm is used for building, managing, and monitoring
Linux md devices (aka RAID arrays)
Usage: mdadm --create device options...
Create a new array from unused devices.
mdadm --assemble device options...
Assemble a previously created array.
mdadm --build device options...
Create or assemble an array without metadata.
mdadm --manage device options...
make changes to an existing array.
mdadm --misc options... devices
report on or modify various md related devices.
mdadm --grow options device
resize/reshape an active array
mdadm --incremental device
add a device to an array as appropriate
mdadm --monitor options...
Monitor one or more array for significant changes.
mdadm device options...
Shorthand for --manage.
Any parameter that does not start with '-' is treated as a device name
or, for --examine-bitmap, a file name.
The first such name is often the name of an md device. Subsequent
names are often names of component devices.
For detailed help on the above major modes use --help after the mode
e.g.
mdadm --assemble --help
For general help on options use
mdadm --help-options
Irgendwie fehlt mir aber der Befehl um den Status der Devices rausfinden zu können.
Weiterhin scheiterte eigentlich immer alles an der Meldung: no superblock
Ich denke es ist taktisches Vorgehen erforderlich, mit Erfahrung von jemandem der so was schon öfters mal getan hat.
Bitte um Hilfestellungen. Was soll ich per Telnet machen?
Schon mal Danke im vorraus.