EILT! DS-508 bei blau blinkender LED wie abschalten?

Status
Für weitere Antworten geschlossen.

PeterG

Benutzer
Mitglied seit
12. Sep 2008
Beiträge
472
Punkte für Reaktionen
0
Punkte
0
Hi,
meine DS-508 macht mir das erste Mal Kummer. Ich habe heute ein wenig mit dem Versuch rumprobiert, die DS per nfs auf ein Thecus N299 zu sichern. Mounten des Verzeichnisses auf dem N299 klappte, kopieren allerdings nicht, die shell hängte sich dabei auf, es gab also keine Rückmeldung mehr. Auf dem N299 wurde die Testdatei (4 kb...) mit 0 kb angezeigt. Ich mußte putty dann jeweils schließen. Nach ein paar weiteren Versuchen kam eine Meldung, die wohl besagt, dass die mögliche Anzahl der shells erreicht ist. Wie auch immer; ich habe die DS dann über den DSM neugestartet und war einige Zeit außer Haus. Bei Rückkehr ist die DS weder per Web, telnet, putty oder DS Assistant erreichbar. Status LED ist grün, LAN-LED blinkt bei Netzwerkaktivität, rechte Platten-LEDs leuchten kontinuierlich, linke Platten-LEDs sind aus, Power-LED blinkt kontinuierlich blau. Das sollte also bedeuten, dass die DS hoch- oder runterfährt; weder das eine noch das andere dauert aber Stunden (wobei ich leider nicht weiß, ob sie beim Neustart beim Runter- oder beim anschließenden Hochfahren hängengeblieben ist). M. E. hängt das irgendwie mit den Problemen bei den Versuchen mit nfs zusammen; ich vermute, dass sie gar nicht runtergefahren ist. Abschalten kann ich sie aber auch nicht, Druck auf die Powertaste bleibt ohne Reaktion, ob kurz oder lang. Bevor ich das Netzkabel ziehe (eine andere Möglichkeit habe ich ja wohl nicht), wäre ich für andere Vorschläge dankbar.
Ich habe natürlich schon etwas herumgelesen und die Reset-Möglichkeit etc. ist mir bekannt. Momentan müßte ich die Kiste aber eigentlich erst mal ausmachen bzw. neustarten, um zu sehen, ob das nicht klappt. Denke ich jedenfalls...

Gruß
Peter
 

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Ich fürchte ohne den Netzstecker zu ziehen wird es nicht gehen. Ich vermute aber auch wie du, dass sie sich eher beim Runterfahren bereits aufgehängt hat. Was anderes als Strom weg fällt mir dazu auch nicht ein. Ein Reset wird in diesem Zustand wohl kaum Früchte tragen
 

PeterG

Benutzer
Mitglied seit
12. Sep 2008
Beiträge
472
Punkte für Reaktionen
0
Punkte
0
Hi,
tja, zu der Überzeugung bin ich auch gelangt, brauchte aber noch etwas moralische Unterstützung. Also habe ich den Stecker gezogen und nach etwas Wartezeit neu gestartet; leider nicht mit dem erhofften Erfolg. Jetzt blinkt die Status-LED orange, der DS Assistant behauptet allerdings: "Das System ist bereit! Per Web nicht zu erreichen, telnet geht aber. Das Log seit dem Neustart enthält Seltsames; klar ist, dass danach das RAID5 platt ist (wobei ich keinerlei Erklärung habe, wieso), aber was für ein RAID1 soll das am Ende sein? Ich habe Platten 1-4 als RAID5, Platte 5 als Basic.
Mit einem solchen Desaster habe ich ehrlich gesagt nicht gerechnet :-(... vor allem komme ich anscheinend nicht mal an die Daten auf Volume2 ran.

Rich (BBCode):
May 16 20:31:50 kernel: raid6: int32x8    222 MB/s
May 16 20:31:50 kernel: raid6: using algorithm int32x4 (277 MB/s)
May 16 20:31:50 kernel: md: sda2 has different UUID to sda1
May 16 20:31:50 kernel: md: sda3 has different UUID to sda1
May 16 20:31:50 kernel: md: sdb2 has different UUID to sda1
May 16 20:31:50 kernel: md: sdb3 has different UUID to sda1
May 16 20:31:50 kernel: md: sdc2 has different UUID to sda1
May 16 20:31:50 kernel: md: sdc3 has different UUID to sda1
May 16 20:31:50 kernel: md: sdd2 has different UUID to sda1
May 16 20:31:50 kernel: md: sdd3 has different UUID to sda1
May 16 20:31:50 kernel: md: sde2 has different UUID to sda1
May 16 20:31:50 kernel: md: sde3 has different UUID to sda1
May 16 20:31:50 kernel: md: kicking non-fresh sdb1 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdc1 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdd1 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sde1 from array!
May 16 20:31:50 kernel: md: sda3 has different UUID to sda2
May 16 20:31:50 kernel: md: sdb3 has different UUID to sda2
May 16 20:31:50 kernel: md: sdc3 has different UUID to sda2
May 16 20:31:50 kernel: md: sdd3 has different UUID to sda2
May 16 20:31:50 kernel: md: sde3 has different UUID to sda2
May 16 20:31:50 kernel: icking non-fresh sdb2 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdc2 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdd2 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sde2 from array!
May 16 20:31:50 kernel: md: sde3 has different UUID to sda3
May 16 20:31:50 kernel: md: kicking non-fresh sdb3 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdc3 from array!
May 16 20:31:50 kernel: md: kicking non-fresh sdd3 from array!
May 16 20:31:50 kernel: raid5: raid level 5 set md2 active with 1 out of 4 devices, algorithm 2
May 16 20:31:50 kernel: RAID5 conf printout:
May 16 20:31:50 kernel:  --- rd:4 wd:1
May 16 20:31:50 kernel:  disk 0, o:1, dev:sda3
May 16 20:31:50 kernel: VFS: Mounted root (ext2 filesystem).
May 16 20:31:50 kernel: ds508_synobios: module license 'Synology Inc.' taints kernel.
May 16 20:31:50 kernel: Brand: Synology
May 16 20:31:50 kernel: Model: DS-508
May 16 20:31:50 kernel: synobios: unload
May 16 20:31:50 kernel: VFS: Mounted root (ext3 filesystem).
May 16 20:31:50 kernel: Freeing unused kernel memory: 152k init
May 16 20:31:50 kernel: Brand: Synology
May 16 20:31:50 kernel: Model: DS-508
May 16 20:31:50 s00_synocheckfstab: s00_synocheckfstab_main(240): /etc/fstab format error. szBuf=/de
v/md3 /volume2 ext3 defaults 0 0
May 16 20:31:50 s00_synocheckfstab: s00_synocheckfstab_main(240): /etc/fstab format error. szBuf=/de
v/md2 /volume1 ext3 defaults 0 0
May 16 20:31:50 s30_synocheckuser: SYNOICheckCronTab(): The number of cron command fields is invalid
! iNum=1
May 16 20:32:01 kernel: EXT3-fs warning: maximal mount count reached, running e2fsck is recommended
May 16 20:32:02 kernel: EXT3-fs warning: maximal mount count reached, running e2fsck is recommended
May 16 20:32:02 fsck.ext3: EXT2_ET_BAD_MAGIC(190), 0
May 16 20:32:02 fsck.ext3: EXT2_ET_BAD_MAGIC(190), 0
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:02 kernel: VFS: Can't find ext3 filesystem on dev md2.
May 16 20:32:08 scemd: scemd.c:97 fan_type=3,  led_type=3, raid_type=1, dual_power_type=1, auto_powe
ron_type=1
May 16 20:32:08 scemd: modules/raid_sys_volume_check.c:146 MD0 active disks 1, designed disks 5
May 16 20:32:08 scemd: modules/raid_sys_volume_check.c:146 MD1 active disks 1, designed disks 5
May 16 20:32:09 scemd: modules/disk_hibernation.c:86 Force hibernation enable, idle minutes 20
May 16 20:32:09 synoprint: printer_device_open.c:16 bad parameter.
May 16 20:32:09 synousbdisk: RCClean succeeded
May 16 20:32:10 kernel: RAID1 conf printout:
May 16 20:32:10 kernel:  --- wd:1 rd:5
May 16 20:32:10 kernel:  disk 0, wo:0, o:1, dev:sda1
May 16 20:32:10 kernel:  disk 1, wo:1, o:1, dev:sde1
May 16 20:32:10 kernel: RAID1 conf printout:
May 16 20:32:10 kernel:  --- wd:1 rd:5
May 16 20:32:10 kernel:  disk 0, wo:0, o:1, dev:sda2
May 16 20:32:10 kernel:  disk 1, wo:1, o:1, dev:sde2
May 16 20:32:10 synocheckshare: Fix shares in smb.conf.
May 16 20:32:11 ddnsd: main(ddnsd.c:1729):  not enable DDNS, shutdown daemon
May 16 20:32:19 syno_hdd_util: Model:[WDC WD10EADS-00L], Firmware:[01.01A01], S/N:[WD-WCAU45517665]
in [/dev/sde] is not ssd
May 16 20:32:19 syno_hdd_util: Model:[WD10EADS-00L5B1], Firmware:[01.01A01], S/N:[WD-WCAU44916553] i
n [/dev/sdd] is not ssd
May 16 20:32:19 syno_hdd_util: Model:[WD10EADS-00L5B1], Firmware:[01.01A01], S/N:[WD-WCAU45054418] i
n [/dev/sdc] is not ssd
May 16 20:32:19 syno_hdd_util: Model:[WD10EADS-00L5B1], Firmware:[01.01A01], S/N:[WD-WCAU45109570] i
n [/dev/sdb] is not ssd
May 16 20:32:19 syno_hdd_util: Model:[WD10EADS-00L5B1], Firmware:[01.01A01], S/N:[WD-WCAU45061775] i
n [/dev/sda] is not ssd
May 16 20:33:01 kernel: RAID1 conf printout:
May 16 20:33:01 kernel:  --- wd:2 rd:5
May 16 20:33:01 kernel:  disk 0, wo:0, o:1, dev:sda1
May 16 20:33:01 kernel:  disk 1, wo:0, o:1, dev:sde1
May 16 20:33:07 kernel: RAID1 conf printout:
May 16 20:33:07 kernel:  --- wd:2 rd:5
May 16 20:33:07 kernel:  disk 0, wo:0, o:1, dev:sda2
May 16 20:33:07 kernel:  disk 1, wo:0, o:1, dev:sde2

Gruß
Peter
 

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Wenn ein System mehr als eine Platte hat, dann legt Synology ein RAID 1 für die Systempartition an.
 

PeterG

Benutzer
Mitglied seit
12. Sep 2008
Beiträge
472
Punkte für Reaktionen
0
Punkte
0
Hi,
aha, danke für die Erläuterung. Bleibt allerdings die Frage, was nun? Reset für Neuinstallation habe ich probiert, der DS Assistant findet die Kiste jetzt per default über DHCP und nicht mehr mit der fest eingestellten IP, System ist bereit. DSM geht nicht, telnet schon. Reset gem. Anleitung nochmal gemacht (nicht ganz einfach, den Piepton zu erkennen, weil die Kiste ja sowieso die ganze Zeit piept; das nervt gewaltig...), keine Veränderung. Und nun?

[Edit] Auch weiteres Probieren hat mich noch nicht weitergebracht. Der DS Assistant behauptet weiterhin, das System sei bereit, die Weboberfläche bleibt aber unerreichbar. Ich kann damit das RAID auch nicht neu einrichten und ich begreife auch nach wie vor nicht, wie so etwas als Auswirkung fehlgeschlagener Versuche, auf einen anderen nfs-server nach einem mount eines dortigen Verzeichnisses Daten zu kopieren, passieren kann. Ich habe die DS ja schließlich ganz ordentlich über den DSM neugestartet; da war noch alles ok.

[Edit2] Noch eine Ergänzung: Fahre ich das System ohne Platten hoch, piept nix, die Status-LED ist grün. Aber nicht die ganze Zeit; sie wird kurzzeitig orange für 4-5 s, dann wieder grün, dann wieder orange etc., aber kein Piepen. DS Assistant meldet dann natürlich ein nicht konfiguriertes System; sind ja auch keine Platten drin. Starte ich danach mit Platten, ist wieder wie vorher das System laut DS Assistant bereit, aber nicht funktionsfähig. Mir gehen die Möglichkeiten aus :(...

Gruß
Peter
 
Zuletzt bearbeitet:

Supaman

Benutzer
Mitglied seit
26. Jan 2007
Beiträge
1.447
Punkte für Reaktionen
0
Punkte
62
da hatsich wohl bissl was zerlegt.... aber der reihe nach.


#1 - betriebsystem - raid1

bei mehr-platten systemen läuft das betriebsystem + swap in jedem fall als raid-1 über mehrere platten, auch bei reiner verwendung vom mehreren basic-volumes. es kommt leider durchaus vor, das sich hier was so zerlegt, das die eigentlichen " selbstheilungskräfte" nicht mehr greifen,das fürht dann zu den effekten mit denen du dich im augenblick herumärgerst.

#2 - daten - raid5
solange auf den datenplatten nicht unkontrolliert geschrieben wurde, passiert bei einem sytemabsturz oder auch netzstecker ziehen folgendes: die raid-platten haben alle counter, die normalerweise gleich laufen. ist ein counter unterschiedlich, wird die platte als "broken" aus dem raid-verbund rausgeworfen, bei unterschreitung der fehlertoleranten menge der platten (1 bei raid5, 2 bei raid56) bekommt das raid den status crashed und nichts geht mehr.

der lösungsweg:

per mdadm kann man in den meistenfällen das raid novh retten, anleitung steht unter datenrettung hier im forum.

wenn du keine aktuellen backups hast oder lebenswichtige daten drauf sind, mach vorher 1:1 kopien!
ich weis, das ist bei den datenmenge leichter gesagt als getan - ich hab in solchen fällen neuen einen satz platten gekauft, 1:1 kopien gemacht, daten gerettet bzw raid repariert und die platten dann wieder verkauft, der verlust lag bei ~10 euro pro platte.

alternativ kannst du die platten auch ausbauen und am pc auslesen, entweder per linux oder mit einer datenrettungssoftware. leider ist es so, das auch basis-volumes als raid angelegt werden - hat den nachteil das man ein basis-volume eben nicht mal eben mit dem ext2 driver unter windows auslesen kann.
 

PeterG

Benutzer
Mitglied seit
12. Sep 2008
Beiträge
472
Punkte für Reaktionen
0
Punkte
0
Hi,
Rettung des RAID kommt nur in Betracht, wenn das mit den Mitteln/Möglichkeiten auf der DS geht; ich hätte nicht mal einen PC, wo ich 4 SATA-Platten anstöpseln könnte. Die Rettungsmöglichkeit per mdadm hatte ich gefunden und probiert; da macht mir leider ein bug der Version 2.6.7 einen Strich durch die Rechnung, wie es scheint (dazu habe ich im Datenrettungsthread geschrieben; ist da m. E. auch besser aufgehoben).
Inzwischen habe ich zumindest das Grundsystem wieder am Laufen; das war hier ja mein Hauptproblem, für das ich auch keine Lösung gefunden hatte. Reset zur Neuinstallation klappte ja leider nicht. Ich habe die Kiste dann einmal mehr ohne Platten hochgefahren; das funktionierte ja und dann wollte der DS Assistant das System auch einrichten. Dann habe ich die Platten eingeschoben und gewartet, bis alle Status-LEDs der Plattenschächte an waren und die Einrichtung fortgesetzt. Das hat dann schließlich geklappt, Systempartition wurde formatiert, Firmware wieder eingespielt.

Gruß
Peter
 

PeterG

Benutzer
Mitglied seit
12. Sep 2008
Beiträge
472
Punkte für Reaktionen
0
Punkte
0
Hi,
ja, das hatte ich auch so verstanden. Deshalb habe ich auch versucht, das raid mit mdadm wieder hinzubekommen; leider mit Fehlermeldung (die soweit ich es verstanden habe, nicht an Fehlern des Raid sondern an der Version von mdadm liegen soll). Was tun, Ideen, Vorschläge? Allerdings wohl besser im Datenrettungsthread...

Gruß
Peter
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat