Seite 1 von 8 123 ... LetzteLetzte
Ergebnis 1 bis 10 von 79
  1. #1
    Anwender Avatar von Supaman
    Registriert seit
    26.01.2007
    Beiträge
    1.447

    Standard [how-to] Defektes Raid-5 wiederherstellen

    was war passiert:

    config: cs406 mit 4x 500 gb @raid-5

    beim starten der platten aus dem hibernation mode ist platte #4 nicht aufgewacht -> cs406 meckert, raid-redunanz nicht mehr da. cube station neu gestartet, übers web-interface gestartet, alles wieder gut.

    einen tag später: selber effekt, platte #4 wacht nach hbernation mode nicht auf, box neu gestartet, nur ist dieses mal beim neustart die platte #1 zusätzlich ausgefallen -> 2 platten ausgefallen -> raid defekt und per webinterface nicht reparierbar.

    (wie ich später gesehen habe, war die ursache das der stromstecker nicht richtig drin war)

    da auf dem raid keine schreibzugriffe stattgefunden haben zur der zeit, *mussten* die daten noch ok sein, nur das raid war als "ungültig" deklariert. ich hab dann zur sicherheit erstmal 1:1 kopieren der platten an einem anderen rechner gemacht.

    der rest war einfacher als ich dachte:

    ACHTUNG: einloggen als "root", nicht als "admin" - das passwort ist das gleiche!
    (weil halbfett anscheinend nicht reicht, jetzt in EXTRA groß und roter farbe... )

    raid stoppen:
    mdadm --stop /dev/md2
    raid reparieren für 4-platten systeme (CS-406, CS-407, DS-408)
    mdadm --assemble --force -v /dev/md2 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
    raid reparieren für 5-platten systeme (DS-508):
    mdadm --assemble --force -v /dev/md2 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sde3
    dauert nur ein paar sekunden, es werden ein paar meldungen ausgegeben, sofern möglich wird der superblock neu geschrieben.

    den status kann überprüfen mit
    mdadm --query --detail /dev/md2
    neu starten, das "volume1" sollte jetzt wieder verfügbar sein. dann letzte platte übers webinterface reparieren (syncen) lassen und alles ist wieder ok.

    mein persönlicher erfahrungsbericht, alle angaben ohne gewähr.

    gruß,

    supa
    Geändert von Supaman (23.07.2010 um 19:10 Uhr)

  2. #2
    Anwender
    Registriert seit
    21.01.2007
    Beiträge
    89

    Standard

    Das hatte ich auch schonmal hier beschrieben:

    http://www.synology-forum.de/showthr...ighlight=mdadm

  3. #3

    Böse ähnliche situation

    hi guys,

    bitte nicht lachen über meine fragen - ich weiss es einfach nicht besser - trotzdem danke erst einmal für diese tolle anleitung - nur leider funktioniert diese bei mir nicht!

    wenn ich mich über telnet an meiner rs-406 fw 2.0.3 0518 angemeldet habe & zb den befehl: "mdadm --stop /dev/md2" eingebe, kommt: permission denied! oder hätt' ich mich anders anmelden müssen?

    was nun?

    situation ist bei mir ähnlich wie von "supaman" beschrieben, nur dass es bei mir während eines schreibzugriffes passierte.

    PS.: eigentlich hatte ich gelesen, dass bei "mdadm --stop ..." alle daten verloren gehen würden? stimmt aber laut euren aussagen nicht. oder was ist nun richtig?

    derverzweifelteNEWBYsoftwareRAIDrebuilder

  4. #4
    Anwender
    Registriert seit
    13.01.2008
    Beiträge
    30

    Standard

    Hi bjoernsøn,

    hast Du dich als Benutzer "root" mit Deinem Admin-Passwort (das gleiche wie auf der Webconsole) eingeloggt. So sollte es gehen.

    Zum Vorgehen an sich kann ich Dir leider nix sagen.

    Grüße!

  5. #5
    Anwender Avatar von Supaman
    Registriert seit
    26.01.2007
    Beiträge
    1.447

    Standard

    du musst dich als "root" einloggen nicht als unterprivilegierter user. und das man an einem raid-system nur rumschrauben sollte, wenn es OFFLINE ist, sollte klar sein.. deshlab "mdadm --stop". da gehen keine daten verloren, das raid ist während der zeit nur nicht übers netzwerk zugreifbar.

  6. #6

    Standard

    danke für die raschen antworten! die schritte haben soweit nachvollziehbar geklappt, aber das resultat: volume1 weiterhin abgestürzt 0.00GB mit 3hdds.

    hat noch jemand eine idee?

  7. #7
    Anwender
    Registriert seit
    13.01.2008
    Beiträge
    30

    Standard Auch betroffen :-(

    Hallo zusammen,

    habe gestern hier noch selbst geantwortet, jetzt selbst das RAID 5 kaputt (4*250GB).
    Ich schreibe auch hier im Thread weil meine Problematik so ähnlich wie bei Supaman und Bjornson ist und es vielleicht auch Bjornson helfen könnte. Hoffe das ist recht so.

    Offenbar konnten bei mir die Platten nicht mehr erwachen. Da die Cubestation hing (kein Webinterface, nix, kein Ausschalten per blauem Knopf möglich) habe ich letztendlich den Strom kurz unterbrochen.

    Nach dem Reboot piepen und die Meldung:

    Volume [1] was degrade, please repair it.

    Es lag laut Webmanagementtool angeblich an Platte 3, die bis zum Reboot nicht erkannt wurde.
    Habe alle Steckern der vier Platten neu draufgesteckt, rebootet und das Volume über das Webmanagementtool repariert.
    Im Systemlog stand dann:

    System starts to repair Volume [1] with disk [3].

    Dann war er recht schnell fertig (gefühlt 3 Minuten) aber offenbar nicht erfolgreich, im Log stand nun:

    Volume [1] was crashed.

    Seit dem stand im Volumemanager:
    Dieses Volume kann nicht verwendet werden, bitte entfernen Sie es.

    Habe mich dann per SSH eingeloggt, das RAID angehalten und dann den Trick von Supaman ausprobiert mit folgendem Ergebnis:

    CubeStation> mdadm --assemble --force -v /dev/md2 /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
    mdadm: looking for devices for /dev/md2
    mdadm: /dev/sda3 is identified as a member of /dev/md2, slot 0.
    mdadm: /dev/sdb3 is identified as a member of /dev/md2, slot 1.
    mdadm: /dev/sdc3 is identified as a member of /dev/md2, slot 4.
    mdadm: /dev/sdd3 is identified as a member of /dev/md2, slot 3.
    mdadm: added /dev/sdb3 to /dev/md2 as 1
    mdadm: no uptodate device for slot 2 of /dev/md2
    mdadm: added /dev/sdd3 to /dev/md2 as 3
    mdadm: added /dev/sdc3 to /dev/md2 as 4
    mdadm: added /dev/sda3 to /dev/md2 as 0
    mdadm: /dev/md2 has been started with 3 drives (out of 4) and 1 spare.


    Cubestation dann rebootet.

    Es steht aber immer noch, daß das RAID nicht verwendet werden kann und entfernt werden muß. Dennoch steht bei allen vier Festplatten als Festplattenstatus: Normal.

    Was kann ich tun? Meine Idee bis jetzt: noch eine Festplatte kaufen (mindestens auch 250GB), dann an Stelle der bemängelten dritten einbauen (Slot 2, richtig?).
    Dann die CubeStation nochmal starten und hoffen dass sich was tut.

    Könnt ihr auch mir bitte weiterhelfen? Was sagt ihr, was kann ich tun?

    Viele Grüße,

    Ralf

  8. #8
    Anwender Avatar von Supaman
    Registriert seit
    26.01.2007
    Beiträge
    1.447

    Standard

    mal eines vorweg: die beschriebene vorgehensweise ist dazu gedacht ein raid zu reparieren, das *eigentlich* ok sein müsste und nur von der raid-definiton defekt ist. nicht geeignet bei physikalischen defekten, was naheliegt wenn der repair mit fehler abbricht.

    1. wenn dir deine daten lieb sind: mach eine 1:1 kopie jeder platte BEVOR du weiter rumprobierst.
    2. die defekte platte auf jeden fall ersetzen
    3. synology-support kontaktieren oder das ganze nochmal versuchen
    4. falls nicht erfolgreich: versuchen die daten mit raid geeigneten tools zu recovern

  9. #9
    Anwender
    Registriert seit
    13.01.2008
    Beiträge
    30

    Standard

    Hallo Supaman,

    zunächst mal herzlichen Dank für Deine Antwort.

    Habe mich noch ein bißchen mit dem Thema beschäftigt und mir auch mdadm ein bischen angeschaut.

    Habe also heute:
    - eine neue Platte gekauft
    - die alte ausgebaut und neu gebootet -> dann sagt er wieder "degraded"
    - die neue eingebaut und neu gebootet -> jetzt kann man wieder "Repair" drücken!
    - dann habe ich also repariert und bin davor sitzen geblieben. Er war wieder nach kurzer Zeit fertig und behauptete "Einstellungen erfolgreich geändert".

    Wieder im "Volume" Fenster, sehe ich immer noch "abgestürzt", aber alle Platten im Festplattenstatus: normal

    Habe wieder neu gebootet, dachte vielleicht liegt es daran.
    Also neu gebootet, wieder Piepen, wieder "crashed".

    Dann habe ich mal in letzter Verzweiflung versucht den Status des RAID abzufragen, und jetzt staune ich (Status von jetzt):

    CubeStation> mdadm --query --detail /dev/md2
    /dev/md2:
    Version : 00.90.03
    Creation Time : Tue Dec 25 22:46:10 2007
    Raid Level : raid5
    Array Size : 728635776 (694.88 GiB 746.12 GB)
    Device Size : 242878592 (231.63 GiB 248.71 GB)
    Raid Devices : 4
    Total Devices : 4
    Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Wed Jan 16 20:51:58 2008
    State : clean, degraded, recovering
    Active Devices : 3
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 1

    Layout : left-symmetric
    Chunk Size : 64K

    Rebuild Status : 7% complete

    UUID : 6717a492:6d8e6704:17f23fb9:fa70a163
    Events : 0.307152

    Number Major Minor RaidDevice State
    0 8 3 0 active sync /dev/hda3
    1 8 19 1 active sync /dev/hdb3
    4 8 35 2 spare rebuilding /dev/hdc3
    3 8 51 3 active sync /dev/hdd3


    Gehe ich also recht in der Annahme, daß meine CubeStation fleißig dabei ist das Array wieder aufzubauen?
    Dann müßte ich nur warten bis er fertig ist und könnte dann wieder arbeiten (und erstmal *komplett* sichern, hab bisher nur ne Teilsicherung)?
    Das würde bedeuten, daß die Meldungen der CubeStation einfach irreführend wären, oder?

    Und: geht das Volume nur, wenn alle vier Platten funktionieren? Dachte es läuft auch mit drei, nur langsamer.

    Mich wundert nur, wieso da /dev/hda3, /dev/hdb3, /dev/hdc3, /dev/hdd3 steht. Dachte das wären /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3?

    Und: in dem Webmanagementtool zeigt er bei Volume immer noch, daß Volume1 nicht nutzbar wäre und ersetzt werden müsse sowie Gesamtgröße 0 und Ungenutzte Größe 0.

    @Supaman, was weißt Du mehr? Ist wieder alles ok wenn der Rebuild gelaufen ist?

    @bjoernson: vielleicht geht es bei Dir auch so?

    Viele Grüße,

    Ralf

    P.S.: Jetzt ist er bei 10%. Würde mal spontan mit 4 Stunden Aufbauzeit für die 230GB-Platte rechnen.
    Geändert von Rca1234 (16.01.2008 um 21:32 Uhr) Grund: Komisches im Webfrontend hinzugefügt

  10. #10
    Anwender
    Registriert seit
    13.01.2008
    Beiträge
    30

    Pfeil Noch etwas mehr Hoffnung aber noch keine Lösung

    Hallo zusammen,
    besonders Supaman und auch björnson!

    Nachdem ich meine Cube 4 Stunden habe werkeln lassen ist das RAID *grundsätzlich* wieder repariert:

    CubeStation> cat /proc/mdstat
    Personalities : [raid0] [raid1] [raid5]
    md2 : active raid5 sda3[0] sdb3[1] sdc3[2] sdd3[3]
    728635776 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

    md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3]
    393472 blocks [4/4] [UUUU]

    md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
    787072 blocks [4/4] [UUUU]

    unused devices: <none>

    CubeStation> mdadm --query --detail /dev/md2
    /dev/md2:
    Version : 00.90.03
    Creation Time : Tue Dec 25 22:46:10 2007
    Raid Level : raid5
    Array Size : 728635776 (694.88 GiB 746.12 GB)
    Device Size : 242878592 (231.63 GiB 248.71 GB)
    Raid Devices : 4
    Total Devices : 4
    Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Thu Jan 17 06:48:05 2008
    State : clean
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0

    Layout : left-symmetric
    Chunk Size : 64K

    UUID : 6717a492:6d8e6704:17f23fb9:fa70a163
    Events : 0.307155

    Number Major Minor RaidDevice State
    0 8 3 0 active sync /dev/hda3
    1 8 19 1 active sync /dev/hdb3
    2 8 35 2 active sync /dev/hdc3
    3 8 51 3 active sync /dev/hdd3
    CubeStation>


    Mit diesen beiden Befehlen sieht man wie gesagt auch den Status w&#228;hrend des Recoverys.

    Stand nun:
    RAID ist wieder ok, Cube meldet in der Websoftware aber immer noch, da&#223; das Volume1 crashed ist und ersetzt werden mu&#223;. Erst dann (!) habe ich die Cube runtergefahren und schaue heute abend wieder (also reboot erst heut abend).

    (jetzt wirds auch f&#252;r bj&#246;rnson wieder interessant)

    Warum? Habe mal in die messages des Betriebssystems geschaut und festgestellt, da&#223; die Cube da irgendwelche Dinge macht (da laufen viele Skripte wenn ich das richtig verstehe). Am Ende konnte jedenfalls Volume1 nicht gemountet werden. Ich vermute deshalb steht in der Websoftware auch, da&#223; Volume1 kaputt ist.

    @bj&#246;rnson *NAT&#220;RLICH OHNE GEW&#196;HR*: Ich k&#246;nnte mir denken, da&#223; bei Dir die Situation &#228;hnlich ist. Vielleicht magst Du auch einfach die Kiste einschalten und pr&#252;fen, ob sich Dein RAID selbstt&#228;tig recovered (falls Du es Dir zutraust. Hinweis: den Status des RAIDS abfragen zerst&#246;rt *keine* Daten). Dann w&#228;rst Du quasi so weit wie ich jetzt auch.

    Werde heute abend die Station neu booten und hoffen, da&#223; es dann klappt.

    Frage nur: was, wenn Volume1 immer noch nicht gemountet werden kann, was kann man dann tun?
    Bei nem "normalen" Laufwerk k&#246;nnte man fsck aufrufen aber wie ist das bei dieseem RAID?

    Viele Gr&#252;&#223;e,

    Ralf
    Geändert von Rca1234 (17.01.2008 um 13:10 Uhr)

Seite 1 von 8 123 ... LetzteLetzte

Ähnliche Themen

  1. RAID DiskStation 107+
    Von oddme im Forum Raid Konfiguration
    Antworten: 5
    Letzter Beitrag: 26.10.2007, 13:56
  2. CS407e 4 Platten als non-raid (kein Volume) möglich?`
    Von tzdn im Forum Raid Konfiguration
    Antworten: 1
    Letzter Beitrag: 14.07.2007, 14:12
  3. RAID Konfiguration CS-406
    Von SmAsTeR im Forum Raid Konfiguration
    Antworten: 8
    Letzter Beitrag: 13.07.2007, 09:17
  4. RAID 5 wieviel % kann die Festplatten gefüllt werden?
    Von Frosch im Forum Raid Konfiguration
    Antworten: 5
    Letzter Beitrag: 27.04.2007, 22:28
  5. RAID 0+1 Unterstüzung für CS-406
    Von SmAsTeR im Forum Raid Konfiguration
    Antworten: 2
    Letzter Beitrag: 15.02.2007, 14:48

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •