Alle RAID5 Platten eines Storage Pools einer Extension sind auf einmal crashed

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Vielen Dank fuer Eure Einschaetzungen der Lage (y)

Es gibt mittlerweile neue Ergebnisse:

Der SMART Test der 5ten Platte brach immer mit "interrupted" ab. Daraufhin zogen wir die Platten 1-4 aus der Extension raus. Dann lief der SMART Test durch. Die Werte sehen aehnlich aus wie bei den anderen Platten. Es gibt auch wieder bei 199 Werte.
1694877845764.png
Auffaellig ist dass alle 5 Platten bei 199 Werte haben und nicht nur eine Platte. Das spricht dafuer dass wohl die Extension oder die Verbindung von der NAS dorthin ein Problem hat. Aehnliches vermutet Ihr ja auch: Entweder die Extension HW, das Kabel oder das Netzteil.

Was haben wir gemacht:
1) Das Verbindungskabel von NAS zur Extension mehrere Male aus- und eingesteckt um moegliche Kontakprobleme zu beseitigen
2) Die 5 Platten mehrere Male aus- und eingesteckt aus selbigen Gruenden

Wie kann man jetzt zuverlaessig pruefen ob die beiden Massnahmen etwas verbessert haben? Leider sind seit dem Ausfall des Storagepools keine IO Errors mehr im Log zu sehen. Waeren die weiterhin gekommen und jetzt ploetzlich weg waere das ein Indiz.

Bei den UDMA CRC Fehlern wird als moeglicher Grund genannt:
1) Kalte Loetstelle in der Extension
2) Staub im Gehaeuse
3) Kontaktprobleme
Interessanterweise wird nicht ein defektes Netzteil in dem Kontext genannt.

Wie wuerdet Ihr jetzt weiter vorgehen? Das Problem ist dass wir sicher sein wollen dass die Ursache beseitigt wird bzw wurde denn dem RAID5 vertrauen wir natuerlich nur dann. Ansonsten kann das Problem ja immer wieder auftreten.

Die Tatsache dass der SMART Test bei der 5ten Platte nur durchlaeuft wenn eine Platte drinsteckt weist irgendwie auf das Netzteil hin. Allerdings passt das nicht da die ersten 4 Platten getestet werden konnten als alle 5 Platten in der Extension steckten. Gibt es einen einfachen Weg das Netzteil zu pruefen?

In dem Kontext mal eine andere Frage: Haetten wir jetzt eine weitere Extension und wuerden dort die 5 Platten reinstecken und an die NAS anschliessen: Wuerde das RAID5 wieder einen normalen Status bekommen oder muss das RAID5 neu initialisiert werden? Wie schon erwaehnt koennen von dem RAID5 ohne Probleme die Daten gelesen werden. Oder geht das nur vermittels mdadm als root auf der NAS dann man den Status des RAID5 wieder auf OK setzen kann?
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.310
Punkte für Reaktionen
2.870
Punkte
423
Das spricht dafuer dass wohl die Extension oder die Verbindung von der NAS dorthin ein Problem hat.
Deshalb mag ich diese DXen auch nicht, zumal viel zu teuer. Besser ist ein NAS, das alles intern verbaut hat.
Schau einfach, ob deine Maßnahmen Erfolg hatten oder ob der 199 weiter hochläuft
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Schau einfach, ob deine Maßnahmen Erfolg hatten oder ob der 199 weiter hochläuft
Das werden wir sicherlich beobachten. Allerdings wissen wir nicht ob der 199 ursaechlich fuer das Problem ist oder nur nebensaechlich :(
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.310
Punkte für Reaktionen
2.870
Punkte
423
Der 199iger deutet auf Kontaktprobleme hin, egal ob lokal oder remote. Einfach weiter im Auge behalten.
 

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
8.592
Punkte für Reaktionen
1.434
Punkte
288
Damals bei meinen Problemen mit dem UDMA_CRC_Error_Count war es ein defekter PCI-SATA-Hostadapter und keine Kontaktprobleme. Zusätzlich zu den Fehlern in ID199 gab es in der Ereignisanzeige von Windows immer wieder mal Controllerfehler, welche meistens über kurz oder lang in Bluescreens endeten.
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
8.592
Punkte für Reaktionen
1.434
Punkte
288
Klar, denn die Platten in der Erweiterung hängen über einen Portmultiplier an einem einzigen Port des Hostadapters. Selbst wenn alle Platten einen eigenen Port am kaputten Hostadapter hätten, wäre es möglich, das alle Platten betroffen wären. Keine Ahnung, ob die E-SATA-Ports der DS am gleichen Hostadapter wie die intern hängen. Auch der Portmultiplier könnte als Ursache für die Fehler in ID199 in Frage kommen.
 
  • Like
Reaktionen: framp

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Wie hast Du rausgefunden dass es der Hostadapter war?
 

synfor

Benutzer
Sehr erfahren
Mitglied seit
22. Dez 2017
Beiträge
8.592
Punkte für Reaktionen
1.434
Punkte
288
Ein Indiz waren die Meldungen über Controllerfehler in der Ereignisanzeige von Windows. Nachdem die Platten samt alten Kabeln in einen neuen Rechner (ohne den zusätzlichen PCI-SATA-Hostadapter) überführt wurden, gab dort keine neuen Fehler mehr in ID199 und auch keine Controllerfehler mehr.
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Ah ... jetzt verstehe ich. D.h. Du hattest den SMART Fehler auf einer Windows Box mit einem buggy SATA Adapter und nicht auf einer Syno bzw Extension. Klar ist die beste Loesung die Extension mit neuer HW auszutauschen. Das ist leider nicht die kostenguenstigste Loesung ☹️ Gehen wir mal davon aus dass das nicht die Ursache ist.

Die primaere Frage ist jetzt wie kann die Ursache am besten eingekreist werden :unsure:. Lassen wir den 199 mal im Hinterkopf aber aussen vor.
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54

Thonav

Benutzer
Sehr erfahren
Mitglied seit
16. Feb 2014
Beiträge
7.878
Punkte für Reaktionen
1.503
Punkte
274
Auf der gleichen Seite, bei der Du den Test gestartet hast, ganz nach unten scrollen und dort auf Details klicken.
Dann werden Dir die SMART-Werte der aktuell ausgewählten Festplatte angezeigt (wie in Deinem Screenshot weiter oben).
Nochmals auch von mir der Hinweis: Lass das mit diesen Tests - sind nicht notwendig und belasten die Festplatten sehr.
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Lass das mit diesen Tests - sind nicht notwendig und belasten die Festplatten sehr.
Ok. Danke fuer den Hinweis. War mir nicht so klar dass man die SMART Werte auch ohne extended Test erhaelt. Dann ist die Frage warum gibt es diesen extended Test ueberhaupt? Ist jetzt aber OT :)

Aber immerhin gibt es wohl eine gewisse Indikation auf eine unzureichende Stromversorgung denn der extended Test bei Platte5 laeuft nur wenn die Platte alleine in der Extension steckt.
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Bislang war ich der Meinung die DX513 hat ein externes Netzteil was einfach auszutauschen ist. So wird meine DS418Play mit Strom versorgt. Die DX513 hat allerdings wie ich jetzt gelernt habe ein internes Netzteil. So wie mir das Spare Netzteil aber im Netz aussieht ist es einfach das auszutauschen. Ist jedenfalls billiger als eine neue DX513 oder DX517 zu kaufen.
 

maxblank

Benutzer
Contributor
Sehr erfahren
Mitglied seit
25. Nov 2022
Beiträge
2.429
Punkte für Reaktionen
1.196
Punkte
224
Das sollte kein Problem darstellen…
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Sehe ich auch so. Ich bin demnaechst vor Ort (China) :)
 
  • Like
Reaktionen: maxblank

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
So. Ich habe jetzt mal die DX513 wie auch die DS1815 entstaubt mit Pressluft sowie in die DX513 ein neues Netzteil eingebaut. Jetzt druecken wir die Daumen dass das Probelm (SMART 199) jetzt weg ist.

Dann haben wir den crashed Storarge Pool geloescht und wollten ihn wieder neu anlegen. Da kam dann unerwartet folgende Fehlermeldung:

1696005276583.png
die natuerlich stutzig macht. Wieso wird die 5te Platte des Crashed Storage Pool in einem anderen Pool genutzt? Das kann nicht sein. Beim Anlegen des Pools wurden definitiv nur die 5 Platten genutzt und vorher wurde der andere Storagepool mit 8 Platten angelegt als die Extension noch nicht existierte. Ist also unmoeglich was die Fehlermeldung sagt.

Waere bloed eines der beiden aktiven Storagepools zu korrupten :-((

Um ganz sicher zu gehen habe ich mich mal in die Syno angemeldet und folgende Befehle mit ihren Ergebnissen abgesetzt:

Code:
for ((i=0; i<=4;i++)); do mdadm -D /dev/md$i; done
/dev/md0:
        Version : 0.90
  Creation Time : Sat Jan  1 08:00:04 2000
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Fri Sep 29 23:55:42 2023
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

           UUID : 0bf6ce6c:78459514:3017a5a8:c86610be
         Events : 0.675783

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       97        3      active sync   /dev/sdg1
       4       8       65        4      active sync   /dev/sde1
       5       8       81        5      active sync   /dev/sdf1
       6       8      113        6      active sync   /dev/sdh1
       7       8       49        7      active sync   /dev/sdd1
/dev/md1:
        Version : 0.90
  Creation Time : Mon Dec  9 02:08:01 2019
     Raid Level : raid1
     Array Size : 2097088 (2047.94 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Fri Sep 29 22:10:38 2023
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

           UUID : 9389bf34:5c5a0368:080031aa:62f2480a (local to host mtnas)
         Events : 0.204

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8      114        1      active sync   /dev/sdh2
       2       8       18        2      active sync   /dev/sdb2
       3       8       34        3      active sync   /dev/sdc2
       4       8       50        4      active sync   /dev/sdd2
       5       8       66        5      active sync   /dev/sde2
       6       8       82        6      active sync   /dev/sdf2
       7       8       98        7      active sync   /dev/sdg2
/dev/md2:
        Version : 1.2
  Creation Time : Fri Mar 20 21:42:43 2020
     Raid Level : raid5
     Array Size : 31236818176 (29789.75 GiB 31986.50 GB)
  Used Dev Size : 7809204544 (7447.44 GiB 7996.63 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Fri Sep 29 23:54:42 2023
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : mtnas:2  (local to host mtnas)
           UUID : 6105b0b6:d0cd58ff:5ae07be4:6d1eae0d
         Events : 31596

    Number   Major   Minor   RaidDevice State
       0       8      323        0      active sync   /dev/sdja3
       1       8      339        1      active sync   /dev/sdjb3
       2       8      355        2      active sync   /dev/sdjc3
       3       8      371        3      active sync   /dev/sdjd3
       4       8      387        4      active sync   /dev/sdje3
/dev/md4:
        Version : 1.2
  Creation Time : Sat Apr 29 16:26:43 2017
     Raid Level : raid5
     Array Size : 40989903808 (39091.02 GiB 41973.66 GB)
  Used Dev Size : 5855700544 (5584.43 GiB 5996.24 GB)
   Raid Devices : 8
  Total Devices : 8
    Persistence : Superblock is persistent

    Update Time : Fri Sep 29 23:54:58 2023
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : mtnas:4  (local to host mtnas)
           UUID : dd76cae0:7b413ed3:58b253fe:c8c90582
         Events : 108066

    Number   Major   Minor   RaidDevice State
       0       8       67        0      active sync   /dev/sde3
       1       8       83        1      active sync   /dev/sdf3
       2       8       99        2      active sync   /dev/sdg3
       9       8      115        3      active sync   /dev/sdh3
       6       8       19        4      active sync   /dev/sdb3
       4       8        3        5      active sync   /dev/sda3
      10       8       51        6      active sync   /dev/sdd3
       8       8       35        7      active sync   /dev/sdc3

sowie

Code:
blkid
/dev/mapper/vg3-volume_1: LABEL="1.42.6-8451" UUID="ae6a88e2-2121-40b1-a156-92303701ddb1" TYPE="ext4"
/dev/md2: LABEL="1.42.6-24922" UUID="0ba19161-c786-4870-a835-86891d5c2ba8" TYPE="ext4"
/dev/md0: LABEL="1.42.6-5004" UUID="f9fad540-c01a-41c6-ad02-6db390eed4a9" TYPE="ext4"
/dev/mapper/cachedev_0: LABEL="1.42.6-8451" UUID="ae6a88e2-2121-40b1-a156-92303701ddb1" TYPE="ext4"
/dev/mapper/cachedev_1: LABEL="1.42.6-24922" UUID="0ba19161-c786-4870-a835-86891d5c2ba8" TYPE="ext4"
/dev/sdb1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="873a0814-6b7d-45e9-9842-74e37cdc24df"
/dev/sdb2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="1fd270e7-a26e-4f07-9f03-1c79f2910018"
/dev/sdb3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="1b55fefe-4a73-14e9-d69b-f243ebfabda1" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="5b1cb309-16ec-4d9f-925d-66151d80ea7d"
/dev/sda1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9a8af2f1-eac3-4f32-8872-a374c099eff6"
/dev/sda2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="a811ff39-a3ac-4b7c-bd84-798ef6679025"
/dev/sda3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="20b1a1a1-d0b2-fbe3-92af-7e9c68085030" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="065764e7-d657-495c-b70c-2b50c03dd36f"
/dev/sdjb3: UUID="6105b0b6-d0cd-58ff-5ae0-7be46d1eae0d" UUID_SUB="a3efe323-2303-c89e-768d-c0ff62f588f3" LABEL="mtnas:2" TYPE="linux_raid_member" PARTUUID="8356b8fc-7a90-4c11-bd25-e2d86f09ab3e"
/dev/sdjc3: UUID="6105b0b6-d0cd-58ff-5ae0-7be46d1eae0d" UUID_SUB="f3b71841-d011-8f2f-f69b-fe3792d950f1" LABEL="mtnas:2" TYPE="linux_raid_member" PARTUUID="29722444-65a9-486d-8a60-54fdb9475d12"
/dev/sdjd3: UUID="6105b0b6-d0cd-58ff-5ae0-7be46d1eae0d" UUID_SUB="5ce61ac4-6c7e-02fd-bd1a-a308418231d0" LABEL="mtnas:2" TYPE="linux_raid_member" PARTUUID="c4007cc6-f42e-4e56-baa2-cedd5dbc3680"
/dev/sdje3: UUID="6105b0b6-d0cd-58ff-5ae0-7be46d1eae0d" UUID_SUB="062b70f9-6eba-df1e-5307-15dd007276dc" LABEL="mtnas:2" TYPE="linux_raid_member" PARTUUID="b5d173f7-ef5a-4a9e-8583-ac7025f854d2"
/dev/sde1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="3572458c-b21b-4f56-9c75-848360a6fdac"
/dev/sde2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="a7fd05b4-8923-45d5-a513-87aea28138fc"
/dev/sde3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="5eda5c45-8c44-9ced-3a9b-2d3e0513ac26" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="18e1581a-eb29-4079-ad02-f0e47aa0633a"
/dev/sdd1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="e26e7e3c-eaa2-4e4f-a0d7-a2a5bafd61f7"
/dev/sdd2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="d9e98f68-a725-4f13-8209-2537fda3a0c6"
/dev/sdd3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="7d738627-63fc-5eb8-58cb-70adc138198b" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="561310be-ee99-40b3-a9ee-ce34d7e48e52"
/dev/sdc1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="8f04ffc4-2db7-4bcc-99d1-b3885335ffc8"
/dev/sdc2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="0e4e995b-8281-45e8-8d09-b9f44f84cf67"
/dev/sdc3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="10031782-3651-9d8c-1730-2d2ba3e40e6f" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="8353b21b-a1a3-422f-9796-d5061bf2499e"
/dev/sdja3: UUID="6105b0b6-d0cd-58ff-5ae0-7be46d1eae0d" UUID_SUB="c4bcab61-196e-3a05-4ff3-81857f9a0dfa" LABEL="mtnas:2" TYPE="linux_raid_member" PARTUUID="eeb044ea-76a1-49c9-907b-e13f5674d5cd"
/dev/sdid1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="f1724a62-167f-4734-8821-56dfdb04a36c"
/dev/sdid2: UUID="e1758240-439c-d585-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="5f9cd9a3-dcc7-4802-916b-8a1808cab706"
/dev/sdh1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="62c410f1-1ed3-4dfb-9d0d-0defb2b4ced4"
/dev/sdh2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="af64d278-1d5d-434c-94d2-b7d28c93cf83"
/dev/sdh3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="c801b4cc-9905-0b88-a772-63f9a4b0a7db" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="566f5ad0-0d0e-4904-b078-b0ca3a7622e4"
/dev/sdg1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="de825639-3e94-4fa7-88ac-262de7d54987"
/dev/sdg2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="8b839157-b2fe-4c6f-9111-3fd3c6c354e3"
/dev/sdg3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="465cbf35-5a23-f37f-65e9-242b02d3b387" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="4a188a8d-62b1-46b4-8954-b2c80fb4f61d"
/dev/sdf1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="f0c7e9e4-e62b-41ce-8005-26ae0abe18c7"
/dev/sdf2: UUID="9389bf34-5c5a-0368-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="455c0950-346c-49ea-8f63-17fadbee9d25"
/dev/sdf3: UUID="dd76cae0-7b41-3ed3-58b2-53fec8c90582" UUID_SUB="a55704cc-0ca0-5118-a5f6-77435c9381e8" LABEL="mtnas:4" TYPE="linux_raid_member" PARTUUID="a561bb1d-292a-4dd8-836f-972fd93b3b21"
/dev/sdie1: UUID="0bf6ce6c-7845-9514-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="6c880f03-7698-4507-9a6e-a1ea7c8a7761"
/dev/sdie2: UUID="e1758240-439c-d585-0800-31aa62f2480a" TYPE="linux_raid_member" PARTUUID="bdefd414-75f1-40c4-ac7b-84db2df5eaf2"
/dev/zram0: UUID="f7bae8d8-9955-40a1-a1c6-2e9a0e61b575" TYPE="swap"
/dev/zram1: UUID="39093975-20e9-46a0-b8dd-8813e0234014" TYPE="swap"
/dev/zram2: UUID="bb5abeaa-8182-44a7-979b-1e7821a72ff6" TYPE="swap"
/dev/zram3: UUID="f298a634-7402-460a-aa0b-745635825360" TYPE="swap"
/dev/md1: UUID="b253be41-ec23-457a-bc87-f9694b5cf1f1" TYPE="swap"
/dev/synoboot1: SEC_TYPE="msdos" UUID="10DC-4556" TYPE="vfat" PARTUUID="738816f5-01"
/dev/synoboot2: SEC_TYPE="msdos" UUID="10E6-F11A" TYPE="vfat" PARTUUID="738816f5-02"
/dev/md4: UUID="NyznLv-fzms-2i7R-ajYg-JIPg-KlzE-FyOcND" TYPE="LVM2_member"
/dev/sdjb1: PARTUUID="d4e3474d-2311-489f-ba6f-135b979b3a27"
/dev/sdjb2: PARTUUID="1c319097-79fa-4a06-8104-a686f0437d45"
/dev/sdjc1: PARTUUID="ea3d08e8-36ce-4796-9a23-947e8f79b815"
/dev/sdjc2: PARTUUID="965f7af5-9558-429c-9fc1-eea5473e67e2"
/dev/sdjd1: PARTUUID="faac7357-53d3-4e7b-8eb8-90edd38149c7"
/dev/sdjd2: PARTUUID="84dbb5d2-60a7-4bfc-8b60-48ad54e8ac02"
/dev/sdje1: PARTUUID="3bff6a13-c506-41c8-97e3-77db958d597c"
/dev/sdje2: PARTUUID="c653d461-a6c6-4ed0-b8f3-4aedf736990f"
/dev/sdja1: PARTUUID="a4bf12dc-ffe2-4e32-8cf7-19e7d8f20f30"
/dev/sdja2: PARTUUID="d2933a16-a968-4859-90e3-8a844b984d1e"
/dev/sdib1: PARTUUID="c9a68b8a-60e9-497c-a3eb-99b40c3c006c"
/dev/sdib2: PARTUUID="a397fc6e-0bc3-456c-b2b6-402f32457c35"
/dev/sdib3: PARTUUID="a0da9511-f977-4fe7-aa6a-1bf01d288798"
/dev/sdic1: PARTUUID="897559b5-7766-4d8a-9c5b-70f6712f436c"
/dev/sdic2: PARTUUID="062b8819-a9c5-41ec-9313-f6acbc2539f4"
/dev/sdic3: PARTUUID="4fdea112-b618-472f-bac1-92616d6d7029"
/dev/sdia1: PARTUUID="81dd3086-715e-4ec1-aa29-8e224a9e6ab5"
/dev/sdia2: PARTUUID="a141ee67-863f-4ca2-81ff-2f6eebcff9b8"
/dev/sdia3: PARTUUID="006e19a7-31c1-463b-be1e-01f8ecf80e0a"
/dev/sdid3: PARTUUID="53d06a7d-b4ab-4305-9943-4c6c52ae7253"
/dev/sdie3: PARTUUID="861d3c1f-755a-4926-b9ea-4d789e13a3c6"

Man sieht dass /dev/md2 ein RAID5 nit 5 Platten ist und /dev/md4 ein RAID5 mit 8 Platten. /dev/md3 ist der crached Storagepool der geloescht wurde.

Es sind keine Platten zu entdecken aus dem crashed Storage Pool /dev/sdi zu sehen der in irgendwelchen Storages Pools genutzt wird.

Ist meine Analyse richtig, gibt es noch andere Moeglichkeiten das zu testen oder habe ich was uebersehen?
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Hat niemand eine Meinung dazu?
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Nachtrag: Die storagepools wurden definitiv nur innerhalb einer HW, also Extensions und DS1815 vorgenommen. Deshalb ist die Meldung absolut unverständlich :cry:
 

framp

Benutzer
Mitglied seit
19. Feb 2016
Beiträge
903
Punkte für Reaktionen
64
Punkte
54
Dauert schon etwas laenger wenn man von hier per VPN durch die chinesische Mauer nach USA geht und dann nach Deutschland um dieses Forum zu besuchen. Offensichtlich bremst die chinesische Mauer Traffic.

Anyhow: Wir haben jetzt mal den RAID5 Build fuer die Platten 1-4 angestossen und erzeugen dann Load auf den Storagepool und beobachten den SMART 199 Wert.

Scheint bislang noch niemand diese irritierende und ziemlich offensichtlich falsche Warnung bekommen zu haben :(
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat