Diskstation 416J - SHR 2/4 Festplatten gleichzeitig defekt -

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
@Lusaca in deinem Sceenshot pool1.png wurde doch vorgeschlagen, den Pool mit den 2 intakten und der einen schwer fehlerhaften Platte online zu nehmen. Hattest du das mal versucht?
Ja hab ich ist aber fehlgeschlagen!

Das problem ist das die HDD2 (mit den defekten sektoren) diese grad angestiegen sind, damit sich das clonen weiter nach hinten zieht.

MFG
 

Syno-OS

Benutzer
Mitglied seit
23. Jun 2020
Beiträge
361
Punkte für Reaktionen
64
Punkte
28
Ihr klont ja mal ganz fleissig, aber wer hat gesagt, dass es die letzte HDD war, die ausgefallen ist, hast du mit mdadm die 5 Partition überprüft, ob da die letzte funktionierende Konfiguration enthalten ist, sehr wahrscheinlich ist es die 2., aber genau wissen wir es nicht, daher:

mdadm -E /dev/sd[abcd}5
 

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
Ihr klont ja mal ganz fleissig, aber wer hat gesagt, dass es die letzte HDD war, die ausgefallen ist, hast du mit mdadm die 5 Partition überprüft, ob da die letzte funktionierende Konfiguration enthalten ist, sehr wahrscheinlich ist es die 2., aber genau wissen wir es nicht, daher:

mdadm -E /dev/sd[abcd}5
Hallo. Weil ich weis welche Festplatten betroffen sind:

HDD1 (/dev/sda) total ausfall, die ist auch nicht mehr rettbar von meiner seite, hdd2 (/dev/sdb) sektoren. Siehe Bilder in dem einen thread.

Aber ich kopiere sowieso alle 3 Festplatten

aber hier noch der output:
Code:
/dev/sda5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9fe4adc8:0f77b23e:e26aa87c:99e7561c
           Name : DiskStation:2
  Creation Time : Mon Jul  3 19:25:46 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7804374912 (3721.42 GiB 3995.84 GB)
     Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 4d5738fd:ca7cdcf3:d21a6858:7298c86b

    Update Time : Wed Feb  7 13:15:56 2024
       Checksum : 79dd2f5f - correct
         Events : 639670

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9fe4adc8:0f77b23e:e26aa87c:99e7561c
           Name : DiskStation:2
  Creation Time : Mon Jul  3 19:25:46 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7804374912 (3721.42 GiB 3995.84 GB)
     Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 4d5738fd:ca7cdcf3:d21a6858:7298c86b

    Update Time : Wed Feb  7 13:15:56 2024
       Checksum : 79dd2f5f - correct
         Events : 639670

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9fe4adc8:0f77b23e:e26aa87c:99e7561c
           Name : DiskStation:2
  Creation Time : Mon Jul  3 19:25:46 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7804374912 (3721.42 GiB 3995.84 GB)
     Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : eaa34d10:70ee1515:4d9d8fb3:f819b6f8

    Update Time : Thu Feb  8 12:28:34 2024
       Checksum : 963f4c26 - correct
         Events : 644818

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : ..AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 9fe4adc8:0f77b23e:e26aa87c:99e7561c
           Name : DiskStation:2
  Creation Time : Mon Jul  3 19:25:46 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7804374912 (3721.42 GiB 3995.84 GB)
     Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 4092c400:4ad82998:fbb94570:dde689cf

    Update Time : Thu Feb  8 12:28:34 2024
       Checksum : 9d540dea - correct
         Events : 644818

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : ..AA ('A' == active, '.' == missing, 'R' == replacing)
 
Zuletzt bearbeitet:

Syno-OS

Benutzer
Mitglied seit
23. Jun 2020
Beiträge
361
Punkte für Reaktionen
64
Punkte
28
sdb:
Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)

scheint die richtige zu sein, da sind die 3 aktiven Festplatten sichtbar. sda ist wohl der Klon. Dann hoffe mal, dass die sdb das Klonen noch überlebt.
 

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
Das hoffe ich selbst auch, dadurch das hier soviele lesefehler sind, hoffe ich das nicht zuviele daten dann beschädigt sind..

Code:
dd: error reading '/dev/sdb': Input/output error
642411812+2162 records in
642413974+0 records out
2631327637504 bytes (2.6 TB, 2.4 TiB) copied, 105948 s, 24.8 MB/s
2646094979072 bytes (2.6 TB, 2.4 TiB) copied, 106942 s, 24.7 MB/s
dd: error reading '/dev/sdb': Input/output error
646017771+2163 records in
646019934+0 records out
2646097649664 bytes (2.6 TB, 2.4 TiB) copied, 106946 s, 24.7 MB/s
2648071258112 bytes (2.6 TB, 2.4 TiB) copied, 107082 s, 24.7 MB/s
 

Syno-OS

Benutzer
Mitglied seit
23. Jun 2020
Beiträge
361
Punkte für Reaktionen
64
Punkte
28
tja, Festplatten haben halt mechanische Teile und haben eine Lebensdauer, danach kann genau sowas passieren und meistens bei Festplatten aus der gleichen Serien, fallen diese auch zu selben Zeit aus.
Man kann es genauso machen wie bei der Deutschen Bahn, Wartung / Austausch schleifen lassen, das Ergebnis sieht man dann halt erst später...
 
  • Haha
Reaktionen: plang.pl

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
So damit ich jetzt im vornerein richrig liege:

Das NAS macht bei neuen Festplatten trotz der selben Daten Probleme und ich muss den verbund per CLI neu assemblen?
Da das clonen jetzt abgeschloßen ist aber die Seriennummer nicht identisch ist mekert DSM etwas.

Oder missversteh ich da gerade etwas?

Ich clone grad zur sicherheit sdc und sdd auch nochmal extra nur arbeitet das hier mit erhöhter Geschwindigkeit.

MFG
 

Anhänge

  • pool2.png
    pool2.png
    60,7 KB · Aufrufe: 9
  • putty1.png
    putty1.png
    73,4 KB · Aufrufe: 9

Synchrotron

Benutzer
Sehr erfahren
Mitglied seit
13. Jul 2019
Beiträge
4.733
Punkte für Reaktionen
1.694
Punkte
214
Frage 1: Klonst du auf der DS ?

Würde ich nicht machen. Docking Station für 2 HDDs, Bare Metal Clone.

Frage 2: Wenn auch die neuen Festplatten Probleme machen:

Stromversorgung schon geprüft ? Manchmal reicht es noch für die DS, aber nicht mehr für alle HDDs.

Eventuell ein Defekt der DS selbst ?
 

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
Ich habe zurzeit keine andere möglichkeit die HDDs anders zu klonen als über die DS selbst.
Die anderen festplatten gehen bei weitem schneller.

Stromversorgung sollte passen weil die alte HDD wurde auch erkannt, nur die neue die dann geklont ist nicht.
Bevor ich halt irgendwas per CLI umstelle sichere ich jede HDD manuell noch, damit ich spielraum für fehler habe.

Die DS selbst hat noch alle alten festplatten erkannt, selbst als ich mal versuchte die mit den defekten Sektoren auf den HDD1 slot angeschloßen habe.
 

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
So wie es aussieht war das klonen erfolgreich.

Code:
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md2 : active raid5 sda5[4] sdb5[1] sdd5[3] sdc5[2]
      11706562368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [_UUU]
      [>....................]  recovery =  0.1% (7074620/3902187456) finish=574.                   8min speed=112930K/sec

md1 : active raid1 sda2[0] sdc2[1] sdd2[3]
      2097088 blocks [4/3] [UU_U]

md0 : active raid1 sda1[0] sdc1[2] sdd1[3]
      2490176 blocks [4/3] [U_UU]

unused devices: <none>

Code:
root@NAS:~# mdadm --query --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Mon Jul  3 19:25:46 2017
     Raid Level : raid5
     Array Size : 11706562368 (11164.25 GiB 11987.52 GB)
  Used Dev Size : 3902187456 (3721.42 GiB 3995.84 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Feb 12 15:12:54 2024
          State : clean, degraded, recovering
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

 Rebuild Status : 0% complete

           Name : DiskStation:2
           UUID : 9fe4adc8:0f77b23e:e26aa87c:99e7561c
         Events : 645085

    Number   Major   Minor   RaidDevice State
       4       8        5        0      spare rebuilding   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5
       2       8       37        2      active sync   /dev/sdc5
       3       8       53        3      active sync   /dev/sdd5

Danke nochmal für die Hilfe.
 
  • Like
Reaktionen: Benares und dil88

Syno-OS

Benutzer
Mitglied seit
23. Jun 2020
Beiträge
361
Punkte für Reaktionen
64
Punkte
28
Ok, sieht soweit gut aus.
nur kleiner Tipp: Backup und alles neu erstellen... du weisst nicht was bei klonen abhanden gekommen ist und wie die alten Festplatten das Rebuild überstehen.
 

Lusaca

Benutzer
Mitglied seit
09. Feb 2024
Beiträge
13
Punkte für Reaktionen
3
Punkte
9
Nachdem der raid erstellt wurde wieder habe ich die festplatte vom clonen nochmal ausgebaut und formatiert und über nacht nochmal repariert, eben das die defekten sekore ausgemerzt werden.

Backup wird ne 16 tb hdd hinten angehängt die dann nen weekly backup nochmal macht.

zudem hab ich noch 2 hdds als reserve für den raid mittlerweile
 
Zuletzt bearbeitet:
  • Like
Reaktionen: ctrlaltdelete


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat