Volume abgestützt – Ursache❓

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

geimist

Benutzer
Sehr erfahren
Maintainer
Add-on Developer
Registriert
04. Jan. 2012
Beiträge
5.952
Reaktionspunkte
1.708
Punkte
234
Hallo zusammen,

in einem NAS in der Familie ist letzte Nacht das Volume (2x WD red Plus 6TB CMR [WD60EFZX-68B3FN0] SHR) abgestützt. Es lässt sich auch nicht wieder beschreibbar konfigurieren. Nachts gab es im Log die Warnung "System booted up from an improper shutdown.". Eine USV gibt es nicht, aber Schreibcache der HDDs ist deaktiviert. Da der Router nicht neustartete, ist ein Stromausfall unwahrscheinlicher.

Das Backup ist wenige Tage alt. Aber bevor ist das Volume lösche, wollte ich euch mal fragen, was ihr für eine Ursache als wahrscheinlich erachtet.

Code:
root@NAS-NGD:~# smartctl -A -d sat -T permissive /dev/sata1
smartctl 6.5 (build date Sep 26 2022) [x86_64-linux-4.4.302+] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME                                                   FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate                                              0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time                                                     0x0027   184   182   021    Pre-fail  Always       -       9800
  4 Start_Stop_Count                                                 0x0032   096   096   000    Old_age   Always       -       4002
  5 Reallocated_Sector_Ct                                            0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate                                                  0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours                                                   0x0032   073   073   000    Old_age   Always       -       20074
 10 Spin_Retry_Count                                                 0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count                                          0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count                                                0x0032   097   097   000    Old_age   Always       -       3384
192 Power-Off_Retract_Count                                          0x0032   200   200   000    Old_age   Always       -       3
193 Load_Cycle_Count                                                 0x0032   199   199   000    Old_age   Always       -       4056
194 Temperature_Celsius                                              0x0022   125   111   000    Old_age   Always       -       27
196 Reallocated_Event_Count                                          0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector                                           0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable                                            0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count                                             0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate                                            0x0008   100   253   000    Old_age   Offline      -       0

root@NAS-NGD:~# smartctl -A -d sat -T permissive /dev/sata2
smartctl 6.5 (build date Sep 26 2022) [x86_64-linux-4.4.302+] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME                                                   FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate                                              0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time                                                     0x0027   184   183   021    Pre-fail  Always       -       7758
  4 Start_Stop_Count                                                 0x0032   096   096   000    Old_age   Always       -       4026
  5 Reallocated_Sector_Ct                                            0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate                                                  0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours                                                   0x0032   051   051   000    Old_age   Always       -       36392
 10 Spin_Retry_Count                                                 0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count                                          0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count                                                0x0032   097   097   000    Old_age   Always       -       3407
192 Power-Off_Retract_Count                                          0x0032   200   200   000    Old_age   Always       -       6
193 Load_Cycle_Count                                                 0x0032   199   199   000    Old_age   Always       -       4085
194 Temperature_Celsius                                              0x0022   126   113   000    Old_age   Always       -       26
196 Reallocated_Event_Count                                          0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector                                           0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable                                            0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count                                             0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate                                            0x0008   100   253   000    Old_age   Offline      -       0

root@NAS-NGD:~#
 
Zuletzt bearbeitet:
Da die Smart-Werte unauffällig sind, fällt mir nur noch ein evtl. schwächelndes Netzteil ein.
Hat das NAS denn gebootet? (uptime)
 
Da das NAS nachts 4:30 Uhr durch sein piepen als Wecker fungiert hat, wurde es da (ordnungsgemäß) ausgeschaltet. Vorher aber die Meldung, dass es eben nicht ordnungsgemäß heruntergefahren wurde.

Netzeil 🤔 … gute Idee. Kann man das mit einem Multimeter messen? Ich gehe mal davon aus, dass im Fall eines schwächelnden Netzteils die Spannung passt, aber die Leistung ggf. zusammenbricht?
Alternative kam mir noch der RAM in den Sinn (Es ist eine DS224+ mit zusätzlichen 8GB von speicher.de).

Ist es aus eurer Sicht sinnvoll, den Support anzufragen, ob sie das Volume reparieren können?
 
Würde auch eher wissen, um welches NAS es sich hier handelt? DSM aktuell, nehme ich an?
Irgendwas hat das System zum Abstürzen gebracht, sei es Software-/Hardwarefehler oder eben Stromschwankungen wie @Benares gemeint hat. C2538-Bug ausgeschlossen (Modell 15-18)?
 
Etwas mysteriös, sind das CMR oder SMR WDs?
 
  • Like
Reaktionen: ctrlaltdelete
Wenn das Volume bzw. die Shares drauf noch lesbar sind, nochmal ein aktuelles Backup ziehen.
 
BTRFS oder ext4
Ich vermute auch Stromschwankung und oder schwächelndes Netzteil.
Falls es BTRFS ist, kannst du mal hier schauen:

Code:
cat /proc/mdstat
mdadm --detail /dev/md2
btrfs device stats /volume1
dmesg | egrep -i "btrfs|md|i/o|ata|error|fail"
 
Code:
root@NAS-NGD:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sata2p5[0] sata1p5[1]
      5855691456 blocks super 1.2 [2/2] [UU]
     
md1 : active raid1 sata2p2[0] sata1p2[1]
      2097088 blocks [2/2] [UU]
     
md0 : active raid1 sata2p1[0] sata1p1[1]
      2490176 blocks [2/2] [UU]
     
unused devices: <none>
root@NAS-NGD:~#

Code:
root@NAS-NGD:~# mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Wed Aug  4 12:53:54 2021
     Raid Level : raid1
     Array Size : 5855691456 (5584.42 GiB 5996.23 GB)
  Used Dev Size : 5855691456 (5584.42 GiB 5996.23 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Tue Oct 21 10:25:14 2025
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : NAS-NGD:2  (local to host NAS-NGD)
           UUID : 925da496:9d916232:6b4607b2:eae2bb94
         Events : 9591

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sata2p5
       1       8        5        1      active sync   /dev/sata1p5
root@NAS-NGD:~#

Code:
root@NAS-NGD:~# btrfs device stats /volume1
[/dev/mapper/vg1-volume_1].write_io_errs   0
[/dev/mapper/vg1-volume_1].read_io_errs    0
[/dev/mapper/vg1-volume_1].flush_io_errs   0
[/dev/mapper/vg1-volume_1].corruption_errs 0
[/dev/mapper/vg1-volume_1].generation_errs 0
root@NAS-NGD:~#

Code:
oot@NAS-NGD:~# dmesg | egrep -i "btrfs|md|i/o|ata|error|fail"
[23125.979074] md2: [Self Heal] Retry sector [3772424] round [2/2] start: choose disk [1:sata1p5]
[23125.979094] md2: [Self Heal] Retry sector [3772416] round [2/2] finished: get same result, retry next round
[23125.979099] md2: [Self Heal] Retry sector [3772416] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.979106] md2: [Self Heal] Retry sector [3772432] round [1/2] finished: get same result, retry next round
[23125.979110] md2: [Self Heal] Retry sector [3772432] round [2/2] start: choose disk [1:sata1p5]
[23125.979147] md2: [Self Heal] Retry sector [3772440] round [1/2] finished: get same result, retry next round
[23125.979156] md2: [Self Heal] Retry sector [3772424] round [2/2] finished: get same result, retry next round
[23125.979182] md2: [Self Heal] Retry sector [3772432] round [2/2] finished: get same result, retry next round
[23125.979690] md2: [Self Heal] Retry sector [3772432] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.979693] md2: [Self Heal] Retry sector [3772424] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.979695] md2: [Self Heal] Retry sector [3772440] round [2/2] start: choose disk [1:sata1p5]
[23125.979759] md2: [Self Heal] Retry sector [3772440] round [2/2] finished: get same result, retry next round
[23125.979766] md2: [Self Heal] Retry sector [3772440] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.979782] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 2
[23125.980103] md2: [Self Heal] Retry sector [1675264] round [1/2] start: choose disk [0:sata2p5]
[23125.980111] md2: [Self Heal] Retry sector [1675272] round [1/2] start: choose disk [0:sata2p5]
[23125.980117] md2: [Self Heal] Retry sector [1675280] round [1/2] start: choose disk [0:sata2p5]
[23125.980124] md2: [Self Heal] Retry sector [1675288] round [1/2] start: choose disk [0:sata2p5]
[23125.980166] md2: [Self Heal] Retry sector [1675264] round [1/2] finished: return result to upper layer
[23125.980203] md2: [Self Heal] Retry sector [1675272] round [1/2] finished: return result to upper layer
[23125.980239] md2: [Self Heal] Retry sector [1675280] round [1/2] finished: return result to upper layer
[23125.980274] md2: [Self Heal] Retry sector [1675288] round [1/2] finished: return result to upper layer
[23125.980297] md2: [Self Heal] Retry sector [1675264] round [1/2] start: choose disk [0:sata2p5]
[23125.980305] md2: [Self Heal] Retry sector [1675272] round [1/2] start: choose disk [0:sata2p5]
[23125.980311] md2: [Self Heal] Retry sector [1675280] round [1/2] start: choose disk [0:sata2p5]
[23125.980317] md2: [Self Heal] Retry sector [1675288] round [1/2] start: choose disk [0:sata2p5]
[23125.980362] md2: [Self Heal] Retry sector [1675264] round [1/2] finished: get same result, retry next round
[23125.980367] md2: [Self Heal] Retry sector [1675264] round [2/2] start: choose disk [1:sata1p5]
[23125.980399] md2: [Self Heal] Retry sector [1675272] round [1/2] finished: get same result, retry next round
[23125.980404] md2: [Self Heal] Retry sector [1675272] round [2/2] start: choose disk [1:sata1p5]
[23125.980425] md2: [Self Heal] Retry sector [1675264] round [2/2] finished: get same result, retry next round
[23125.980436] md2: [Self Heal] Retry sector [1675280] round [1/2] finished: get same result, retry next round
[23125.980439] md2: [Self Heal] Retry sector [1675264] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.980442] md2: [Self Heal] Retry sector [1675280] round [2/2] start: choose disk [1:sata1p5]
[23125.980473] md2: [Self Heal] Retry sector [1675288] round [1/2] finished: get same result, retry next round
[23125.980484] md2: [Self Heal] Retry sector [1675272] round [2/2] finished: get same result, retry next round
[23125.980487] md2: [Self Heal] Retry sector [1675272] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.980490] md2: [Self Heal] Retry sector [1675288] round [2/2] start: choose disk [1:sata1p5]
[23125.980504] md2: [Self Heal] Retry sector [1675280] round [2/2] finished: get same result, retry next round
[23125.980509] md2: [Self Heal] Retry sector [1675280] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.980550] md2: [Self Heal] Retry sector [1675288] round [2/2] finished: get same result, retry next round
[23125.980556] md2: [Self Heal] Retry sector [1675288] round [5/2] error: cannot find a suitable device, bio sector length [8], request_cnt [2]
[23125.980572] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 1
…

Auch in /var/log/messages hagelt es zu Hauf btrfs Fehler und der DSM ist sehr träge.

Code:
…
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.739387] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.759552] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.759607] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.760338] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.760497] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.761047] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.761416] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.761796] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.762289] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.762654] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 837648384, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.763205] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 1
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20494.763967] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 2
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20498.259992] btree_readpage_end_io_hook: 4620 callbacks suppressed
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20498.259993] parent transid verify failed on 836173824 wanted 9347344 found 9198743
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20498.260667] parent transid verify failed on 836173824 wanted 9347344 found 9198743
2025-10-21T16:05:36+02:00 NAS-NGD kernel: [20498.260670] BTRFS error (device dm-1): BTRFS: dm-1 failed to repair parent transid verify failure on 836173824, mirror = 1
…
 
Ich kann ja nicht einmal das Volume löschen, da es für 3 Shares unveränderliche Schnappschüsse gibt 🙄
 
  • Like
Reaktionen: ctrlaltdelete
Willst du versuchen die Metadaten zu reparieren?
 
Ich hab halt Null Erfahrung in dieser Ecke.
Da es ein aktuelles Backup gibt, hätte ich jetzt einfach das Volume neu aufgesetzt. Die Snapshots hindern mich aber gerade daran …
 
OP am offenen Herzen, alles auf eigene Gefahr:
1. Alle Dienste stoppen
2. Ruhe herstellen
sync
umount /volume1 2>/dev/null || mount -o remount,ro /volume1
3. Journal wiederbeleben :cool:
btrfs rescue zero-log /dev/mapper/vg1-volume_1
4. Sichtprüfung, bitte Ergebnis posten
btrfs check --readonly /dev/mapper/vg1-volume_1 | tee /root/btrfs-check.ro.txt
5. Dann ggf.
btrfs rescue super-recover /dev/mapper/vg1-volume_1

6. Wenn das nicht hilft, dann:
btrfs rescue chunk-recover -y /dev/mapper/vg1-volume_1

Bis hierhin ist ohne Gefahr, der repair Befehl ist dann etwas "härter"!

7.und letzte Chance:
btrfs check --repair /dev/mapper/vg1-volume_1

Und wenn alles wieder läuft sofort:
btrfs scrub start -Bd /volume1
btrfs device stats /volume1
 
Zuletzt bearbeitet:
Vielen Dank euch allen für euren Input.
Zusätzlich hab ich jetzt einfach auch mal ein Supportticket eröffnet. Vielleicht sind sie ja lieb.

Ich werde mich melden.
 
  • Like
Reaktionen: ctrlaltdelete
Hast du vor kurzem ein DSM Update gemacht? Bzw. auf welcher DSM Version ist die DS?
 
Kein DSM-Update (bis auf ein paar Pakete). Es war der aktuelle Stand vor 7.3.
 
  • Like
Reaktionen: ctrlaltdelete
Der Support kann so etwas eigentlich reparieren, eben genau mit den BTRFS Tools
 
Ich werde berichten :)
(falls er sich nicht an den Overraming stört :ROFLMAO:)
 
  • Haha
Reaktionen: ctrlaltdelete

Additional post fields

 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat