2x Nvme SSD-Cache - Laufwerkstatus: Erkannt

bonnma

Benutzer
Mitglied seit
10. Jan 2023
Beiträge
14
Punkte für Reaktionen
7
Punkte
53
Bei mir sind die 1 + 2 unter Laufwerksinformation bei integrierte M.2-Steckplätze beide grün.

Zeig mal bitte einen Screenshot von HDD/SSD oder schreib mal ob die M.2-Laufwerke dort angezeigt werden und welchen Status die haben.
 
  • Like
Reaktionen: wjavixxassuj

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
Wo steht das mit dem "Erkannt"?
@Ronny1978 Das problem sollte ja durch das Script umgangen werden
Speicher-Manager und dann Links im Menü "HDD/SSD"
@bonnma

1695407097921.png

Das problem sollte ja durch das Script umgangen werden
Ich habe jetzt kein Screenshot davon, aber diese Meldung habe ich erhalten, nachdem ich das Volumeerstellungsskript hab laufen lassen

Code:
Creating the RAID array. This will take a while...
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md3 started.
sudo -i /volume1/scripts/syno_create_m2_volume.sh      [>....................]                                                      [====================>]  resync = 100%%
Resync Duration: 4 hr 26 min

Creating a physical volume (PV) on md3 partition
  Physical volume "/dev/md3" successfully created

Creating a volume group (VG) on md3 partition
  Volume group "vg3" successfully created

Backed up synoinfo.conf

Enabled M.2 volume support.


Steps you need to do after running this script:
  1. After the restart go to Storage Manager and select online assemble:
       Storage Pool > Available Pool > Online Assemble
  2. Create the volume as you normally would:
       Select the new Storage Pool > Create > Create Volume
  3. Optionally enable TRIM:
       Storage Pool > ... > Settings > SSD TRIM
     SSD TRIM option is only available in DSM 7.2 Beta for RAID 1

Important
If you later upgrade DSM and your M.2 drives are shown as unsupported
and the storage pool is shown as missing, and online assemble fails,
you should run the Synology HDD db script:
https://github.com/007revad/Synology_HDD_db


Online assemble option may not appear in storage manager     until you reboot.
Type yes to reboot now.
Type anything else to quit (if you will reboot it yourself).

Mal ins "blaue" hinein: Kann es sein, kann es sein, dass Synology die SSD's nicht unterstützt? Hast du in letzter Zeit in Update gemacht? Evtl. gab es Update der Laufwerksdatenbank???
Das kann durchaus sein, da ich auf DSM 7.2-64570 Update 1 bin. Ich bin eigentlich immer ziemlich flott was Updates betrifft, heißt ich habe das schon etwas länger eingespielt und der Fehler tritt erst jetzt auf.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Was wird dir bei "Aktion" angezeigt?
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
1695408016612.png1695408022254.png

1695408038093.png
1695408006354.png


Hab das HDD Skript nochmal im Putty laufen lassen. Werde die Kiste jetzt nochmal neustarten und schauen was passiert.
Code:
root@SynologyNAS:/volume1/script# ./syno_hdd_db.sh
Synology_HDD_db v3.1.64
DS720+ DSM 7.2-64570-1
Using options:
Running from: /volume1/script/syno_hdd_db.sh

HDD/SSD models found: 1
ST10000DM0004-1ZC101,DN01

M.2 drive models found: 2
M Series NVMe SSD 128G,S0614B0
M Series NVMe SSD 128G,T1103F0L

No M.2 PCIe cards found

No Expansion Units found

ST10000DM0004-1ZC101 already exists in ds720+_host.db
ST10000DM0004-1ZC101 already exists in ds720+_host_v7.db
ST10000DM0004-1ZC101 already exists in ds720+_host.db.new
M Series NVMe SSD 128G already exists in ds720+_host.db
Updated M Series NVMe SSD 128G to ds720+_host_v7.db
M Series NVMe SSD 128G already exists in ds720+_host.db.new
M Series NVMe SSD 128G already exists in ds720+_host.db
Updated M Series NVMe SSD 128G to ds720+_host_v7.db
M Series NVMe SSD 128G already exists in ds720+_host.db.new

Support disk compatibility already enabled.

Support memory compatibility already enabled.

M.2 volume support already enabled.

Drive db auto updates already enabled.

DSM successfully checked disk compatibility.

You may need to reboot the Synology to see the changes.
 
Zuletzt bearbeitet von einem Moderator:

maxblank

Benutzer
Contributor
Sehr erfahren
Mitglied seit
25. Nov 2022
Beiträge
2.429
Punkte für Reaktionen
1.196
Punkte
224
  • Like
Reaktionen: Benie und plang.pl

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Wenn das auch nicht hilft, kannst du mal die Ausgabe von cat /proc/mdstat hier posten. Da wird aber denke ich kein Cache gelistet.
@maxblank So wie ich den TE verstehe, möchte er aber wieder einen Cache einrichten
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
@plang.pl
root@SynologyNAS:~# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sata1p5[0] sata2p5[1]
9761598976 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
2490176 blocks [2/2] [UU]

unused devices: <none>

Ich würde tatsächlich ein Volume einrichten wollen. Die Kommentare hier haben mich überzeugt, dass ein Cache nicht viel Sinn macht :)

@maxblank
schaue ich mir mal an. Danke.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Das ist schön. Das sehe ich ähnlich und du wirst es nicht bereuen!
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
Code:
root@SynologyNAS:~# sudo ls /dev/nvm*
/dev/nvme0  /dev/nvme0n1  /dev/nvme0n1p1  /dev/nvme0n1p3  /dev/nvme1  /dev/nvme1n1  /dev/nvme1n1p1
Hier weiß ich jetzt nicht, wie ich die zweite SSD löschen kann. Den Befehl "sudo synopartition --part /dev/nvme0n1 12" konnte ich absetzen, formatiert aber nur eine SSD. Wie muss ich den Befehl anpassen, damit auch die zweite SSD entsprechend formatiert wird?

Anleitung durchgegangen und "pvdisplay" war das letzte wo ich der Anleitung folgen konnte

Code:
root@SynologyNAS:~# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1
  PV Size               9.09 TiB / not usable 2.94 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              2383202
  Free PE               95
  Allocated PE          2383107
  PV UUID               c9KzVh-f94K-T490-0IK7-9qtT-bi0y-rUnZyR

  "/dev/md3" is a new physical volume of "114.74 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/md3
  VG Name
  PV Size               114.74 GiB
  Allocatable           NO
  PE Size               0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               c29Tmy-k7CL-592u-o77q-otmU-lJ7I-YRhjl7

Der nachfolgende Befehl war dann schon nicht mehr möglich.

Code:
root@SynologyNAS:~# vgcreate vg1 /dev/md3
  /dev/vg1: already exists in filesystem
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Also ich kenne nur diese Anleitung und meines Wissens funktioniert die immernoch:
Bash:
**Admin:** sudo -i

**Devices anzeigen:** ls /dev/nvme*

**Infos anzeigen:** fdisk -l /dev/nvme#n1

**Partitionierung:** synopartition --part /dev/nvme#n1 12

**Infos anzeigen:** fdisk -l /dev/nvme#n1

**bestehende Speicherpoole auslesen:** cat /proc/mdstat

**In den folgenden Befehlen ist # die nächste fortlaufende Zahl nach Anzeige der Speicherpools

**Ohne RAID:** mdadm --create /dev/md# --level=1 --raid-devices=1 --force /dev/nvme#n1p3

**Als RAID1:** mdadm --create /dev/md# --level=1 --raid-devices=2 --force /dev/nvme#n1p3 /dev/nvme#n1p3

**Folgenden Befehl ausführen, um zu überprüfen, wann der Vorgang abgeschlossen ist:** cat /proc/mdstat

**Dateisystem ext4:** mkfs.ext4 -F /dev/md#

**Dateisystem btrfs:** mkfs.btrfs -f /dev/md#

**Reboot**

**Dann Volume noch im Speichermanager "Online zusammenstellen"**

# ist zu ersetzen durch deine Gegebenheiten
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
@plang.pl

Code:
root@SynologyNAS:~# sudo ls /dev/nvm*
/dev/nvme0  /dev/nvme0n1  /dev/nvme0n1p1  /dev/nvme0n1p3  /dev/nvme1  /dev/nvme1n1  /dev/nvme1n1p1

Wie muss den der "synopartition" Befehl hier aussehen?

Ich vermute mal
synopartition --part /dev/nvme0n1 13
synopartition --part /dev/nvme1n1 1
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Nein. Muss so aussehen:
Bash:
synopartition --part /dev/nvme0n1 12
synopartition --part /dev/nvme1n1 12
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
@plang.pl
danke. Bin mal gespannt

Code:
root@SynologyNAS:~# cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 nvme1n1p3[1] nvme0n1p3[0]
      120317760 blocks super 1.2 [2/2] [UU]
      [=>...................]  resync =  5.1% (6198144/120317760) finish=8.2min speed=229560K/sec

md2 : active raid1 sata1p5[0] sata2p5[1]
      9761598976 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Wird bei dir wahrscheinlich in max 15min durch sein
 

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
Der ganze Prozess ist durch, ähnlich zu gestern.

Ich kann trotzdem kein Volume über den Speichermanager stellen. Fehlermeldung ist dieselbe wie weiter oben in den Screenshots.
@plang.pl

Code:
root@SynologyNAS:~# cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 nvme1n1p3[1] nvme0n1p3[0]
      120317760 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sata1p5[0] sata2p5[1]
      9761598976 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata1p2[0] sata2p2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sata1p1[0] sata2p1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>

Code:
root@SynologyNAS:~# mkfs.ext4 -F /dev/md3
mke2fs 1.44.1 (24-Mar-2018)
/dev/md3 contains a LVM2_member file system
Creating filesystem with 30079440 4k blocks and 7520256 inodes
Filesystem UUID: cf77cc96-e93c-4b91-9c87-db1b1a7af24f
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872

Allocating group tables: done

Code:
root@SynologyNAS:~# mkfs.btrfs -f /dev/md3
btrfs-progs v4.0
See http://btrfs.wiki.kernel.org for more information.

Performing full device TRIM (114.74GiB) ...
Label:              (null)
UUID:               2df0e0c4-0fef-4ebf-83d8-2e098587b01b
Node size:          16384
Sector size:        4096
Filesystem size:    114.74GiB
Block group profiles:
  Data:             single            8.00MiB
  Metadata:         DUP               1.01GiB
  System:           DUP              12.00MiB
SSD detected:       no
Incompat features:  extref, skinny-metadata
Number of devices:  1
Devices:
   ID        SIZE  PATH
    1   114.74GiB  /dev/md3
 
Zuletzt bearbeitet:

wjavixxassuj

Benutzer
Mitglied seit
19. Sep 2021
Beiträge
101
Punkte für Reaktionen
10
Punkte
68
Ich habe jetzt beide NVMe's ausgebaut und sie in Crystaldiskinfo geprüft. Gesundheitszustand 62% finde ich auch etwas krass. Die NVMe hatte ich im Juni 2022 gekauft, also gerade einmal 1 Jahr alt.

Ich kann die NVMe's in Windows problemlos nutzen. In der Syno funktionieren sie nicht, auch nicht mit der Anleitung.
Schade. Jemand eine Idee, welche NVMe zuverlässig über längere Zeit in der Syno funktioniert?
 

Anhänge

  • 2023-09-23-02h36m-DiskInfo64_435.png
    2023-09-23-02h36m-DiskInfo64_435.png
    69,6 KB · Aufrufe: 8
  • 2023-09-23-02h37m-DiskInfo64_769.png
    2023-09-23-02h37m-DiskInfo64_769.png
    69,6 KB · Aufrufe: 8

Ronny1978

Benutzer
Mitglied seit
09. Mai 2019
Beiträge
613
Punkte für Reaktionen
159
Punkte
63
Hallo @wjavixxassuj und in die Runde,

ich frage jetzt mal nach, auch wenn ich nicht so versiert wie einige hier bin:

- gekauft im Juni 2022??? 128GB??? (die SSDs mit 128GB sind doch schon länger Auslaufmodel, wo hast du die gekauft?
- im Juni 2022? Das kommt mit den 11500 Stunden exakt hin, wenn du die wirklich am 01.06.2022 eingebaut hast und das NAS wirklich durchgelaufen ist --> dennoch 82x eingeschaltet??? Meine Nvme von Ironwolf haben 20.000 Stunden und sind 12x eingeschalten worden? Und mein NAS läuft auch 24/7
- Was läuft denn auf dem NAS, was viele Schreibvorgänge auslöst? 66TB Schreiben, aber "nur" 4,7TB Lesen???
- Die Nvme's haben "nur" noch 62% der Lebensdauer und du hast jetzt schon soviel probiert, was bei anderen klappt und bei dir nicht. Ist es nicht einfacher auf dem Blackfriday/Cybermonday zu warten und dort mal zu schauen, ob es es nicht 480GB Nvme's gibt, die für NAS ausgelegt sind? Und evtl. auch auf der Kombatibilitätsliste von Synology stehen? Selbst eine 1TB (960GB) Nvme kostet ja nicht mehr die Welt.

Bitte nur als freundliche Fragen und Vorschläge verstehen UND ich weiß, dass dies alles nicht dein Problem löst. Aber ich würde keine Nvme einbauen, die "nur" noch bei 62% steht und dann ein RAID 1 aufbauen, was dann nur 4 Monaten kaputt geht und man "nur" 128 GB hat. Was willst du denn darauf laufen lassen??? ;)
 
  • Like
Reaktionen: maxblank

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Das Problem mit den kleineren SSDs ist, dass diese eine kurze Lebensdauer haben. Wichtig ist bei SSDs im NAS, dass diese eine hohe TBW Leistung haben. Das ist die Schreibleistung, die der Hersteller garantiert. Bei der Verwendung als Cache fliegen die SSDs sofort raus, wenn die Lebensdauer erreicht ist. Bei der Verwendung als Volume ist das nicht der Fall. Dennoch ist das der ausschlaggebende Wert für die Lebensdauer. Größere SSDs haben i.d.R. eine deutlich höhere TBW als die kleinen Modelle.
Warum allerdings die SSDs als Volume nicht funktionieren, kann ich mir nicht erklären. Hast du es genau so gemacht, wie in meiner Anleitung? Auch mit Neustart und "Online Zusammenstellen"?
Ich kann trotzdem kein Volume über den Speichermanager stellen.
Das sollst du ja auch nicht. Das läuft alles über CLI.

Du hattest nirgends geschrieben, welche M.2 du genau verbaut hast, oder? Ich gehe davon aus, dass es diese hier sind: https://geizhals.de/integral-m-series-m-2-2280-pcie-nvme-ssd-128gb-inssd128gm280nm1-a2413895.html. Die haben eine TBW von 64TB. So eine niedrige TBW habe ich selten gesehen und für die Verwendung in einem Server sind die NULL geeignet. Vor allem nicht als Cache. Die 970 EVO in der 1TB Version hat zum Vergleich eine TBW von 600TB (https://geizhals.de/samsung-ssd-970-evo-plus-1tb-mz-v7s1t0bw-a1972735.html)
 
  • Like
Reaktionen: Benie und maxblank

maxblank

Benutzer
Contributor
Sehr erfahren
Mitglied seit
25. Nov 2022
Beiträge
2.429
Punkte für Reaktionen
1.196
Punkte
224
Liegt es vielleicht daran, dass die TBW bereits erreicht bzw. überschritten sind und DSM daher die Erstellung nicht mehr zulässt?!?

Ganz im Ernst: Schmeiß diese NVMEs aus dem NAS raus, hol entsprechend Neue und verbaue diese dann. Das ist langsam den ganzen Aufwand hier nicht mehr wert.
 
  • Like
Reaktionen: Benie

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.180
Punkte für Reaktionen
4.915
Punkte
519
Das würde ja bei der Verwendung als Cache gelten. Die Verwendung als Volume sollte aber dennoch möglich sein, wenn auch nicht mehr sinnvoll.
Wenn das hier stimmt:
Dann ist die TBW von 64 TB tatsächlich überschritten und die SSD ist eigentlich für die Tonne. Leider kenne ich mich mit SMART-Werten von SSDs und deren Umrechnung nicht aus. Noch verstehe ich, wieso dann der Health-Status in Crystal Disk Info nicht auf 0% ist.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat