Consumer SSDs statt DataCenter SSDs?

  • Ab sofort steht euch hier im Forum die neue Add-on Verwaltung zur Verfügung – eine zentrale Plattform für alles rund um Erweiterungen und Add-ons für den DSM.

    Damit haben wir einen Ort, an dem Lösungen von Nutzern mit der Community geteilt werden können. Über die Team Funktion können Projekte auch gemeinsam gepflegt werden.

    Was die Add-on Verwaltung kann und wie es funktioniert findet Ihr hier

    Hier geht es zu den Add-ons

Status
Für weitere Antworten geschlossen.

martin234

Benutzer
Registriert
24. Juli 2014
Beiträge
13
Reaktionspunkte
0
Punkte
0
Hallo zusammen,
ich möchte ein Rs1619xs+ mit 4x 1 TB SSDs ausstatten. Die von Synology empfohlenen SSDs sind entweder nicht (mehr) lieferbar oder kosten 2-3x so viel wie eine hochwertige Consumer SSD.

Wie sind Eure Erfahrungen - müssen es diese DataCenter SSDs sein oder funktioniert das ganze auch mit Consumer SSDs, z.B. https://www.amazon.de/Samsung-MZ-76...s=samsung+1tb&qid=1568876129&s=gateway&sr=8-1

mit welchen SSDs habt ihr gut Erfahrungen gemacht?

Viele Grüße
Martin
 
Funktionieren wird das mit Sicherheit. Wie gut, das hängt von dem Workload ab. Den hast du nicht umrissen, warum?
 
Hi,
Danke für deine Antwort. Laufen soll eine Ubuntu VM mit einem Praxis-Verwaltungsprogramm auf das 4 Clients zugreifen werden. Dann noch ein bisschen file Sharing zwischen den Clients.
 
Alternativ bieten sich Intel D3S4510 960GB an, diese sind garnicht so viel teuerer und haben Powerloss Protection.
 
Ich habe eine Samsung Evo 860 mit 1TB drin und bisher null Probleme.
TBW => 600 TB

Bei dem vom User "Firebl" genannten Intel-Modell liegt die TBW beim 6-fachen. Dafür kostet sie halt auch etwas mehr.
 
Hallo,
ich habe jetzt die RS1619xs+ mit 4x Kingston SEDC500R960G SSD im RAID5 konfiguriert. Das lief jetzt 3 Wochen problemlos. Auf der Maschine läuft ein Ubuntu mit einer Praxissoftware. Jetzt gab es gestern und vorgestern Nacht die Fehlermeldung "Retry error occurs on disk [/dev/sdd]." und dann "Laufwerk 4 auf RS1619xs+ wird beim Hochfahren des Synology NAS neu verbunden".
Schreibcache ist ausgeschaltet. Die Smartwerte der Platten sind in Ordnung, auch sonst keine Anzeige von Fehlern. Nur die VM funktioniert nicht mehr sauber, nachdem das ganze passiert ist, Das Dateisystem geht in einen Read Only Mode:
/dev/sda1 on / type ext4 (ro,relatime,errors=remount-ro,data=ordered)

Habt ihr eine Idee, woran das liegen kann? und warum fängt das RAID 5 nicht solche Fehler vernünftig ab?
 
1. Hätte ich bei Einsatz im Gegensatz zu meinen Vorschreibern im betrieblichen Umfeld niemals zu einer normalen SSD geraten, denn alle Tests sagen eindeutig, dass deren Lebensdauer in einem NAS begrenzt ist.
2. Setze ich nach Empfehlung von Synology auf der gleichen Maschine (allerdings mit Erweiterungseinheit) 2 kleine Samsung SSDpro ein, auf denen nichts anderes läuft als die VM. Da hat es noch nie Probleme gegeben.
Woran jetzt dein Problem liegt ist schwer zu sagen, aber die Fehlerursdache ist eine der SSDs. Ggf mal die Steckverbindung zu dieser SSD überprüfen.
Wenn dir die Erweiterungseinheit fehlt rate ich dir dein System zu splitten, entweder auf 2xSHR1 mit je 2 SSDs oder 3+1, dann hat die VM keine Ausfallsicherheit.
 
Habt ihr eine Idee, woran das liegen kann?
Checke mal die Smartwerte der SSD.
Überprüfe den richtigen Sitz der SSD.
Bau sie aus und prüfe die Kontakte.

alle Tests sagen eindeutig, dass deren Lebensdauer in einem NAS begrenzt ist.
Du hast bis heute nicht den Unterschied zwischen der Verwendung einer SSD als Cache oder als Volume erkannt. Aber vielleicht ist das wie mit dem Router und dem Switch, wo du behauptet hast, dass der Router im Mittelpunkt eines Netzwerkes steht und partout nicht glauben wolltest, dass es der Switch ist.

Da hat es noch nie Probleme gegeben.
Bei einer Testgruppe von 2 ist diese Aussage wertlos.

aber die Fehlerursdache ist eine der SSDs
Absolutismus ist zwar deine Spezialität, aber eng verwandt mit dem Dilettantismus.

Ggf mal die Steckverbindung zu dieser SSD überprüfen
Hier könntest du eine Spur gefunden haben. Der Fehler könnte auch in einer Lötstelle in der DS oder SSD liegen.

rate ich dir dein System zu splitten, entweder auf 2xSHR1 mit je 2 SSDs oder 3+1, dann hat die VM keine Ausfallsicherheit.
Erst sagst du, dass er total schlechte und falsche SSDs hat und nun soll er zur Problemlösung einfach alles umbauen. Damit baut man das Problem nur um, aber findet und beseitigt es nicht.
 
Das Problem wäre nicht so tiefgreifend wenn VM und normale Nutzung der RS getrennt wären. Irgendwie logisch oder?
Wenn du schon Erbsen zählen willst dann lese erst mal richtig bevor du schreibst: Ich habe ihm zuu etwas geraten und nicht gesagt dass er es tun soll.
Wie immer von dir nur Korinthen kacken......Hauptsache man irgendwo dran rummäkeln.
 
oha.... danke. Habe die SSD ausgebaut und schaue nun erneut. Klar kann man VM und FileSharing trennen. Aber aus meiner Sicht sollten Kingston DataCenter SSDs (es sind keine Consumer!), die 3 Wochen laufen sowohl im RAID 5 als auch im Raid 1 durchhalten.
 
Ich habe genau die gleiche Konstellation wie @martin234 (nehme auch an, dass es dasselbe Patienten-VErwaltungsprogramm ist - Epikur?) Läuft bei mir auch in einer VM via Ubuntu (und zwar in der DS3018xs mit 32 GB Ram, Zugriff von 6 Clients, 24/7 in Betrieb, 4 HDDs, RAID 10).

Ich weiss, dass der Zugriff auf SSDs, auf denen eine virtuelle Maschine läuft, viel schneller/geschmeidiger ist als bei HDDs. Aber: Wie sieht es mit der Langlebigkeit/Datensicherheit/Stabilität bei SSDs aus? Unser Patientenverwaltungsprogramm (dessen Datenbank natürlich auf allen möglichen Wegen gesichert wird) darf keinesfalls korrumpiert werden. Daher hatte ich mich (bislang) entschieden, es auf den von Synology empfohlenen HDDs laufen zu lassen (Seagate IronWolf).

Oder gibt es, bzgl. Datensicherheit (Lese/Schreibprozesse) da keine Unterschiede (mehr)? Es wäre natürlich fatal, wenn eine SSD mit einem für uns so zentralen Programm wesentlich früher abschmieren würde, als eine HDD. Klar, eine HDD hat eine Mechanik, die irgendwann auch den Geist aufgibt - aber: Würdet ihr in einem Produktivsystem mit häufigen Zugriffen auf viele kleine Dateien (Datenbankabfragen) SSDs bevorzugen, oder doch auf HDDs setzen? (die Zugriffsgeschwindigkeit ist für uns jetzt nicht so entscheidend).
Als "Zwischenlösung" habe ich zumindest eine SSD als reinen Lesecache eingebaut (und nicht als Schreibcache, wegen der bekannten TBW-Problematik).
 
Zuletzt bearbeitet:
Solange die BTW Grenze nicht deutlich überschritten ist, zeigen eigentlich alle Langzeit Tests, dass SSD in Sachen Langlebigkeit nicht schlechter als HDD sind. Eine Ausnahme sind Platten die wirklich lange Zeit stromlos sind. Für den Safe sind SSD im Gegensatz zu HDD nicht geeignet.
Zum Thema Ironwolf. Die Empfehlung für diese Platten beruht auf einer Vertriebspartnerschaft der beiden Firmen und nicht auf einer besseren Eignung der Platten.

PS Nachtrag bezüglich Korrumpierung sehe ich auch eher den Vortei, bei SSD, da hier schleichende Fehler eher selten sind. Wie bei großen c't SSD Langzeittest 1/2017 getestet, fielen eigentlich alle SSD weit nach der TBW Grenze aus, dann aber total.
 
Besten Dank für die Info!
 
Nach einem knappen Jahr und Extremnutzung (>70 Nutzer) mit vielen kleinen Dateien laufen die Samsung Pro SSDs immer noch klaglos.
Inzwischen bietet WD auch Server SSDs an zu einem guten Preis. Ist vielleicht eine Alternative.
SSD als Cache allerdings ist ein Graus!
Wegen Datensicherheit, diese VM läuft auf einem SHR1 mit 2 SSDs, da mache ich mir eigentlich keine Sorgen. Wiederherstellung aus einem Backup klappt auch extrem schnell.
Da hoffe ich auf DSM7, denn da wird die Nutzung der VM und auch Backup nochmal extrem vereinfacht.
 
Danke, die Server SSDs schaue ich mir an.
 
HI, zwar schon etwas älter und Staub drauf, aber ich bin gerade auf der Suche nach einer SSD, hatte die

Crucial BX500 2TB 3D NAND SATA 2,5 Zoll​

ins Auge gefasst. hat die schon wer im Einsatz? wollte zwei davon als Raid laufen lassen und 2 4TB HDD dann auch als raid für die Datenablage. Auf die SSD's sollen dann VM und Docker Container.... ein Umzug weg von Synology auf proxmox kostet mich jetzt zu viel Zeit, denke das wäre eine schnelle Lösung. Hatte was gelesen, einige SSD's werden wohl recht heiß...
 
Ich will es mal so sagen: Die BX500 würde ich mal zu spielen oder testen einsetzen, oder in einem PC oder Notebook der/das ggf. mal ein paar Stunden am Tag im Betrieb ist, ab nicht wirklich im produktiven Dauerbetrieb in einem NAS. Da würde ich aktuell - bei 2 TB - z.B. eher auf die WD Red SA500 setzen - auch wenn die natürlich 'ne Ecke mehr kosten.

Ja auch SSD wie die WD Red SA500 (oder Ähnliche) können defekt gehen, aber es wird schon seine Gründe haben warum Crucial die BX500 nur mit 3 Jahren Garantie (MX500 = 5 Jahre) und mit geringeren TBW-Werten angibt.

Wenn die SDD im NAS wenig beansprucht würde dann wäre das ggf. noch akzeptabel, aber gerade darauf laufende VM und Docker Anwendungen dürften dann wohl für permanenter Last und somit Beanspruchung, auf den SSD sorgen.

VG Jim
 
OK, unter 200€ das Teil... so viel teurer ist die wirklich nicht. Wobei, wenn ich die als raid betreibe und eine ausfällt, ist es halt so. Mal schauen...habe gesehen, hab noch eine kleine M.2 hier rumliegen, die könnte ja mal zuerst in den Cache Schacht versenkt werden...und mal testen.
 
In meiner DS720+ steckt im Moment auch nur eine billige 250 GB SSD die ich hier noch herumliegen hatte. :) Wie gesagt zum spielen und testen für VMs erst einmal vollkommen ok. Für einen produktiven Dauereinsatz würde ich die halt nicht nutzen.

VG Jim
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat