DS918+ - SSD Cache hat TBW-Grenze erreicht und sind jetzt unbrauchtbar

Matthieu

Super-Moderator
Teammitglied
Mitglied seit
03. Nov 2008
Beiträge
13.200
Punkte für Reaktionen
81
Punkte
344
Die 960 EVO NVMe M.2 SSD hat laut Samsung aber 400TBW, wie bitte kann das in der kurzen Zeit verbraucht sein. Wir reden hier von knapp 6 Monaten.
Wenn ich die Data Units Write umrechne komm ich auch knapp 113TB. (221661604 Data Units Written * 512000 ) dann hab ich die bytes und in TB sind das dann rund 113TB.
Ich glaube du nutzt es einfach am Anwendungsfall vorbei. SMART zeigt, dass nur die wenigsten Daten tatsächlich jemals wieder gelesen werden. In den Spezifikationen finde ich eine Garantie für 100TBW für die 960 NVME 250GB:
https://www.samsung.com/semiconductor/minisite/ssd/product/consumer/960evo/
Interessant wäre der genaue Typ der SSD um das auszuräumen.

MfG Matthieu
 

MagicMelody

Benutzer
Mitglied seit
20. Mai 2013
Beiträge
24
Punkte für Reaktionen
0
Punkte
1
Hab 2 Beitrage vorher schon geschrieben, das es bei der 256GB nur 100 TBW sind und bei der 1TB 400 TBW...
Nunja das die so wenig genutzt wurden liegt z.t aber aber daran das ich Umgezogen bin und in den letzten Monaten Allgemein nicht viel gemacht habe.

Bei Fotos und Videoschnitt hab ich aber schon einen großen unterschied gemerkt. Gerade wenn ich viel mit Photoshop Arbeite und mehrere Bild öfters mal lade.
Trotzdem find ich das echt Mist was Synology da veranstaltet. Es sollte wohl mir überlassen bleiben ob ich das Risiko eingegeben und die SSDs weiter als Cache benutze oder nicht.
Da ist ja Absolut nix dran und die halten locker das zig fache aus, bevor irgend ein Defekt auftritt. Ich kann die ja nun auch sonst nirgends anderweitig verwenden.
 
Zuletzt bearbeitet von einem Moderator:

Matthieu

Super-Moderator
Teammitglied
Mitglied seit
03. Nov 2008
Beiträge
13.200
Punkte für Reaktionen
81
Punkte
344
Entschuldigung, das hat sich mit meinem Beitrag überlappt, das habe ich nicht gesehen.

MfG Matthieu
 

vitruv221

Benutzer
Mitglied seit
31. Mrz 2011
Beiträge
77
Punkte für Reaktionen
2
Punkte
8
Interessante Beiträge hier über die Erfahrungen mit dem SSD-Cache.
Meine eigenen Erfahrungen dazu: Wir haben im Büro eine DS918+ mit 2x SSD-Cache Samsung EVO 256GB, Laufzeit knapp 6000 Std. Nutzung als zentraler Speicher für 7 PCs, die auch nicht dauernd genutzt werden, für übliche Office-Arbeiten, Emailserver, etwas CAD, 2 Datenbanken. Eine davon eine alte Paradox-Datenbank mit zig-tausenden einzelnen Dateien. Da scheint der Cache einen guten Performance-Schub zu liefern, verglichen mit unserer damaligen DS412+.

Was auffällig ist, dass wir eine deutlich geringere Datenmenge verarbeiten als die Poweruser hier. Und die Lese-Trefferrate des Cache liegt bei uns bei 75-80%, und nicht im einstelligen Bereich wie z.B. beim User MagicMelody. Da stellt sich doch die Frage, was der Cache da überhaupt noch bringen soll?

Mein Fazit: Für Office- und CAD-Arbeiten wie bei uns ist die DS918+ mit Cache ein gutes, problemloses Gerät. Hochgerechnet wird unser Cache noch viele Jahre halten. Diejenigen die jeden Monat viele TB an Daten schaufeln und dabei den Cache sowieso kaum nutzen können, da stellt sich ernsthaft die Frage, warum überhaupt ein Cache?
 

cmdr_tom

Benutzer
Mitglied seit
24. Jul 2010
Beiträge
204
Punkte für Reaktionen
2
Punkte
24
Hallo,

mal ein Update für alle. Ich habe den Fall mit dem Synology Support ausgiebig korrespondiert. Der Synology Support meinte, ich solle mich an Samsung wenden. Das habe ich getan und dort wurde ich zunächst angewiesen die SSDs mittels Samsung Magician zu testen. Das ist mir aber nicht möglich, da ich kein Gerät habe, wo ich die SSDs einbauen und testen kann. Ich habe daher einfach die SMART Ergebnisse aus dem Synology DSM übermittelt. Daraufhin wurde mir ein RMA angeboten bzgl. des Austauschs der SSDs, jedoch mit dem expliziten Hinweis, dass die SSDs nicht für den Einsatz in Server/NAS vorgesehen sind. Wenn die neuen bzw. refurbished SSDs zurückkommen werde ich diese jedoch nicht mehr im NAS verwenden.
Der Test mit dem "Kingston SSDNow M.2 SATA G2 Drive 480GB" war nicht erfolgreich. Die SSD wird nicht erkannt vom NAS und ist somit tatsächlich inkompatibel.
 

xdxoxkx

Benutzer
Mitglied seit
19. Okt 2017
Beiträge
10
Punkte für Reaktionen
0
Punkte
1
Interessante Beiträge hier über die Erfahrungen mit dem SSD-Cache.
Meine eigenen Erfahrungen dazu: Wir haben im Büro eine DS918+ mit 2x SSD-Cache Samsung EVO 256GB, Laufzeit knapp 6000 Std. Nutzung als zentraler Speicher für 7 PCs, die auch nicht dauernd genutzt werden, für übliche Office-Arbeiten, Emailserver, etwas CAD, 2 Datenbanken. Eine davon eine alte Paradox-Datenbank mit zig-tausenden einzelnen Dateien. Da scheint der Cache einen guten Performance-Schub zu liefern, verglichen mit unserer damaligen DS412+.

Was auffällig ist, dass wir eine deutlich geringere Datenmenge verarbeiten als die Poweruser hier. Und die Lese-Trefferrate des Cache liegt bei uns bei 75-80%, und nicht im einstelligen Bereich wie z.B. beim User MagicMelody. Da stellt sich doch die Frage, was der Cache da überhaupt noch bringen soll?

Mein Fazit: Für Office- und CAD-Arbeiten wie bei uns ist die DS918+ mit Cache ein gutes, problemloses Gerät. Hochgerechnet wird unser Cache noch viele Jahre halten. Diejenigen die jeden Monat viele TB an Daten schaufeln und dabei den Cache sowieso kaum nutzen können, da stellt sich ernsthaft die Frage, warum überhaupt ein Cache?

Wieso "Poweruser"? - Da stell ich mir eher die Frage, warum man sich für nur 100TB Bewegung bei einem Anschaffungspreis von ~ 1500€ überhaupt Gedanken machen muss ...

Bei einem Datenbestand von nur 15TB (wohl nicht zuviel für ein 4 Bay System) hat man schon alleine 15 TB nur zum Aufbringen der Daten.
Backup lokal - wieder 15TB
Zweites Backup zum 2ten Standort - wieder 15TB

So .. da ist die halbe Lebenszeit der SSDs schon vorbei.

Werden jetzt noch Platten getauscht sind die SSDs gleich tot.

Völlig sinnlos das ganze ...und aus meiner Sicht in Synology daran nicht unschuldig:

1. SSDs standen auf der Kompatibiltätsliste
2. Bei Backup ist die Verwendung der SSDs völlig unnötig - das ist die Implementierung einfach schlecht
3. Das die SSDs bei Erreichung der TBW Grenze nicht mehr zu verwenden sind waren ebenfalls nicht dokumentiert.

Ich lass die nicht mehr nutzbaren SSD schön drin und werde auch keine neuen kaufen.
"ACHTUNG - Laufwerkstatus ist nicht normal" ... nur als Erinnerung ...
 

Matthieu

Super-Moderator
Teammitglied
Mitglied seit
03. Nov 2008
Beiträge
13.200
Punkte für Reaktionen
81
Punkte
344
Die DS schleust nicht alles durch den SSD Cache, sondern nur das was es für "Hot Data" hält. Wenn man hingegen die DS nur als Datengrab nutzt, läuft der Algorithmus ins Leere. Und dann hat man Trefferquoten im einstelligen Prozentbereich ...

MfG Matthieu
 

Matthieu

Super-Moderator
Teammitglied
Mitglied seit
03. Nov 2008
Beiträge
13.200
Punkte für Reaktionen
81
Punkte
344
Kann jemand von den TBW-Betroffenen mal den Cache-Ratgeber ausführen? Die Ergebnisse würden mich mal interessieren.

MfG Matthieu
 

Archi_74

Benutzer
Mitglied seit
07. Feb 2012
Beiträge
254
Punkte für Reaktionen
1
Punkte
24
Bin jetzt zwar (noch) nicht betroffen, aber bei mir sieht das ganze so aus:

Bildschirmfoto 2018-10-19 um 13.52.54.png

Bildschirmfoto 2018-10-19 um 13.52.08.jpg

Eingesetzt wird die 2415+ zu 99,9% für Apple TimeMachine-Sicherungen von knapp 30 Usern.
Bisher liegen die beiden 850 Evo Cache-SSDs bei 77% nach knapp 7000 Stunden. Wenn ich das hochrechne komme ich auf ca. 3,5 Jahre bis die TBW-Grenze erreicht ist. Damit kann ich sehr gut leben.
 

cmdr_tom

Benutzer
Mitglied seit
24. Jul 2010
Beiträge
204
Punkte für Reaktionen
2
Punkte
24
Hallo,

ich habe heute zwei neue SSDs eingbaut - 2 x 256 GB PLEXTOR PX-256M8PeGN. Diese haben eine TBW Grenze von 384TB. Achtung - dieser Cache ist ein Auslaufmodell. Das Nachfolgemodell M9PeG mit 256 GB dieser Serie hat nur eine TBW Grenze von 160TB.
Mit den 384 TB sollte ich also gegenüber den vorher eingesetzten Evo ca. 3mal so lange hinkommen was in etwa 30 Monate entspricht. Die Plextor sind günstiger und halten hoffentlich länger. Vielleicht hat Synology bis dahin in DSM 7 eine brauchbare Lösung, um die Module auch nach Erreichen der TBW Grenze noch zu verwenden.
 

vater

Benutzer
Mitglied seit
14. Mrz 2014
Beiträge
387
Punkte für Reaktionen
42
Punkte
28
Kann jemand von den TBW-Betroffenen mal den Cache-Ratgeber ausführen? Die Ergebnisse würden mich mal interessieren.

MfG Matthieu

Ja, ich würde das auch gerne sehen.
Viele Grüße
Vater
 

gaulo23

Benutzer
Mitglied seit
30. Mai 2013
Beiträge
945
Punkte für Reaktionen
0
Punkte
36
@MagicMelody merkst du bei Plex einen unterschied, ob du ein SSD Cache hast oder nicht. ? Z.b das sich Covers schneller laden usw.
 

Brudertac

Benutzer
Mitglied seit
03. Jun 2016
Beiträge
28
Punkte für Reaktionen
0
Punkte
1
Woran sieht man denn das die SSD 100TBW drauf haben?
 

s24-asm

Benutzer
Mitglied seit
13. Sep 2009
Beiträge
79
Punkte für Reaktionen
0
Punkte
6

bitrot

Benutzer
Mitglied seit
22. Aug 2015
Beiträge
878
Punkte für Reaktionen
0
Punkte
36
Consumer SSDs halten zwar deutlich mehr aus als die Hersteller offiziell angeben, taugen aber trotzdem nicht unbedingt für den Einsatz in Servern. Dazu zähle ich übrigens auch die "Pro" Variante der Samsung 850/860 bzw. 950/960/970 SSDs. Die Spreu trennt sich vom Weizen wenn wirklich viele schreibintensive parallele Zugriffe auf die SSDs losgelassen werden, da kommt selbst eine "Pro" sehr schnell an ihre Grenzen. Enterprise SSD sind für solche Lasten ausgelegt und sind erheblich schneller und robuster, wenn meistens (nicht immer! vor allem gebraucht) auch teurer.

Die Frage stellt sich nur, ob ein Consumer NAS unbedingt sequentielle Zugriffe per SSD cachen muss. Trotzdem ist die Vorgehensweise von Synology bedenklich, eine Bevormundung des Kunden, auch wenn eine gute Absicht dahinter stecken mag.
 

himitsu

Benutzer
Mitglied seit
22. Okt 2018
Beiträge
1.738
Punkte für Reaktionen
121
Punkte
83
Kann man eventuell die TBW-Erkennung, bzw. dieses "Critical Warning"-Flag, im DSM oder die TBW-Grenze manipulieren/ändern,
so dass das DSM denkt die SSDs können mehr und den Cache dann erst viel später abschaltet?

0x60efaf4 * 512*1000 / 1024/1024/1024/1024 = 47.3 ... also auch ohne Software direkt in der DS anzeigbar.
Wie groß eine Dataunit ist, steht bestimmt auch in der Doku der HDD.



Schade ist ja, dass es nur ein Lesecache ist, also für mehrmalige Zugriffe auf Dateien die sich nicht ändern.
Ein Scheibcache für viele/schnelle Änderunge wäre bestimmt auch mal nett.

Nja, Synology könnte doch auch noch eigene Prüfsummen zu den Daten im Cache hinterlegen und könnte dann erst bei einem Datenfehler den Cache deaktivieren.
Und die TBW dann nur als Warnung, anstatt gleich als Fehler, im DSM ausgeben.
 
Zuletzt bearbeitet:

peterhoffmann

Benutzer
Mitglied seit
17. Dez 2014
Beiträge
4.524
Punkte für Reaktionen
743
Punkte
194
Ich empfinde das Abschalten der SSD auf den ersten Blick auch als gefühlte Bevormundung.

Aber stellen wir uns doch mal das andere Szenario vor:
Die betreffende DS ist im produktiven Umfeld, bedient jeden Tag 30 Büromitarbeiter mit ihren Dateien (schreibintensives Umfeld) und hält mehrere Datenbanken vor.
Nun geht unbemerkt die SSD vom Schreibcache kaputt, ist aber normal ansprechbar, kippt halt hier und da Bits um, so wie es ihr gefällt und schreibt den Datensalat auf die HDDs.

Der Cache ist hier kein einfaches Addon für die DS, sondern ein Bindeglied zwischen einkommenden Daten und dem Datenspeicher, wo am Ende alles durch muss.
Unter diesem Gesichtspunkt kann man schon eher verstehen, dass Synology irgendwo den Punkt finden muss dieses Bindeglied weitestgehend sicher zu gestalten.

Das lässt natürlich den Punkt unberührt, dass man im Speichermanager eine Funktion anbieten könnte diese Sicherheitsfunktion auf eigenes Risiko zu deaktivieren. Wenn dann was passiert, kann Synology die Hände in Unschuld waschen und der Kunde hat halt Pech gehabt.
 

Puppetmaster

Benutzer
Mitglied seit
03. Feb 2012
Beiträge
18.703
Punkte für Reaktionen
480
Punkte
459
Damit verschieben sie aber nur den “schwarzen Peter“ (entschuldige das Wortspiel ;) ), auf den Hersteller der SSD, denn eine SSD kann auch schon vor Erreichen der TBW-Grenze ausfallen. Es dient also vorrangig Absicherung Synologys.
Diese Haftung kann man durchaus auch an den Nutzer abgeben, wenn man ihn denn vernünftig aufklärt.
 

Kurt-oe1kyw

Benutzer
Mitglied seit
10. Mai 2015
Beiträge
6.865
Punkte für Reaktionen
538
Punkte
234
Ich glaube ihr habt beide irgendwie Recht. Das Beispiel von Peter ist schon sehr gut und Praxisnah. Ich vermute auch das hier seitens Synology und auch der SSD Hersteller einfach auf der "rechtlich" sicheren Seite sein möchte und nicht in die Fänge von Produkthaftung usw zu gelangen. Denn der Schaden kann in einem Klein-Mittelbetrieb dann schnell in den 5/6 stelligen Eurobereich gehen, je nachdem welche Daten betroffen sind/waren. Das beginnt ja beim einfachen Verlust von Kundendaten und geht über Produktion und Abrechnungen wo möglicherweise noch Strafpönalen dahinter liegen welche pro Kalendertag anfallen usw usw.

ABER ich verstehe auch den Einwand für "uns" Privatanwender der zu Recht sagt "ICH" möchte für mich selber Entscheiden ob ich das Risiko von etwaigen Datenverlust bzw. komprimitierten Daten in Kauf nehme oder nicht.
Technisch hat natürlich auch Puppetmaster Recht, die SSD kann auch vor Ablauf der TBW fehlerhaft werden, aber ich denke hier hätten dann Juristen gute Chancen eventuelle Ansprüche durchzusetzen mit dem Verweis auf die technische Angabe dass xx TBW garantiert werden.
Hier treffen wirklich viele unterschiedliche Komponenten und Szenarien aufeinander. Ich für mich persönlich habe es einfach, ich betreibe keinen SSD Cache da ich derzeit keine Anwendungen nutze die diesen Aufwand Rechtfertigen würde.
 

himitsu

Benutzer
Mitglied seit
22. Okt 2018
Beiträge
1.738
Punkte für Reaktionen
121
Punkte
83
Und da ist es, denn wenn es eine Option gäbe, wo man sich zwischen Fehler und Warnung entscheiden kann, also wo man die automatische Deaktivierung auf "eigene Gefahr" hin deaktivieren könnte, dann hätten alle etwas davon.

Und wenn Synology die gecachten Daten, ähnlich dem ECC beim RAM, mit einer Prüfsumme verifizieren würden, dann wäre auch bei einem vorzeitigen Ausfall der Datenverlust minimiert.
 
Zuletzt bearbeitet:
NAS-Central - Ihr Partner für NAS Lösungen