DS918+ - SSD Cache hat TBW-Grenze erreicht und sind jetzt unbrauchtbar

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.954
Punkte für Reaktionen
11
Punkte
104
Erledigt. #350065
 

meagain

Benutzer
Mitglied seit
29. Dez 2012
Beiträge
250
Punkte für Reaktionen
0
Punkte
16
Ich auch. Support Ticket #2033560
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.954
Punkte für Reaktionen
11
Punkte
104
Ich habe heute die Antwort erhalten:

HTML:
Sehr geehrter Herr xxx,

vielen Dank für Ihre Anfrage und Ihr Interesse an unseren Produkten.

Ich kann Ihren Standpunkt durchaus verstehen, aber verstehen Sie bitte auch unseren. Wenn wir zulassen würden dass die SSDs weiter arbeiten, obwohl die SMART Werte hier einen Fehler melden (Sei es darum dass die TBW Anzahl erreicht oder überschritten ist) kann es zu ungewollten Fehlern kommen:

- SSD Cache stürtzt ab und bereits geschrieben/gelesene Daten gehen verloren

- Performance sinkt rapide ab

- Dateisystemfehler können auf die HDDs geschrieben werden, was zu schwerwiegenden Fehlern kommt

Daher ist dies eine reine Sicherheitsmaßnahme. Bedenken Sie bitte auch dass wir nicht so technisch affine Kunden haben, welche dies nicht eigenständig einschätzen können ob eine SSD noch gesund ist oder nicht, daher müssen wir mit einem Mechanismus arbeiten, welcher dies dem Kunden abnimmt. Leider ist es auch so dass SSD Caches je nach Nutzung drei bis viermal so schnell die TBW grenze erreichen, als im regulären Gebrauch, daher empfehlen wir vorsorglich die SSDs auszutauschen bevor der Fehler schwerwiegend wird.

Ich hoffe ich konnte Ihnen hiermit behilflich sein. Falls Sie weitere Fragen, Themen, Kritik oder wünsche haben, stehen wir Ihnen jederzeit zur Verfügung.

Mit freundlichen Grüßen
 
Zuletzt bearbeitet von einem Moderator:

dil88

Benutzer
Contributor
Sehr erfahren
Mitglied seit
03. Sep 2012
Beiträge
29.717
Punkte für Reaktionen
1.024
Punkte
754
Selbst wenn man den vorgebrachten Argumenten folgt, sollte es eine bei Erreichen der TBW-Grenze automatisch aktivierte Option geben, die man - nach vorheriger ausführlicher Aufklärung - deaktivieren kann.
 

Puppetmaster

Benutzer
Sehr erfahren
Mitglied seit
03. Feb 2012
Beiträge
18.981
Punkte für Reaktionen
619
Punkte
484
Ja, keine Frage.
Ich warte das einfach mal ab (bin ja auch unbeteiligter Zuschauer) und gehe stark davon aus, dass der Markt (und damit auch die Anwender) das selbst regeln wird. ;)
 

peterhoffmann

Benutzer
Sehr erfahren
Mitglied seit
17. Dez 2014
Beiträge
5.525
Punkte für Reaktionen
1.360
Punkte
234
Synology-Support schrieb:
daher müssen wir mit einem Mechanismus arbeiten, welcher dies dem Kunden abnimmt
Der technisch affine Kunde soll sich im Verzicht üben, sich gängeln lassen und sein Geld zum Fenster rauswerfen, weil eine andere Gruppe von Usern nur den Einschaltknopf findet.

Diese Vorgehensweise begegnet mir in den letzten 10 Jahren auf vielen Ebenen. Windows, welches den User gängelt und vor ihm alles versteckt, damit er sich ja keine Schadsoftware installiert oder Autos, die für jeden noch so erdenklichen Blödsinn einen Assistenten haben, der einem jede Freude am Fahren raubt.

Ich bin ja schon froh, dass ich noch alleine aufs Klo gehen darf.

bei Erreichen der TBW-Grenze automatisch aktivierte Option geben, die man - nach vorheriger ausführlicher Aufklärung - deaktivieren kann
Ja, das ist absolut naheliegend.
 

meagain

Benutzer
Mitglied seit
29. Dez 2012
Beiträge
250
Punkte für Reaktionen
0
Punkte
16
Komisch, ich habe auf meine Anfrage eine ziemlich andere Antwort von Synology erhalten:

Thank you for contacting Synology Support.

After discussing with our experts, Synology does not intentionally disable SSDs when they reach the manufacturer's promised TBW.

The SSDs may be disabled by the manufacturer if it reached the promised TBW.

If you do happen to encountering this case, we highly recommend contacting the SSD manufacturer and see if they disable the SSD with promised TBW is reached.

We can assure that Synology does not disable the SSD for this case.

Was soll man denn jetzt bitte glauben?:confused:
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.103
Punkte
248
Das wie es "ist": die linke weiss nicht, was die rechte... und so ;)
 

Matthieu

Benutzer
Mitglied seit
03. Nov 2008
Beiträge
13.222
Punkte für Reaktionen
88
Punkte
344
Ich habe von Synology eine Antwort bekommen die so ziemlich das gleiche aussagt - und ich glaube damit haben sie auch recht. Ich hab mir die Screenshots noch mal angesehen die eingangs im Thread hängen.
Die Info "Defekt" stammt aus den SMART-Daten! Das heißt nicht Synology markiert die SSD als defekt, sondern der Hersteller. Er setzt den SMART-Wert und die DS entfernt die SSD vorsorglich aus der Cache-Funktion um Datenverlust zu verhindern. Bei einer Platte wäre das zum Beispiel bei vielen defekten Sektoren der Fall. Bei einem RAID kann man die Platte nicht einfach rausschmeißen wie bei dem SSD Cache, aber auch da macht die DS sehr penetrant (zurecht!) auf sich aufmerksam wenn es viele fehlerhafte Sektoren gibt und daher der SMART-Wert "abstürzt". Denn: False positives (also Platten die OK sind aber per SMART melden sie sind defekt) sind extrem selten.

IMHO wäre es daher angebrachter einen Feature Request zu formulieren: Defekte SSD im Cache zulassen.

Übrigens mal so nebenbei: Der Synology-Mitarbeiter konnte die Tickets nicht ohne weiteres einsehen, weil sie nicht ihm zugewiesen worden. Aus Datenschutzgründen sehen bei Synology nur noch Mitarbeiter die Tickets, für die sie zuständig sind. Nur mal am Rande weil das Thema Datenschutz in den letzten Wochen auch heiß gekocht wurde ...
 

rednag

Benutzer
Mitglied seit
08. Nov 2013
Beiträge
3.954
Punkte für Reaktionen
11
Punkte
104
Und warum wird in der Antwort in #23 bewusst darauf eingegangen, daß Synology hier dem ganzen einen Riegel vorschiebt?
Die nächste DS hätte ein Volumen mit SSDs haben sollen. Ich glaube ich warte damit aber noch...
 

blurrrr

Benutzer
Sehr erfahren
Mitglied seit
23. Jan 2012
Beiträge
6.204
Punkte für Reaktionen
1.103
Punkte
248
Ist halt "nur" ein NAS, da gibt es mitunter Vorgaben vom Hersteller (oder Ratschläge von Partnern wie Seagate oder Kingston, welche Produkte in der Sparte anbieten). Finde ich aber auch sinnig, i.d.R. tauscht man bevor es knallt. Allerdings ist dieses "und tschüss" nicht so schön... da wäre es besser vorher eine Mail zu versenden mit dem Hinweis, dass die SSD noch eine Resthaltbarkeit von 10% oder so hat und man diese doch bitte tauschen möge. :)
 

Puppetmaster

Benutzer
Sehr erfahren
Mitglied seit
03. Feb 2012
Beiträge
18.981
Punkte für Reaktionen
619
Punkte
484
Ich halte das jetzt doch für ziemliche Wortklauberei. Der Hersteller der SSD sei "schuld", da die SMART Werte der SSD einen "Defekt melden".
Entscheidend ist doch allein der Umgang mit dieser Information. Und insofern denke ich auch, dass die Antworten von Synology, einerseits aus Deutschland, andererseits aus Fernost, sich gar nicht widersprechen. Synology hat sich eben - bewusst - dafür entschieden, eine Platte, die sich defekt meldet, rausfliegen zu lassen. Wenn sie gewollt hätten, wäre ein Mechanismus einer Warnung, oder auch der weitere Betrieb nach Meldung "defekt" natürlich denkbar. Synology hat sich aber offenbar anders entschieden.
 

Matthieu

Benutzer
Mitglied seit
03. Nov 2008
Beiträge
13.222
Punkte für Reaktionen
88
Punkte
344
Der SSD Cache hat in puncto Betriebssicherheit eine andere Funktion und einen anderen Stellenwert als die Festplatten. Die Platten halten die Daten vor, können also nicht einfach "rausgeschmissen" werden. Der Cache hingegen dient nur zur Leistungssteigerung. Das Entfernen aus dem Cache führt nicht zu Datenverlust oder größeren Einschränkungen im Betrieb. Geht die SSD aber im Betrieb kaputt, sind die kürzlich geänderten Daten (also das wovon man üblicherweise auch kein Backup hat), sofort Schrott. Soweit ich weiß ist Datenrettung von SSDs ungleich schwieriger also von HDDs.

Fest steht für mich: Die SSD-Hersteller könnten das am einfachsten vermeiden indem sie eine überschrittene TBW nicht als SMART-Defekt melden - es ist ohnehin reichlich irreführend. Wenn ich es richtig verstanden habe, ist SMART nicht standardisiert. Es gibt nur Vorgaben wo die Daten zu liegen haben. Die konkreten Inhalte sind aber vor der Standardisierung wohl aus dem Entwurf entfernt worden ... sie könnten also auch beliebigen Mist da reporten um User zum Neukauf zu bewegen ...

MfG Matthieu
 

Iarn

Benutzer
Sehr erfahren
Mitglied seit
16. Jun 2012
Beiträge
2.935
Punkte für Reaktionen
338
Punkte
129
Das Entfernen aus dem Cache führt nicht zu Datenverlust oder größeren Einschränkungen im Betrieb.

Das ist leider nicht korrekt. Der R/W Cache ist für DSM ein Tel des Volumens. Ist der Cache defekt (nicht nur degraded) ist das Volume komplett nicht lesbar. Habe ich schon mal getestet (durch Entfernen der SSDs).
 

xdxoxkx

Benutzer
Mitglied seit
19. Okt 2017
Beiträge
10
Punkte für Reaktionen
0
Punkte
1
Bei Verwendung von 2 Modulen läuft der SSD Cache doch im Raid-1 (Schreib-/Lesecache), oder?
Wo wäre denn da das Risiko, dass zwei Module über die Grenze TBW hinaus genutzt werden können? Es werden wohl kaum beide Module gleichzeitig richtig kaputt gehen.

Gibt es irgendwo einen Hinweis offiziellen Hinweis darauf, dass der SSD Cache bei Erreichen der TBW nicht weiter genutzt werden kann?
 

Matthieu

Benutzer
Mitglied seit
03. Nov 2008
Beiträge
13.222
Punkte für Reaktionen
88
Punkte
344
Ist der Cache defekt (nicht nur degraded) ist das Volume komplett nicht lesbar.
Deshalb sprach ich von Entfernen. Gemeint ist damit das gezielte Auflösen des SSD Cache um Schäden an den Daten zu vermeiden. Dein Test - danke dafür - macht das nur noch anschaulicher. Das Verhalten, via SMART als defekt gemeldete SSDs vorsorglich zu deaktivieren, halte ich vor diesem Hintergrund für richtig. Wie schon gesagt würde ich aus den Tickets Feature Requests machen.

MfG Matthieu
 

iOOi

Benutzer
Mitglied seit
22. Jul 2018
Beiträge
187
Punkte für Reaktionen
0
Punkte
22
Wie verhält sich ein SSD, wenn Speicherzellen verbraucht sind?


Ich hatte vor langer Zeit E²PROMs getestet, als sie noch recht neu am Markt waren, und laut Datenblatt eine miserable Lebensdauer hatten: Beim deutlichen Überschreiten der angegebenen Lebensdauer funktionierten sie scheinbar noch. Der gelesene Wert stimmte mit dem zuvor geschriebenen überein.

Der Aha - Effekt kam nach einer Stromunterbrechung: Der vor der Stromunterbrechung geschriebene Wert war weg. Die getesteten E²PROMs verhielten sich also wie statische RAMs, wenn sie verbraucht waren.

Ich habe den Test dann noch sehr lange weiter laufen lassen. An den E²PROMs veränderte sich nichts mehr. Sie blieben "RAMs".


Sollten sich die Flash Zellen in SSDs auch so verhalten, hätte man nur ein Problem, wenn man die DS stromlos macht und die SSDs auch als Schreibcache nutzt. Läuft sie immer mit USV gesichert durch, würde auch bei einer völlig verbrauchten SSD nichts passieren. Gleiches wenn man sie nur als Lesecache einsetzt. Dann wäre auch das Abschalten der Stromversorgung egal.

LG
iOOi
 

Andy+

Benutzer
Sehr erfahren
Mitglied seit
25. Jan 2016
Beiträge
5.025
Punkte für Reaktionen
322
Punkte
189
Ich hatte auch eine Kombi Samsung EVO 850 im Einsatz als Lese-Schreibcache und bereits nach relativ kurzer Zeit war die Lebenserwartung bei 1% und weil ich neu aufsetzen musste, liessen sich die SSD´s nicht mehr einbinden. Heute habe ich die noch im besten Zustand und im Einsatz in Laptops. Da war ich auch etwas irritiert. Jetzt habe ich dort wieder zwei SSD´s im Einsatz, aber nicht als Cache, sondern als RAID/SHR für Datenbankanwendungen, weil BTRFS im Zusammenhang ganz schlecht abschneidet gegenüber EXT4.
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat