Erfahrungsbericht: SSD Supertalent FTM64GX25H

Status
Für weitere Antworten geschlossen.

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.250
Punkte für Reaktionen
2.846
Punkte
423
In einer der letzten C't gab es einen Artikel über den aktuellen Stand bei "Solid State Disks" (SSDs) als Festplattenersatz. Nach der Lektüre und einiger Internet-Recherche habe ich mich zum Kauf einer Supertalent FTM64GX25H (SSD mit 64GB, aktuell ca. 180€) entschlossen. Von meinem bisherigen Favoriten (OCZ Vertex) hatte ich viel negatives gelesen.

Gestern kam das Teil und ich muss sagen, ich bin begeistert. Meine ersten Erfahrungen wollte ich euch nicht vorenthalten:
- 2,5", normale SATA-Anschlüsse
- ca. 150 MB/s schreibend und 230MB/s lesend mit Firmware 1370 auf Desktop-PC (gemessen mit Atto Disk Benchmark)

nach Clonen meiner bisherigen System-HDD (Maxtor 320GB):
- WindowsXP bootet ca. doppelt so schnell wie vorher von HDD
- die Zeit zwischen Logon und Einsatzbereitsschaft hat sich auch ungefähr halbiert
- der Aufruf von Programmen etc ist deutlich flüssiger.
- vollkommen lautlos (die 4 anderen HDDs hört man natürlich noch)

Bleibt zu hoffen, dass der in der C't beschriebene Effekt, dass SSDs im Laufe der Zeit immer langsamer werden, bei diesem Modell mit der aktuellen Firmware ausbleibt (Supertalent wirbt damit).

Fazit:
- für den PC super, fürs NAS wird's wohl nicht so viel bringen, da die NAS-CPU das nicht packen dürfte (habs nicht getestet)
- Nachteile: bei Firmware-Updates wird wohl die komplette SSD gelöscht, Langzeiterfahrungen fehlen noch.
- ansonsten: sehr empfehlenswert (die Preise werden sicherlich noch sinken)

Gruß
Benares
 

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Noch etwas zu den Nachteilen: Die Daten können flöten gehen, da die Zellen der Platten nur eine bestimmte Anzahl Schreibvorgänge "überleben". Ausserdem weiss das Betriebssystem bei solchen Platten nicht mehr wo genau die Daten gespeichert werden, denn der Platten-Kontroller verteilt die Daten auf die Zellen in Eigenregie.
Mir persönlich wäre es zu heikel solche Platten zu verwenden. Da kauf ich mir für's gleiche Geld lieber 10Mal mehr traditionelle Kapazität ;)
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.250
Punkte für Reaktionen
2.846
Punkte
423
Hallo jahlives,
Noch etwas zu den Nachteilen: Die Daten können flöten gehen, da die Zellen der Platten nur eine bestimmte Anzahl Schreibvorgänge "überleben".
Ich hab den Artikel in der C't auch gelesen und ich seh dem gelassen entgegen. Supertalent gibt für die ME eine MTBF von 1Mio Stunden an und garantiert die Datenintegrität für 10 Jahre. Ob das stimmt, weiss ich natürlich nicht.
Ausserdem weiss das Betriebssystem bei solchen Platten nicht mehr wo genau die Daten gespeichert werden, denn der Platten-Kontroller verteilt die Daten auf die Zellen in Eigenregie.
Das ist bei herkömmlichen Platten seit LBA aber genauso.
Mir persönlich wäre es zu heikel solche Platten zu verwenden. Da kauf ich mir für's gleiche Geld lieber 10Mal mehr traditionelle Kapazität ;)
Ich versuchs einfach mal, der Performancegewinn ist mir das Geld wert. Ist ja "nur" für die System-Partition (von der sowieso zyklisch per Acronis ein Image erstellt wird), da reichen 64GB dicke. Die anderen Daten liegen auf herkömmlichen Platten, da ist Kapazität wichtiger.

Gruß
Benares
 

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Das ist bei herkömmlichen Platten seit LBA aber genauso.
Bist du sicher? Ich meinte mal gelesen zu haben, dass das Betriebssystem bei LBA sehr wohl weiss an welchen Adressen die Daten geschrieben wurden

Gruss

tobi
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.250
Punkte für Reaktionen
2.846
Punkte
423

Ja, so ziemlich.

Vor LBA wurden die Daten mit "Zylinder,Kopf,Sektor" (CHS) addressiert. Mit LBA (sagt ja der Name "Logical Block Adressing") werden die Daten nur noch durch eine fortlaufende Sektornummer adressiert. Die Platte entscheidet selbst, wo sie das ablegt. Erst dadurch war es möglich, dass die Platte automatisch defekte Sektoren ausschliesst.

Gruß
Benares
 
Zuletzt bearbeitet:

jahlives

Benutzer
Mitglied seit
19. Aug 2008
Beiträge
18.275
Punkte für Reaktionen
4
Punkte
0
Aber jede dieser Nummern entspricht doch einem Sektor der klassischen CHS-Adressierung. Sprich wenn du Daten auf einem LBA-Block ablegst, die Daten löscht und neue Daten auf den gleichen Block schreibst, dann lagen die Daten physikalisch zweimal am genau gleichen Ort auf der Platte
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
12.250
Punkte für Reaktionen
2.846
Punkte
423
Vermutlich läuft das intern so. Aber: man weiss es einfach nicht. Die Platte kann intern machen, was sie will. Du bekommst von aussen eben nur n funktionierende Sektoren vorgegaukelt. Das ist bei herkömmlichen Platten so und auch bei SSDs, die mit LBA arbeiten. CHS ist Geschichte.
Zur "Gesundheitskontrolle" gibt es nur noch Smart.
 
Zuletzt bearbeitet:

itari

Benutzer
Mitglied seit
15. Mai 2008
Beiträge
21.900
Punkte für Reaktionen
14
Punkte
0
Ich muss Benares recht geben, das alte Addressierungs-Schema erzählt man gerne irgendwo in Schulungen usw., aber geben tut es das schon lange nicht mehr. Ist wie mit den Netzwerk-Klassen bei IP, die gibt es auch nicht seit Mitte der 90er-Jahre nicht mehr, obwohl man immer noch von ihnen liest und hört. http://de.wikipedia.org/wiki/Classless_Inter-Domain_Routing

Trotzdem werden die alten Angaben oft verwendet, um etwas modellhaft zu erklären, oder bei Kapazitätsberechnungen halt Werte vorzugeben bzw. anzuzeigen. Wiewohl mittlerweile auch schon oft nur noch die Anzahl von Block-Nummern angezeigt wird.

Es soll sogar Platten geben, die wie eine CD/DVD spiralförmig aufzeichnen und am äußeren Plattenrand mehr Blöcke unterbringen als im Zentrum und die auch variable Geschwindigkeiten fahren können. Auch liegen wohl kaum mehr die serialisierten Blöcke hintereinander ... Allerdings scheint es auch noch möglich zu sein, mit den 'alten' Schemata Blockverteilungen zu beeinflussen, so z. B. dass die Wahrscheinlichkeit, dass nahe beieinander liegende Blocknummer auch auf der Platte näher beieinander liegen .... ansonsten wäre das Verteilen von Dateien um ihre Verzeichnisse nicht wirklich möglich ....

Und es gab noch eine Diskussion vor rund 1/2 Jahr, dass die Schreib-Reihenfolge der Blöcke auch noch gewürfelt werden kann ... wenn man das nicht gezielt ausschaltet, wird also eine Divergenz zwischen Dateisystem-Journal und physikalischer Speicherung möglich ...

Es ist schon interessant, sich damit zu beschäftigen, aber solange es keine gravierenden Nachteile oder Fehler gibt, muss man das nicht unbedingt, weil man eh nicht viel beeinflussen kann ...

Itari
 

Dingsdada

Benutzer
Mitglied seit
20. Dez 2008
Beiträge
189
Punkte für Reaktionen
6
Punkte
18
ich hab auch die supertalent als 60gb version
ist super klasse das teil - nur leider gewöhnt man sich zu schnell an die geschwindigkeit, so dass das arbeiten an non-ssd pcs wirklich keinen spass mehr macht (v.a. an meinem laptop - da kommt dann auch noch eine ssd rein wenn wieder geld da ist)
eine ssd für 100 euro mehr bringt 10xsoviel wie eine cpu/ram erweiterung
(test auf meinem alten AMD2000+ system: bootzeit 7 sekunden inkl. bios!!!
photoshop-start in 1-2sec)
übrigens merk ich noch nix von der angeblichen verlangsamung.
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat