Thema SSD und ob man gebrauchte Serverplatten kaufen darf/soll/muss

HuDiNi

Disketten-Zieher
Beiträge
85
Ort
AUSTRIA, Tirol
Vorname
Richi

Device Übersicht
Um das Thema noch etwas abzurunden mal schnell gerechnet:
angenommene Schreibrate 1,500 GByte/s M.2
angenomene Schreibrate 0,500 GByte/s SATA ohne Raid (für die einzelne Platte egal)
Wenn M.2 zur Verfügung steht, braucht man eigentlich kein SATA-Raid, obwohl es das selbst im Consumer-Bereich gibt, etwa können neuere MoBos Raid 0 (oder 1) auf den beiden Onboard-M.2.
Hier dürften BUS und restlich Peripherie ohnehin die Limitierung ausmachen.

In 20 Mio-Sekunden ist der Wert von 10 PB auch beim "langsamen" SATA theoretisch zu erreichen.
Das sind 333333 Minuten oder 5555,5 Stunden, demnach also bei SATA lediglich etwa 231 Tage.
Als M.2 wären das also lediglich rund 77 Tage.
Ich kann mir durchaus vorstellen, dass bestimmte Serverumgebungen diese Werte durchaus erreichen können.

Zum Schluss noch etwas praxisgerechter für mich als Otto-Normal:
Mit bereits oben angegeben Daten schreibe ich real auf der System-M.2 etwa 60 TByte pro Jahr, auf die SATA 50 TByte.
Die theoretische Lebensdauer für die 960EVO liegt bei lediglich 100 TB TBW (250 GByte-version), die TBW der 860EVO mit 500 GByte bei 300 TB.
Ich füttere praktisch also nicht mal 2 Jahre in die 960 und 6 Jahre in die 860.
Durch die intelligenten Controller und die Tatsache, dass die Platten nie zu 100% gefüllt werden, hoffe ich bei der 960 mindestens 5 Jahre Ruhe zu haben, bei der 860 wird man sehen müssen.

Umgesetzt auf die großen Server-Varianten (auch wenn gebraucht) muss man also kein Hellseher sein, um zu erkennen, dass diese die Lebenszeit eines (meines!) Consumer-PCs bei weitem übertreffen sollten (20 bis 100-fache TBW, je nach Plattenkapazität und Hersteller).
 
Zuletzt bearbeitet:

Mr_Lachgas

Disketten-Zieher
Beiträge
55
Vorname
Tobi

Device Übersicht
Sooo....
ich hab mal Stoff zum analysieren besorgt.
Dazu sei gesagt, dass die OCZ SSD seit des Fimrware Updates alle Schreibwerte, Einschaltmomente udn Betriebsstunden auf "0" zurückgesetzt hat.
Die Modelle:

Corsair Force 3 F60 60GB, SATA (CSSD-F60GB3-BK)
MTBF: 2 Mio. Stunden, Controller: SandForce SF-2281

SanDisk Ultra Plus Notebook 128GB, SATA (SDSSDHP-128G-G25)
MTBF: 2 Mio. Stunden, Controller: Marvell 88SS9175

OCZ Vertex 4 128GB, SATA (VTX4-25SAT3-128G)
MTBF: 2 Mio. Stunden, Controller: Indilinx Everest 2

Intel SSD 600p 512GB, M.2 (SSDPEKKW512G7X1)
MTBF: 1.6 Mio. Stunden, Controller: Silicon Motion SM2260, 8 Kanäle, TBW: 288TB



Also kann ich eigentlich nur bei den neueren SSDs erkennen, wie lange diese "theoretisch" noch hält, da bei den älteren Modellen keine TBW angegeben ist, richtig?
 

Mr_Lachgas

Disketten-Zieher
Beiträge
55
Vorname
Tobi

Device Übersicht
Die SanDisk habe ich am 27.08.2013 gekauft, eigentlich bestimmt für mein Notebook,
ist dann aber in meinem Werkstatt-PC verschwunden. Dort läuft die seitdem auch. Der Werkstatt-PC läuft täglich 12 Stunden.
Die Werte der 10 Jahre alten Datenplatte in dem Rechner wollt ihr nicht wirklich sehen^^
5860 mal eingeschaltet und 35500 Betriebsstunden.
 
Zuletzt bearbeitet:

HuDiNi

Disketten-Zieher
Beiträge
85
Ort
AUSTRIA, Tirol
Vorname
Richi

Device Übersicht
Also kann ich eigentlich nur bei den neueren SSDs erkennen, wie lange diese "theoretisch" noch hält, da bei den älteren Modellen keine TBW angegeben ist, richtig?
Man könnte das zumindest überschlagsmäßig ausrechnen, wenn man die Speicher-Chips kennt.
Der Controller und die Firmware haben die Aufgabe, geschriebene Daten möglichst gleichmäßig aus dem Cache auf den eigentlichen NAND-Speicher zu verteilen, damit jeder Speicherblock (die Nands sind in solchen organisiert) etwa gleich oft genutzt wird.

Am Beispiel eines Micron 29F64G08CBAAA (Chip der 2. Generation mit SATA 3 deiner Force 3), welcher zB auf bit-Ebene heruntergebrochen laut Datenblatt 5000 Lösch/Schreibzyklen hat, also Plattenkapazität mal 5000.
Hier scheint mir der für ein 60 GB-Modell berechnete Wert von 300 TB TBW real doch etwas zu hoch (vor allem wegen der frühen Generation).

Das auf diese Art zu berechnen, dürfte demnach vermutlich eine Milchmädchenrechnung sein. Als Notbehelf aber sicher besser als nix.

Die V-NANDs von Samsung sollen auf bit-Ebene sogar satte 35000 Zyklen aushalten (alte planar-Technik immerhin bereits 10k).
Erst über 35k steigt die Fehlerrate (bit-flip) laut Datenblatt rapide an, liegt jedoch bis 35k quasi bei Null!
Berechnet wären das dann für eine Samsung 860 EVO 500GB bei 35k Zyklen satte 17 PB, angegeben sind 300 TB, also ein Verhältnis von 58:1.

Bei mir setzt sich die Erkenntnis durch, dass die Hersteller wohl auf der sicheren Seite tief stapeln und spezielle Logarithmen zugrundelegen, um einen praxisgerechten Wert zu ermitteln. Eventuell kommt die Technik auch controllerseitig früher ins straucheln als die NANDs.
Sicher bin ich mir jetzt aber auch, dass die tatsächliche TBW weit über der angegebenen liegen muss.
 
Zuletzt bearbeitet:

HuDiNi

Disketten-Zieher
Beiträge
85
Ort
AUSTRIA, Tirol
Vorname
Richi

Device Übersicht
PS: was mir da noch einfällt, ...

Ich hoffe mal nicht, dass die angegebene TBW eine Art geplante Obsoleszenz ist, also durch Controller/Firmware gesteuert wird. :unsure:
58:1 ist mir da doch eine arge Diskrepanz.
 

HuDiNi

Disketten-Zieher
Beiträge
85
Ort
AUSTRIA, Tirol
Vorname
Richi

Device Übersicht
Danke Schwarte aka Daniel. (y)
Den Cache als Nadelöhr (1000:1) hatte ich noch nicht bedacht.
Immerhin muss für das einmalige Befüllen einer 512GByte 860 EVO die 1000-fache Datenmenge durch das 512 MB-Cachemodul gepresst werden.
Dieser Speicher wird außerdem auch beim Lesen benützt.
Dort liegt dann vermutlich der Hund in Form der 58:1 (der Controller hat da auch noch mitzureden) begraben.

Ich konnte den Datenblättern auf die Schnelle keine Info entlocken, wo die LPDDR4-Module ihre echten Grenzen haben.

Schon aus 2011 aber sehr aufschlussreich. Die Technik steckte ja quasi noch in den Kinderschuhen, ...
SSD-Test 2011

Eine Samsung 830 256 GB hatte damals offenbar bereits über 6 PB geschrieben bevor sie tatsächlich kaputt war, eine kleine 40 GB Kingston immerhin bereits 1.5 PB.

Die Lifetime der 830 256 GByte wurde damals mit 16 Jahren bei täglich 40 GByte geschriebenen Daten angegeben, was einer TBW von ca. 233 TB entspricht. QUELLE
Der Zustand 0% wurde beim Stresstest erst bei 828 TByte (hoffentlich interpretiere ich das korrekt) erreicht, also immerhin dem 3.5-fachen der TBW.
Das lässt also doch etwas hoffen. :p

Sollten ähnliche Werte heute bei Samsung noch gelten, lägen wir statt bei 58:1 immerhin schon bei 16,5:1
Man könnte außerdem hier auf etwa 550k Zyklen für eine Cache-Speicherzelle schließen.

Ich vermute, dass die intelligenteren Controller solche Marthyrien (schreiben bis 100% der Zellen tatsächlich hinüber sind) bei heutigen Platten nicht mehr zulassen (womit wir wieder bei der befürchteten "geplanten" Obsoleszenz wären).

Hat jemand neuere Tests in ähnlicher Ausprägung zu verlinken?

Ich werde das aber zum Anlass nehmen, und künftig bei "Neu"-Anschaffungen auch nach gebrauchten Server-Platten Ausschau halten, ... :giggle:
 
Zuletzt bearbeitet:

HuDiNi

Disketten-Zieher
Beiträge
85
Ort
AUSTRIA, Tirol
Vorname
Richi

Device Übersicht
zur Info:
Die TBW für M.2 intel-Platten fehlt leider in allen PDF-Datenblätter welche ich grad nebenbei für die Erstellung einer Übersicht geeigneter Gebrauchtplatten durchstöbere.
Finden tut man diese Info aber auf ark.intel.com.
Warum in den PDFs nur die MTBF in Stunden angegeben ist, weis nur intel alleine, ...
 
Oben