Solid-State-Drive

Aus besserwiki.de
Solid-State-Laufwerk
Super Talent 2.5in SATA SSD SAM64GM25S.jpg
Ein 2,5-Zoll-Serial-ATA-Solid-State-Laufwerk
Verwendung von Flash-Speicher
Eingeführt von:SanDisk
Datum der Einführung:1991; vor 32 Jahren
Kapazität:20 MB (2,5-Zoll-Formfaktor)
Ursprüngliches Konzept
Von:Gesellschaft für Speichertechnologie
Konzipiert:1978; vor 45 Jahren
Kapazität:45 MB
Ab 2019
Kapazität:Bis zu 100 TB 
250 GB mSATA SSD mit einem externen Gehäuse
512 GB Samsung M.2 NVMe SSD
Eine Intel mSATA SSD

Ein Solid-State-Laufwerk (SSD) ist ein Festkörperspeichergerät, das integrierte Schaltkreise verwendet, um Daten dauerhaft zu speichern, typischerweise unter Verwendung von Flash-Speicher, und das als Sekundärspeicher in der Hierarchie der Computerspeicher fungiert. Es wird manchmal auch als Halbleiterspeichergerät, Solid-State-Gerät oder Solid-State-Disk bezeichnet, obwohl SSDs nicht die physischen Drehscheiben und beweglichen Schreib-Lese-Köpfe haben, die in Festplattenlaufwerken (HDDs) und Diskettenlaufwerken verwendet werden.

Im Vergleich zu elektromechanischen Laufwerken sind SSDs in der Regel widerstandsfähiger gegen physische Stöße, laufen leise und haben höhere IOPS und geringere Latenzzeiten. SSDs speichern Daten in Halbleiterzellen. Ab 2019 können die Zellen zwischen 1 und 4 Bit Daten enthalten. SSD-Speichergeräte unterscheiden sich in ihren Eigenschaften je nach Anzahl der in jeder Zelle gespeicherten Bits, wobei Ein-Bit-Zellen ("Single Level Cells" oder "SLC") im Allgemeinen der zuverlässigste, haltbarste, schnellste und teuerste Typ sind, während Zwei- und Drei-Bit-Zellen ("Multi-Level Cells/MLC" und "Triple-Level Cells/TLC") und schließlich Quad-Bit-Zellen ("QLC") für Verbrauchergeräte verwendet werden, die keine so extremen Eigenschaften erfordern und die billigste der vier Arten pro Gigabyte sind. Darüber hinaus speichert der 3D-XPoint-Speicher (von Intel unter der Marke Optane vertrieben) Daten durch Änderung des elektrischen Widerstands der Zellen, anstatt elektrische Ladungen in den Zellen zu speichern, und aus RAM hergestellte SSDs können für hohe Geschwindigkeiten verwendet werden, wenn eine Datenaufrechterhaltung nach einem Stromausfall nicht erforderlich ist, oder können Batteriestrom verwenden, um Daten aufzubewahren, wenn die übliche Stromquelle nicht verfügbar ist. Hybrid-Laufwerke oder Solid-State-Hybrid-Laufwerke (SSHD), wie das Fusion Drive von Apple, vereinen die Eigenschaften von SSDs und HDDs in einem Gerät und nutzen sowohl Flash-Speicher als auch rotierende Magnetplatten, um die Leistung von Daten, auf die häufig zugegriffen wird, zu verbessern. Bcache erzielt einen ähnlichen Effekt rein softwaremäßig, indem es Kombinationen aus dedizierten regulären SSDs und HDDs verwendet.

SSDs, die auf NAND-Flash basieren, verlieren mit der Zeit langsam an Ladung, wenn sie längere Zeit ohne Strom bleiben. Dies führt dazu, dass abgenutzte Laufwerke (die ihre Lebensdauer überschritten haben) in der Regel nach einem Jahr (bei Lagerung bei 30 °C) bis zwei Jahren (bei 25 °C) Daten verlieren; bei neuen Laufwerken dauert es länger. Daher sind SSDs nicht für die Archivierung geeignet. 3D XPoint ist eine mögliche Ausnahme von dieser Regel; es handelt sich um eine relativ neue Technologie mit unbekannten langfristigen Datenerhaltungseigenschaften.

SSDs können herkömmliche HDD-Schnittstellen und -Formfaktoren oder neuere Schnittstellen und Formfaktoren verwenden, die spezifische Vorteile des Flash-Speichers in SSDs ausnutzen. Herkömmliche Schnittstellen (z. B. SATA und SAS) und Standard-HDD-Formfaktoren ermöglichen es, dass solche SSDs als Drop-in-Ersatz für HDDs in Computern und anderen Geräten verwendet werden können. Neuere Formfaktoren wie mSATA, M.2, U.2, NF1/M.3/NGSFF, XFM Express (Crossover Flash Memory, Formfaktor XT2) und EDSFF (früher bekannt als Ruler SSD) und höhere Geschwindigkeitsschnittstellen wie NVM Express (NVMe) über PCI Express (PCIe) können die Leistung gegenüber HDD weiter steigern.

SSDs haben eine begrenzte Anzahl von Schreibvorgängen während ihrer Lebensdauer und werden außerdem langsamer, wenn sie ihre volle Speicherkapazität erreichen.

Speichermedium
Solid State Drive (SSD)
2008Computex Ritek RiDATA Ultra-S IDE SATA2 SSD.jpg
Drei SSDs im weitverbreiteten 2,5"-Format.
Allgemeines
Typ Halbleiterbaustein
Kapazität bis 100 TB (Nimbus Data ExaDrive DC100, März 2018)
Lebensdauer Schreibvorgänge je Zelle:
1.000 (QLC)
1.000 (TLC in 21-nm-Fertigung)
3.000 (MLC in 25-nm-Fertigung)
5.000 (MLC in 34-nm-Fertigung)
10.000 (MLC in 50-nm-Fertigung)
100.000 (SLC in 50-nm-Fertigung)
bis zu 5 Mio. (selektierte SLC-Chips)
Größe bis 15,36 TB (kommerzieller Bereich)
bis 100 TB (industrieller Bereich)
Ursprung
Markteinführung 1978 von StorageTek

Ein Solid-State-Drive bzw. eine Solid-State-Disk (kurz SSD; aus dem Englischen entlehnt), seltener auch Halbleiterlaufwerk oder Festkörperspeicher genannt, ist ein nichtflüchtiger Datenspeicher der Computertechnik. Die Bezeichnung Drive (englisch für Laufwerk) bezieht sich auf die ursprüngliche und übliche Definition für dieses Medium von Computern. Die Bauform und die elektrischen Anschlüsse können den Normen für Laufwerke mit magnetischen oder optischen Speicherplatten entsprechen, müssen dies aber nicht. Sie können zum Beispiel auch als PCIe-Steckkarte ausgeführt sein. Wird eine magnetische Festplatte (engl. Hard Disk Drive, HDD) mit einem Solid-State-Speicher zu einem Gerät kombiniert, spricht man von einer Hybridfestplatte (engl. hybrid hard drive, HHD; auch engl. solid state hybrid drive, SSHD).

Solid-State-Drives wurden im Verlauf der zweiten Hälfte des 20. Jahrhunderts entwickelt, bis sie über Einzelanwendungen hinaus zum massenhaften Einsatz fähig wurden. Ihre Kosten waren anfangs im Verhältnis zur Speicherkapazität sehr hoch, verminderten sich aber ebenso wie die Baugrößen bei gleicher Leistung schnell entsprechend dem Mooreschen Gesetz, so dass sie um die Jahrtausendwende für spezielle Verwendungen auch wirtschaftlich rentabel wurden. Dennoch lagen die Preise für SSDs (in Euro pro Gigabyte) im Juli 2018 noch bei einem Mehrfachen des Preises eines herkömmlichen Magnetspeicher-Laufwerks. Anfang 2021 war der Preis noch rund das Vierfache gegenüber einer handelsüblichen Festplatte gleicher Kapazität.

SSDs haben keine beweglichen Teile und sind daher unempfindlich gegen Stöße, Erschütterungen und Vibrationen. Sie haben außerdem kürzere Zugriffszeiten und arbeiten geräuschlos. Im Gegensatz zu Festplatten braucht eine SSD nach dem Start keine Anlaufzeit. Sie benötigt weniger Strom und produziert weniger Abwärme. SSDs können deutlich kleiner als entsprechende Speicher mit Magnetplatten gebaut werden. Ausfälle und Fehler von SSDs sind häufig verursacht durch Fehler in der Firmware, die immer wieder unausgereift auf den Markt kommt und erst später durch Updates nachgebessert wird. SSD-Speicherzellen haben außerdem eine beschränkte Anzahl von Schreibzyklen.

Entwicklung und Geschichte

Frühe SSDs mit RAM und ähnlicher Technologie

Ein frühes - wenn auch nicht das erste - Halbleiterspeichergerät, das mit einer Festplattenschnittstelle kompatibel war (z. B. eine SSD im Sinne der Definition), war 1978 das StorageTek STC 4305, ein steckerkompatibler Ersatz für das IBM 2305 Festplattenlaufwerk. Es verwendete anfangs ladungsgekoppelte Bauelemente (CCDs) für die Speicherung (später wurde es auf DRAM umgestellt) und war daher Berichten zufolge siebenmal schneller als das IBM-Produkt bei etwa der Hälfte des Preises (400.000 $ für 45 MB Kapazität). Vor der StorageTek SSD gab es viele DRAM- und Core-Produkte (z. B. DATARAM BULK Core, 1976), die als Alternativen zu HDDs verkauft wurden, aber sie hatten in der Regel Speicherschnittstellen und waren keine SSDs im Sinne der Definition.

In den späten 1980er Jahren bot Zitel eine Familie von DRAM-basierten SSD-Produkten unter dem Handelsnamen "RAMDisk" an, die u. a. in Systemen von UNIVAC und Perkin-Elmer eingesetzt wurden.

Flash-basierte SSDs

SSD-Entwicklung
Parameter Angefangen mit Entwickelt zu Verbesserung
Kapazität 20 MB (Sandisk, 1991) 100 TB (Unternehmen Nimbus Data DC100, 2018)
(Ab 2020 bis zu 8 TB für Verbraucher verfügbar)
5-Millionen-zu-Eins
(400.000-zu-eins)
Sequentielle Lesegeschwindigkeit 49,3 MB/s (Samsung MCAQE32G5APP-0XA, 2007) 15 GB/s (Gigabyte-Demonstration, 2019)
(ab 2020 bis zu 6,795 GB/s für Verbraucher verfügbar)
304,25:1 (138:1)
Sequentielle Schreibgeschwindigkeit 80 MB/s (Samsung Enterprise SSD, 2008) 15.200 GB/s (Gigabyte Demonstration, 2019)
(Ab 2020 bis zu 4.397 GB/s für Verbraucher verfügbar)
190-zu-eins (55-zu-eins)
IOPS 79 (Samsung MCAQE32G5APP-0XA, 2007) 2.500.000 (Enterprise Micron X100, 2019)
(ab 2020 bis zu 736.270 Lese-IOPS und 702.210 Schreib-IOPS für Endverbraucher verfügbar)
31.645,56:1 (Verbraucher: Lese-IOPS: 9.319,87:1, Schreib-IOPS: 8.888,73:1)
Zugriffszeit (in Millisekunden, ms) 0,5 (Samsung MCAQE32G5APP-0XA, 2007) 0,045 Lesen, 0,013 Schreiben (niedrigste Werte, WD Black SN850 1TB, 2020) Lesen: 11:1, Schreiben: 38:1
Preis 50.000 US-Dollar pro Gigabyte (Sandisk, 1991) 0,10 US-Dollar pro Gigabyte (Crucial MX500, Juli 2020) 555.555-zu-eins

Die Grundlage für Flash-basierte SSDs, der Flash-Speicher, wurde 1980 von Fujio Masuoka bei Toshiba erfunden und 1987 von Toshiba auf den Markt gebracht. Die Gründer der SanDisk Corporation (damals SanDisk), Eli Harari und Sanjay Mehrotra, erkannten zusammen mit Robert D. Norman das Potenzial des Flash-Speichers als Alternative zu bestehenden Festplattenlaufwerken und meldeten 1989 ein Patent für eine flashbasierte SSD an. Die erste kommerzielle Flash-basierte SSD wurde 1991 von SanDisk ausgeliefert. Es handelte sich um eine 20-MB-SSD in einer PCMCIA-Konfiguration, die von IBM in einem ThinkPad-Laptop verwendet wurde und als OEM für rund 1.000 Dollar verkauft wurde. Im Jahr 1998 führte SanDisk SSDs in 2,5-Zoll- und 3,5-Zoll-Formfaktoren mit PATA-Schnittstellen ein.

1995 stieg STEC, Inc. in das Flash-Speicher-Geschäft für elektronische Verbrauchergeräte ein.

1995 führte M-Systems Flash-basierte Solid-State-Laufwerke als HDD-Ersatz für die Militär- und Luft- und Raumfahrtindustrie sowie für andere unternehmenskritische Anwendungen ein. Diese Anwendungen erfordern die Fähigkeit der SSDs, extremen Stößen, Vibrationen und Temperaturbereichen standzuhalten.

1999 stellte BiTMICRO eine Reihe von Flash-basierten SSDs vor und kündigte sie an, darunter eine 18 GB 3,5-Zoll-SSD. Im Jahr 2007 kündigte Fusion-io ein PCIe-basiertes Solid-State-Laufwerk mit einer Leistung von 100.000 Eingabe-/Ausgabeoperationen pro Sekunde (IOPS) in einer einzigen Karte und mit Kapazitäten von bis zu 320 GB an.

Auf der Cebit 2009 demonstrierte OCZ Technology eine 1-TB-Flash-SSD mit einer PCI Express ×8-Schnittstelle. Sie erreichte eine maximale Schreibgeschwindigkeit von 0,654 Gigabyte pro Sekunde (GB/s) und eine maximale Lesegeschwindigkeit von 0,712 GB/s. Im Dezember 2009 kündigte Micron Technology eine SSD mit einer SATA-Schnittstelle mit 6 Gigabit pro Sekunde (Gbit/s) an.

Im Jahr 2016 demonstrierte Seagate 10 GB/s sequenzielle Lese- und Schreibgeschwindigkeiten von einer 16-Lane-PCIe-3.0-SSD und eine 60-TB-SSD in einem 3,5-Zoll-Formfaktor. Samsung brachte außerdem eine 15,36-TB-SSD mit einem Preis von 10.000 US-Dollar auf den Markt, die eine SAS-Schnittstelle verwendet und einen 2,5-Zoll-Formfaktor, aber die Dicke von 3,5-Zoll-Laufwerken hat. Dies war das erste Mal, dass eine kommerziell erhältliche SSD mehr Kapazität hatte als die größte derzeit erhältliche HDD.

Im Jahr 2018 brachten sowohl Samsung als auch Toshiba SSDs mit 30,72 TB auf den Markt, die denselben 2,5-Zoll-Formfaktor, aber die Dicke von 3,5-Zoll-Laufwerken und eine SAS-Schnittstelle haben. Nimbus Data kündigte 100-TB-Laufwerke mit einer SATA-Schnittstelle an und lieferte diese Berichten zufolge auch aus - eine Kapazität, die HDDs voraussichtlich erst 2025 erreichen werden. Samsung stellte eine M.2 NVMe-SSD mit Lesegeschwindigkeiten von 3,5 GB/s und Schreibgeschwindigkeiten von 3,3 GB/s vor. Eine neue Version der 100-TB-SSD wurde 2020 zu einem Preis von 40.000 US-Dollar auf den Markt gebracht, die 50-TB-Version kostete 12.500 US-Dollar.

2019 stellte Gigabyte Technology auf der Computex 2019 eine 8 TB 16-Lane PCIe 4.0 SSD mit 15,0 GB/s sequentieller Lese- und 15,2 GB/s sequentieller Schreibgeschwindigkeit vor. Sie enthielt einen Lüfter, da neue Hochgeschwindigkeits-SSDs bei hohen Temperaturen laufen. Ebenfalls 2019 wurden NVMe M.2 SSDs mit der PCIe 4.0-Schnittstelle vorgestellt. Diese SSDs haben Lesegeschwindigkeiten von bis zu 5,0 GB/s und Schreibgeschwindigkeiten von bis zu 4,4 GB/s. Aufgrund ihrer hohen Geschwindigkeit verwenden diese SSDs große Kühlkörper und werden ohne ausreichenden Kühlluftstrom typischerweise nach etwa 15 Minuten Dauerbetrieb bei voller Geschwindigkeit thermisch gedrosselt. Samsung hat außerdem SSDs mit einer sequentiellen Lese- und Schreibgeschwindigkeit von 8 GB/s und 1,5 Millionen IOPS vorgestellt, die in der Lage sind, Daten von beschädigten Chips auf unbeschädigte Chips zu übertragen, damit das SSD normal weiterarbeiten kann, wenn auch mit geringerer Kapazität.

Flash-Laufwerke für Unternehmen

Ansichten von oben und unten eines 2,5-Zoll-100-GB-SATA-3.0-Modells (6 Gbit/s) der Intel DC S3700-Serie

Flash-Laufwerke für Unternehmen (EFDs) sind für Anwendungen konzipiert, die eine hohe E/A-Leistung (IOPS), Zuverlässigkeit, Energieeffizienz und in letzter Zeit auch eine gleichbleibende Leistung erfordern. In den meisten Fällen handelt es sich bei einem EFD um ein SSD mit höheren Spezifikationen im Vergleich zu SSDs, die normalerweise in Notebooks verwendet werden. Der Begriff wurde erstmals im Januar 2008 von EMC verwendet, um SSD-Hersteller zu identifizieren, die Produkte anbieten, die diese höheren Standards erfüllen. Es gibt keine Normungsgremien, die die Definition von EFDs kontrollieren, so dass jeder SSD-Hersteller behaupten kann, EFDs zu produzieren, obwohl das Produkt in Wirklichkeit gar keine besonderen Anforderungen erfüllt.

Ein Beispiel ist die im vierten Quartal 2012 eingeführte Intel DC S3700-Laufwerksserie, die sich auf die Erzielung einer konsistenten Leistung konzentriert, ein Bereich, dem bisher nicht viel Aufmerksamkeit geschenkt wurde, von dem Intel aber behauptet, dass er für den Unternehmensmarkt wichtig sei; insbesondere behauptet Intel, dass die S3700-Laufwerke im stabilen Zustand ihre IOPS um nicht mehr als 10-15 % variieren würden und dass 99,9 % aller 4-KB-Random-I/Os in weniger als 500 µs abgewickelt würden.

Ein weiteres Beispiel ist die 2016 angekündigte Enterprise-SSD-Serie PX02SS von Toshiba, die für den Einsatz in Server- und Speicherplattformen optimiert ist, die eine hohe Ausdauer bei schreibintensiven Anwendungen wie Schreib-Caching, I/O-Beschleunigung und Online-Transaktionsverarbeitung (OLTP) erfordern. Die PX02SS-Serie verwendet eine 12-Gbit/s-SAS-Schnittstelle, verfügt über MLC-NAND-Flash-Speicher und erreicht eine zufällige Schreibgeschwindigkeit von bis zu 42.000 IOPS, eine zufällige Lesegeschwindigkeit von bis zu 130.000 IOPS und eine Ausdauerleistung von 30 Schreibvorgängen pro Tag (DWPD).

SSDs, die auf 3D XPoint basieren, haben höhere IOPS (bis zu 2,5 Millionen), aber niedrigere sequentielle Lese-/Schreibgeschwindigkeiten als ihre Gegenstücke mit NAND-Flash.

Laufwerke mit anderen persistenten Speichertechnologien

Im Jahr 2017 wurden die ersten Produkte mit 3D XPoint-Speicher unter Intels Optane-Marke auf den Markt gebracht. 3D Xpoint ist völlig anders als NAND-Flash und speichert Daten nach anderen Prinzipien.

Architektur und Funktion

Die wichtigsten Komponenten einer SSD sind der Controller und der Speicher zum Speichern der Daten. Die primäre Speicherkomponente in einer SSD war traditionell der flüchtige DRAM-Speicher, aber seit 2009 ist es häufiger der nichtflüchtige NAND-Flash-Speicher.

Controller

Jede SSD enthält einen Controller, der die Elektronik enthält, die die NAND-Speicherkomponenten mit dem Host-Computer verbindet. Der Controller ist ein eingebetteter Prozessor, der Code auf Firmware-Ebene ausführt und einer der wichtigsten Faktoren für die SSD-Leistung ist. Einige der Funktionen, die der Controller ausführt, sind:

  • Bad-Block-Mapping
  • Lese- und Schreib-Caching
  • Verschlüsselung
  • Krypto-Shredding
  • Fehlererkennung und -korrektur mittels fehlerbereinigendem Code (ECC) wie BCH-Code
  • Garbage Collection
  • Read Scrubbing und Management von Lesestörungen
  • Abnutzungsausgleich

Die Leistung einer SSD kann mit der Anzahl der im Gerät verwendeten parallelen NAND-Flash-Chips skalieren. Ein einzelner NAND-Chip ist aufgrund der schmalen (8/16 Bit) asynchronen E/A-Schnittstelle und der zusätzlichen hohen Latenzzeit grundlegender E/A-Operationen relativ langsam (typisch für SLC-NAND: ~25 μs zum Abrufen einer 4-KiB-Seite aus dem Array in den E/A-Puffer beim Lesen, ~250 μs zum Übertragen einer 4-KiB-Seite aus dem E/A-Puffer in das Array beim Schreiben, ~2 ms zum Löschen eines 256-KiB-Blocks). Wenn mehrere NAND-Geräte in einer SSD parallel arbeiten, skaliert die Bandbreite, und die hohen Latenzen können verborgen werden, solange genügend ausstehende Operationen anstehen und die Last gleichmäßig auf die Geräte verteilt ist.

Micron und Intel stellten zunächst schnellere SSDs her, indem sie Daten-Striping (ähnlich wie RAID 0) und Interleaving in ihre Architektur implementierten. Dies ermöglichte 2009 die Entwicklung von SSDs mit effektiven Lese-/Schreibgeschwindigkeiten von 250 MB/s mit der SATA-3-Gbit/s-Schnittstelle. Zwei Jahre später nutzte SandForce diese parallele Flash-Konnektivität weiter und brachte SATA-6-Gbit/s-SSD-Controller für Verbraucher auf den Markt, die Lese- und Schreibgeschwindigkeiten von 500 MB/s unterstützten. SandForce-Controller komprimieren die Daten, bevor sie an den Flash-Speicher gesendet werden. Dieser Prozess kann je nach Komprimierbarkeit der Daten zu weniger Schreibvorgängen und einem höheren logischen Durchsatz führen.

Abnutzungsausgleich

Wenn ein bestimmter Block wiederholt programmiert und gelöscht wird, ohne dass andere Blöcke beschrieben werden, wird dieser Block vor allen anderen Blöcken abgenutzt - und damit die Lebensdauer der SSD vorzeitig beendet. Aus diesem Grund verwenden SSD-Controller eine Technik namens Wear Leveling, um Schreibvorgänge so gleichmäßig wie möglich auf alle Flash-Blöcke im SSD zu verteilen.

In einem perfekten Szenario würde dies dazu führen, dass jeder Block bis zu seiner maximalen Lebensdauer beschrieben wird, so dass alle Blöcke gleichzeitig ausfallen. Um die Schreibvorgänge gleichmäßig zu verteilen, müssen Daten, die zuvor geschrieben wurden und sich nicht ändern (kalte Daten), verschoben werden, damit Daten, die sich häufiger ändern (heiße Daten), in diese Blöcke geschrieben werden können. Das Verschieben von Daten erhöht die Schreibverstärkung und den Verschleiß des Flash-Speichers. Die Konstrukteure versuchen, beides zu minimieren.

Speicher

Flash-Speicher

Vergleich von Architekturen
Vergleich der Merkmale MLC : SLC NAND : NOR
Persistenz-Verhältnis 1 : 10 1 : 10
Sequentielles Schreibverhältnis 1 : 3 1 : 4
Sequentielles Leseverhältnis 1 : 1 1 : 5
Preisverhältnis 1 : 1.3 1 : 0.7

Die meisten SSD-Hersteller verwenden bei der Konstruktion ihrer SSDs nichtflüchtigen NAND-Flash-Speicher, da dieser im Vergleich zu DRAM kostengünstiger ist und die Daten auch ohne konstante Stromversorgung gespeichert werden können, wodurch die Daten auch bei plötzlichen Stromausfällen erhalten bleiben. Flash-Speicher-SSDs waren anfangs langsamer als DRAM-Lösungen, und einige frühe Designs waren nach fortgesetzter Nutzung sogar langsamer als HDDs. Dieses Problem wurde mit Controllern gelöst, die 2009 und später auf den Markt kamen.

Flash-basierte SSDs speichern Daten in integrierten Metall-Oxid-Halbleiter-Chips (MOS), die nichtflüchtige Floating-Gate-Speicherzellen enthalten. Flash-Speicher-basierte Lösungen werden in der Regel in Standard-Festplattenformfaktoren (1,8-, 2,5- und 3,5-Zoll) verpackt, aber auch in kleineren, kompakteren Formfaktoren, wie dem M.2-Formfaktor, der durch die geringe Größe des Flash-Speichers ermöglicht wird.

Günstigere Laufwerke verwenden in der Regel Quad-Level-Cell- (QLC), Triple-Level-Cell- (TLC) oder Multi-Level-Cell- (MLC) Flash-Speicher, die langsamer und weniger zuverlässig sind als Single-Level-Cell- (SLC) Flash-Speicher. Dies kann durch die interne Designstruktur des SSD, wie Interleaving, Änderungen an Schreibalgorithmen und höheres Over-Provisioning (mehr Überkapazität), mit dem die Wear-Leveling-Algorithmen arbeiten können, gemildert oder sogar umgekehrt werden.

Solid-State-Laufwerke, die auf der V-NAND-Technologie basieren, bei der die Zellen vertikal gestapelt sind, wurden eingeführt.

Die Qualität des verbauten NAND-Flashs ist unterschiedlich. Neben dem in die „Klasse 1“ eingestuften NAND-Flash wird auch als „Klasse 2“ eingestufter NAND-Flash in SSDs verbaut. Der SSD-Hersteller OWC hat bei einer Stichprobe von SSDs seines Konkurrenten OCZ sogar „Off-spec“-NAND in der SSD gefunden – Bauteile, deren Eigenschaften nicht innerhalb der Spezifikation liegen. Das sind Chips, die eigentlich die Qualitätssicherung für den Einsatz in SSDs laut NAND-Hersteller nicht bestanden haben. Andere Hersteller wiederum, wie beispielsweise Samsung in der 840-SSD-Serie, setzen auch auf TLC-NAND-Speicherzellen. TLC (engl. triple-level cell, dt. dreistufige Speicherzellen, de facto aber 3 Bit) hat im Vergleich zu SLC (engl. single-level cell) weitere Spannungslevel, wodurch noch mehr Daten pro Speicherzelle gespeichert werden können. Aufgrund der kleineren Abstände zwischen diesen Stufen und der daraus resultierenden Schwierigkeit, diese Level stets korrekt auszulesen, nimmt die Lebensdauer der Speicherzellen allerdings mit zunehmender Bit-Anzahl ab. Dem versuchen die Hersteller durch Anpassung der Fertigungstechnik entgegenzuwirken (z. B. 3D-V-NAND-Technik).

DRAM

SSDs, die auf flüchtigem Speicher wie DRAM basieren, zeichnen sich durch einen sehr schnellen Datenzugriff aus, der in der Regel weniger als 10 Mikrosekunden beträgt, und werden in erster Linie zur Beschleunigung von Anwendungen verwendet, die andernfalls durch die Latenzzeit von Flash-SSDs oder herkömmlichen HDDs behindert würden.

DRAM-basierte SSDs verfügen in der Regel entweder über einen internen Akku oder einen externen AC/DC-Adapter und ein Backup-Speichersystem, um die Aufrechterhaltung der Daten zu gewährleisten, wenn das Laufwerk nicht von externen Quellen mit Strom versorgt wird. Bei einem Stromausfall liefert der Akku Strom, während alle Informationen aus dem Arbeitsspeicher (RAM) in den Backup-Speicher kopiert werden. Wenn die Stromversorgung wiederhergestellt ist, werden die Informationen vom Backup-Speicher zurück in den RAM-Speicher kopiert, und die SSD nimmt ihren normalen Betrieb wieder auf (ähnlich wie die Ruhezustand-Funktion in modernen Betriebssystemen).

SSDs dieser Art sind in der Regel mit DRAM-Modulen des gleichen Typs ausgestattet, wie sie in normalen PCs und Servern verwendet werden. Wie z. B. i-RAM, HyperOs HyperDrive, DDRdrive X1, usw. Einige Hersteller von DRAM-SSDs löten die DRAM-Chips direkt an das Laufwerk und sehen nicht vor, dass die Chips ausgetauscht werden können, wie z. B. ZeusRAM, Aeon Drive usw.

Eine RIndMA-Disk (Remote, Indirect Memory-Access Disk) verwendet einen zweiten Computer mit einer schnellen Netzwerk- oder (direkten) Infiniband-Verbindung, um wie eine RAM-basierte SSD zu agieren, aber die neuen, schnelleren, Flash-Speicher-basierten SSDs, die bereits 2009 verfügbar waren, machen diese Option nicht mehr so kosteneffektiv.

Während der Preis von DRAM weiter sinkt, fällt der Preis von Flash-Speicher noch schneller. Der Übergangspunkt "Flash wird billiger als DRAM" fand etwa 2004 statt.

3D XPoint

Im Jahr 2015 kündigten Intel und Micron 3D XPoint als neue nichtflüchtige Speichertechnologie an. Intel brachte das erste 3D XPoint-basierte Laufwerk (unter dem Markennamen Intel Optane SSD) im März 2017 auf den Markt, zunächst mit einem Produkt für Rechenzentren, der Intel Optane SSD DC P4800X Serie, und anschließend im Oktober 2017 mit der Client-Version, der Intel Optane SSD 900P Serie. Beide Produkte arbeiten schneller und mit höherer Ausdauer als NAND-basierte SSDs, während die Flächendichte mit 128 Gigabit pro Chip vergleichbar ist. In Bezug auf den Preis pro Bit ist 3D XPoint teurer als NAND, aber günstiger als DRAM.

Andere

Einige SSDs, so genannte NVDIMM- oder Hyper-DIMM-Geräte, verwenden sowohl DRAM als auch Flash-Speicher. Wenn die Stromversorgung unterbrochen wird, kopiert das SSD alle Daten von seinem DRAM in den Flash-Speicher; wenn die Stromversorgung wiederhergestellt ist, kopiert das SSD alle Daten von seinem Flash-Speicher in seinen DRAM-Speicher. In ähnlicher Weise verwenden einige SSDs Formfaktoren und Busse, die eigentlich für DIMM-Module ausgelegt sind, während sie nur Flash-Speicher verwenden und diesen so aussehen lassen, als wäre er ein DRAM. Solche SSDs werden gewöhnlich als ULLtraDIMM-Geräte bezeichnet.

Laufwerke, die als Hybrid-Laufwerke oder Solid-State-Hybrid-Laufwerke (SSHD) bekannt sind, verwenden eine Mischung aus rotierenden Festplatten und Flash-Speicher. Einige SSDs verwenden magnetoresistiven Direktzugriffsspeicher (MRAM) zum Speichern von Daten.

Cache oder Puffer

Eine Flash-basierte SSD verwendet in der Regel eine kleine Menge DRAM als flüchtigen Cache, ähnlich den Puffern in Festplattenlaufwerken. Ein Verzeichnis von Blockplatzierungs- und Verschleißausgleichsdaten wird ebenfalls im Cache gespeichert, während das Laufwerk in Betrieb ist. Ein Hersteller von SSD-Controllern, SandForce, verwendet bei seinen Entwürfen keinen externen DRAM-Cache und erreicht dennoch eine hohe Leistung. Durch den Verzicht auf den externen DRAM wird der Stromverbrauch gesenkt und eine weitere Verkleinerung der SSDs ermöglicht.

Batterie oder Superkondensator

Eine weitere Komponente in leistungsfähigeren SSDs ist ein Kondensator oder eine Art Batterie, die zur Aufrechterhaltung der Datenintegrität erforderlich sind, damit die Daten im Cache bei einem Stromausfall in das Laufwerk gespült werden können; einige halten die Stromversorgung sogar so lange aufrecht, dass die Daten im Cache erhalten bleiben, bis die Stromversorgung wiederhergestellt ist. Bei MLC-Flash-Speichern kann ein Problem auftreten, das als Lower Page Corruption bezeichnet wird, wenn der MLC-Flash-Speicher während der Programmierung einer Upper Page den Strom verliert. Dies hat zur Folge, dass zuvor geschriebene und als sicher geltende Daten beschädigt werden können, wenn der Speicher im Falle eines plötzlichen Stromausfalls nicht durch einen Superkondensator unterstützt wird. Dieses Problem gibt es bei SLC-Flash-Speichern nicht.

Die meisten SSDs der Verbraucherklasse haben keine eingebauten Batterien oder Kondensatoren; zu den Ausnahmen gehören die Serien M500 und MX100 von Crucial, die Serie 320 von Intel sowie die teureren Serien 710 und 730 von Intel. SSDs der Unternehmensklasse, wie z. B. die Intel DC S3700-Serie, verfügen in der Regel über integrierte Batterien oder Kondensatoren.

Host-Schnittstelle

Ein M.2 (2242) Solid-State-Laufwerk (SSD), das an einen USB 3.0-Adapter angeschlossen und mit dem Computer verbunden ist.
Ein SSD mit 1,2 TB MLC NAND, das PCI Express als Host-Schnittstelle verwendet

Die Host-Schnittstelle ist physisch ein Anschluss, dessen Signalisierung vom SSD-Controller verwaltet wird. Meistens handelt es sich um eine der Schnittstellen, die in Festplatten zu finden sind. Dazu gehören:

  • Serial attached SCSI (SAS-3, 12,0 Gbit/s) - im Allgemeinen in Servern zu finden
  • Serial ATA und mSATA-Variante (SATA 3.0, 6,0 Gbit/s)
  • PCI Express (PCIe 3.0 ×4, 31,5 Gbit/s)
  • M.2 (6,0 Gbit/s für SATA 3.0 Logical Device Interface, 31,5 Gbit/s für PCIe 3.0 ×4)
  • U.2 (PCIe 3.0 ×4)
  • Fibre Channel (128 Gbit/s) - fast ausschließlich in Servern zu finden
  • USB (10 Gbit/s)
  • Parallel ATA (UDMA, 1064 Mbit/s) - meist durch SATA ersetzt
  • (Paralleles) SCSI (40 Mbit/s- 2560 Mbit/s) - im Allgemeinen auf Servern zu finden, meist durch SAS ersetzt; die letzte SCSI-basierte SSD wurde 2004 eingeführt

SSDs unterstützen verschiedene logische Geräteschnittstellen, wie Advanced Host Controller Interface (AHCI) und NVMe. Logische Geräteschnittstellen definieren die Befehlssätze, die von Betriebssystemen zur Kommunikation mit SSDs und Host-Bus-Adaptern (HBAs) verwendet werden.

Konfigurationen

Die Größe und Form eines Geräts wird weitgehend durch die Größe und Form der Komponenten bestimmt, aus denen das Gerät besteht. Herkömmliche Festplatten und optische Laufwerke sind um die rotierende(n) Platte(n) oder optische Disk zusammen mit dem Spindelmotor im Inneren herum konstruiert. Wenn eine SSD aus verschiedenen miteinander verbundenen integrierten Schaltkreisen (ICs) und einem Schnittstellenanschluss besteht, dann ist ihre Form nicht mehr auf die Form von Laufwerken mit rotierenden Medien beschränkt. Einige Solid-State-Speicherlösungen werden in einem größeren Gehäuse geliefert, das sogar ein Rackmount-Formfaktor mit zahlreichen SSDs darin sein kann. Sie werden alle an einen gemeinsamen Bus innerhalb des Gehäuses angeschlossen und außerhalb des Gehäuses mit einem einzigen Stecker verbunden.

Für den allgemeinen Computergebrauch ist der 2,5-Zoll-Formfaktor (typischerweise in Laptops zu finden) am beliebtesten. Bei Desktop-Computern mit 3,5-Zoll-Festplattensteckplätzen kann eine einfache Adapterplatte verwendet werden, um ein solches Laufwerk einzubauen. Andere Arten von Formfaktoren sind in Unternehmensanwendungen häufiger anzutreffen. Eine SSD kann auch vollständig in die anderen Schaltkreise des Geräts integriert sein, wie beim Apple MacBook Air (ab Herbst 2010). Ab 2014 wurden auch die Formfaktoren mSATA und M.2 immer beliebter, vor allem in Laptops.

Standard-HDD-Formfaktoren

Eine SSD mit einem 2,5-Zoll-HDD-Formfaktor, geöffnet, um die Solid-State-Elektronik zu zeigen. Leere Bereiche neben den NAND-Chips sind für zusätzliche NAND-Chips vorgesehen, so dass dieselbe Platine für mehrere Laufwerksmodelle mit unterschiedlichen Kapazitäten verwendet werden kann; andere Laufwerke verwenden stattdessen eine Platine, deren Größe mit der Laufwerkskapazität zunimmt, wobei der Rest des Laufwerks leer bleibt

Der Vorteil der Verwendung eines aktuellen HDD-Formfaktors wäre die Nutzung der bereits vorhandenen umfangreichen Infrastruktur für die Montage und den Anschluss der Laufwerke an das Host-System. Diese traditionellen Formfaktoren sind durch die Größe der rotierenden Medien (d.h. 5,25-Zoll, 3,5-Zoll, 2,5-Zoll oder 1,8-Zoll) und nicht durch die Abmessungen des Laufwerksgehäuses bekannt.

Standardkarten-Formfaktoren

Für Anwendungen, bei denen der Platz knapp ist, wie bei Ultrabooks oder Tablet-Computern, wurden einige kompakte Formfaktoren für Flash-basierte SSDs standardisiert.

Es gibt den mSATA-Formfaktor, der das physikalische Layout der PCI Express Mini Card verwendet. Er bleibt elektrisch kompatibel mit der PCI Express Mini Card-Schnittstellenspezifikation, erfordert aber eine zusätzliche Verbindung zum SATA-Host-Controller über denselben Anschluss.

Der M.2-Formfaktor, früher bekannt als Next Generation Form Factor (NGFF), ist ein natürlicher Übergang von mSATA und dem von ihm verwendeten physikalischen Layout zu einem benutzerfreundlicheren und moderneren Formfaktor. Während mSATA die Vorteile eines bestehenden Formfaktors und Anschlusses nutzte, wurde M.2 entwickelt, um den Platz auf der Karte zu maximieren und gleichzeitig den Platzbedarf zu minimieren. Der M.2-Standard ermöglicht es, dass sowohl SATA- als auch PCI-Express-SSDs in M.2-Module eingebaut werden können.

Einige Hochleistungslaufwerke mit hoher Kapazität verwenden den Standard-PCI-Express-Add-in-Card-Formfaktor, um zusätzliche Speicherchips unterzubringen, die Verwendung höherer Leistungsstufen und die Verwendung eines großen Kühlkörpers zu ermöglichen. Es gibt auch Adapterkarten, die andere Formfaktoren, insbesondere M.2-Laufwerke mit PCIe-Schnittstelle, in reguläre Add-in-Karten umwandeln.

Disk-on-a-module-Formfaktoren

Ein 2-GB-Disk-on-A-Module mit PATA-Schnittstelle

Ein Disk-on-a-Module (DOM) ist ein Flash-Laufwerk mit 40/44-poliger Parallel-ATA- (PATA) oder SATA-Schnittstelle, das direkt an die Hauptplatine angeschlossen und als Computerfestplatte (HDD) verwendet werden kann. DOM-Geräte emulieren ein herkömmliches Festplattenlaufwerk, so dass keine speziellen Treiber oder andere spezifische Betriebssystemunterstützung erforderlich sind. DOMs werden in der Regel in eingebetteten Systemen verwendet, die oft in rauen Umgebungen eingesetzt werden, in denen mechanische Festplatten einfach ausfallen würden, oder in Thin Clients, da sie klein sind, wenig Strom verbrauchen und leise arbeiten.

Im Jahr 2016 reichen die Speicherkapazitäten von 4 MB bis 128 GB mit verschiedenen Variationen des physischen Layouts, einschließlich vertikaler oder horizontaler Ausrichtung.

Box-Formfaktoren

Viele der DRAM-basierten Lösungen verwenden ein Gehäuse, das oft so konzipiert ist, dass es in ein Rackmount-System passt. Die Anzahl der DRAM-Komponenten, die erforderlich sind, um eine ausreichende Speicherkapazität für die Daten zusammen mit den Backup-Stromversorgungen zu erhalten, erfordert einen größeren Platz als herkömmliche Festplatten-Formfaktoren.

Bare-board Formfaktoren

Formfaktoren, die bisher eher bei Speichermodulen üblich waren, werden nun auch von SSDs verwendet, um die Flexibilität bei der Anordnung der Komponenten zu nutzen. Dazu gehören PCIe, mini PCIe, mini-DIMM, MO-297 und viele mehr. Das SATADIMM von Viking Technology nutzt einen leeren DDR3-DIMM-Steckplatz auf dem Motherboard, um die SSD mit Strom zu versorgen, und einen separaten SATA-Anschluss, um die Datenverbindung zurück zum Computer herzustellen. Das Ergebnis ist eine einfach zu installierende SSD mit einer Kapazität, die der von Laufwerken entspricht, die normalerweise einen vollen 2,5-Zoll-Laufwerksschacht belegen. Mindestens ein Hersteller, Innodisk, hat ein Laufwerk hergestellt, das direkt auf dem SATA-Anschluss (SATADOM) auf der Hauptplatine sitzt, ohne dass ein Stromkabel erforderlich ist. Einige SSDs basieren auf dem PCIe-Formfaktor und verbinden sowohl die Datenschnittstelle als auch die Stromversorgung über den PCIe-Anschluss mit dem Host. Diese Laufwerke können entweder direkte PCIe-Flash-Controller oder ein PCIe-zu-SATA-Brückengerät verwenden, das dann mit SATA-Flash-Controllern verbunden wird.

Ball-Grid-Array-Formfaktoren

In den frühen 2000er Jahren führten einige Unternehmen SSDs in Ball Grid Array (BGA)-Formfaktoren ein, wie z. B. DiskOnChip von M-Systems (jetzt SanDisk) und NANDrive von Silicon Storage Technology (jetzt von Greenliant Systems hergestellt) sowie M1000 von Memoright zur Verwendung in eingebetteten Systemen. Die Hauptvorteile von BGA-SSDs sind der niedrige Stromverbrauch, das kleine Chip-Gehäuse, das in kompakte Subsysteme passt, und die Tatsache, dass sie direkt auf die Hauptplatine eines Systems gelötet werden können, um nachteilige Auswirkungen von Vibrationen und Stößen zu verringern.

Solche eingebetteten Laufwerke entsprechen häufig den Standards eMMC und eUFS.

Vergleich mit anderen Technologien

Festplattenlaufwerke

SSD-Benchmark, der eine Lesegeschwindigkeit von etwa 230 MB/s (blau), eine Schreibgeschwindigkeit von 210 MB/s (rot) und eine Suchzeit von etwa 0,1 ms (grün) anzeigt, und zwar unabhängig von der Position der Festplatte, auf die zugegriffen wird.

Ein Vergleich zwischen SSDs und herkömmlichen (rotierenden) Festplatten ist schwierig. Herkömmliche HDD-Benchmarks konzentrieren sich in der Regel auf die Leistungsmerkmale, die bei HDDs schlecht sind, wie Rotationslatenz und Suchzeit. Da SSDs nicht rotieren oder suchen müssen, um Daten zu finden, können sie sich in solchen Tests gegenüber HDDs als weit überlegen erweisen. Allerdings haben SSDs Probleme mit gemischten Lese- und Schreibvorgängen, und ihre Leistung kann mit der Zeit abnehmen. SSD-Tests müssen von einem (in Gebrauch befindlichen) vollen Laufwerk ausgehen, da ein neues und leeres (frisches, aus der Verpackung genommenes) Laufwerk eine viel bessere Schreibleistung aufweisen kann, als es nach nur wenigen Wochen der Nutzung der Fall wäre.

Die meisten Vorteile von Solid-State-Laufwerken gegenüber herkömmlichen Festplatten beruhen auf ihrer Fähigkeit, auf Daten vollständig elektronisch statt elektromechanisch zuzugreifen, was zu überlegenen Übertragungsgeschwindigkeiten und mechanischer Widerstandsfähigkeit führt. Auf der anderen Seite bieten Festplattenlaufwerke für ihren Preis eine deutlich höhere Kapazität.

Einige Ausfallraten in der Praxis deuten darauf hin, dass SSDs wesentlich zuverlässiger sind als HDDs, andere wiederum nicht. Allerdings reagieren SSDs besonders empfindlich auf plötzliche Stromunterbrechungen, was zu Schreibabbrüchen oder sogar zum vollständigen Ausfall des Laufwerks führen kann. Die Zuverlässigkeit sowohl von HDDs als auch von SSDs variiert stark zwischen den einzelnen Modellen.

Wie bei HDDs gibt es auch bei SSDs einen Kompromiss zwischen Kosten und Leistung. Single-Level-Cell-SSDs (SLC) sind zwar deutlich teurer als Multi-Level-SSDs (MLC), bieten aber einen erheblichen Geschwindigkeitsvorteil. Gleichzeitig gelten DRAM-basierte Solid-State-Speicher derzeit als die schnellsten und teuersten, mit durchschnittlichen Reaktionszeiten von 10 Mikrosekunden statt der durchschnittlichen 100 Mikrosekunden anderer SSDs. Flash-Geräte für Unternehmen (EFDs) sind darauf ausgelegt, die Anforderungen von Tier-1-Anwendungen mit einer Leistung und Reaktionszeit zu erfüllen, die mit der von kostengünstigeren SSDs vergleichbar ist.

Bei herkömmlichen Festplatten belegt eine neu geschriebene Datei in der Regel dieselbe Stelle auf der Festplattenoberfläche wie die ursprüngliche Datei, während bei SSDs die neue Kopie zum Zweck des Verschleißausgleichs oft auf andere NAND-Zellen geschrieben wird. Die Algorithmen für den Verschleißausgleich sind komplex und lassen sich nur schwer umfassend testen; eine der Hauptursachen für Datenverluste bei SSDs sind daher Fehler in der Firmware.

Die folgende Tabelle gibt einen detaillierten Überblick über die Vor- und Nachteile der beiden Technologien. Die Vergleiche spiegeln typische Merkmale wider und gelten möglicherweise nicht für ein bestimmtes Gerät.

Vergleich von NAND-basierten SSD und HDD
Attribut oder Merkmal Solid-State-Laufwerk Festplattenlaufwerk
Preis pro Kapazität SSDs sind im Allgemeinen teurer als HDDs und werden dies voraussichtlich auch in den 2020er Jahren bleiben.

SSD-Preis im ersten Quartal 2018 rund 30 Cent (US) pro Gigabyte auf der Grundlage von 4-TB-Modellen.

Die Preise sind im Allgemeinen jährlich gesunken, und es wird erwartet, dass dies auch 2018 der Fall sein wird.


HDD-Preis im ersten Quartal 2018 etwa 2 bis 3 Cent (US) pro Gigabyte auf der Grundlage von 1-TB-Modellen.

Die Preise sind im Allgemeinen jährlich gesunken, und es wird erwartet, dass dies auch 2018 der Fall sein wird.

Speicherkapazität Im Jahr 2018 waren SSDs in Größen von bis zu 100 TB erhältlich, aber preiswertere Modelle mit 120 bis 512 GB waren üblicher. Im Jahr 2018 waren HDDs mit bis zu 16 TB verfügbar.
Zuverlässigkeit - Datenerhalt Wenn sie nicht mit Strom versorgt werden, verlieren abgenutzte SSDs in der Regel nach etwa ein bis zwei Jahren Daten, je nach Temperatur im Speicher. Neue Laufwerke sollen Daten für etwa zehn Jahre speichern. MLC- und TLC-basierte Geräte neigen dazu, Daten früher zu verlieren als SLC-basierte Geräte. SSDs sind nicht für die Archivierung geeignet. Wenn sie in einer trockenen Umgebung bei niedrigen Temperaturen aufbewahrt werden, können Festplatten ihre Daten auch ohne Stromzufuhr über einen sehr langen Zeitraum aufbewahren. Die mechanischen Teile neigen jedoch dazu, mit der Zeit zu verklumpen, und das Laufwerk lässt sich nach einigen Jahren der Lagerung nicht mehr hochfahren.
Zuverlässigkeit - Langlebigkeit SSDs haben keine beweglichen Teile, die mechanisch ausfallen können, sodass sie theoretisch zuverlässiger sein sollten als HDDs. In der Praxis ist dies jedoch unklar.

Jeder Block einer Flash-basierten SSD kann nur eine begrenzte Anzahl von Malen gelöscht (und somit beschrieben) werden, bevor er ausfällt. Die Controller verwalten diese Begrenzung, so dass die Laufwerke bei normaler Nutzung viele Jahre lang halten können. Bei DRAM-basierten SSDs gibt es keine begrenzte Anzahl von Schreibvorgängen. Allerdings kann der Ausfall eines Controllers eine SSD unbrauchbar machen. Die Zuverlässigkeit variiert erheblich zwischen den verschiedenen SSD-Herstellern und -Modellen, wobei die Rücklaufquote bei bestimmten Laufwerken bis zu 40 % beträgt. Viele SSDs fallen bei Stromausfällen kritisch aus; eine im Dezember 2013 durchgeführte Untersuchung vieler SSDs ergab, dass nur einige von ihnen mehrere Stromausfälle überstehen können. Eine Facebook-Studie ergab, dass ein spärliches Datenlayout im physischen Adressraum einer SSD (z. B. nicht zusammenhängende Daten), ein dichtes Datenlayout (z. B. zusammenhängende Daten) und eine höhere Betriebstemperatur (die mit dem Stromverbrauch für die Datenübertragung korreliert) jeweils zu höheren Ausfallraten bei SSDs führen.

SSDs haben jedoch viele Überarbeitungen erfahren, die sie zuverlässiger und langlebiger gemacht haben. Neue SSDs, die heute auf dem Markt sind, verwenden Schutzschaltungen gegen Leistungsverluste, Verschleißausgleichstechniken und thermische Drosselung, um ihre Langlebigkeit zu gewährleisten.

HDDs haben bewegliche Teile und sind aufgrund der daraus resultierenden Abnutzung potenziellen mechanischen Ausfällen ausgesetzt, so dass sie theoretisch weniger zuverlässig sein sollten als SSDs. In der Praxis ist dies jedoch unklar.

Das Speichermedium selbst (die Magnetplatte) wird durch Lese- und Schreibvorgänge nicht wesentlich beeinträchtigt.

Laut einer von der Carnegie Mellon University durchgeführten Studie über Festplatten für Verbraucher und Unternehmen liegt die durchschnittliche Ausfallrate bei 6 Jahren und die Lebenserwartung bei 9-11 Jahren. Das Risiko eines plötzlichen, katastrophalen Datenverlusts kann bei Festplatten jedoch geringer sein.

Bei langfristiger Offline-Lagerung (ohne Stromzufuhr im Regal) bewahrt das magnetische Medium von HDD die Daten wesentlich länger als der in SSDs verwendete Flash-Speicher.

Start-up-Zeit Fast augenblicklich; keine mechanischen Komponenten, die vorbereitet werden müssen. Es kann einige Millisekunden dauern, bis der automatische Energiesparmodus beendet ist. Das Hochfahren des Laufwerks kann mehrere Sekunden dauern. Bei einem System mit vielen Laufwerken muss das Hochfahren möglicherweise gestaffelt werden, um den Spitzenstromverbrauch zu begrenzen, der beim ersten Hochfahren einer Festplatte kurzzeitig hoch ist.
Sequentielle Zugriffsleistung Bei Verbraucherprodukten liegt die maximale Übertragungsrate je nach Laufwerk zwischen 200 MB/s und 3500 MB/s. SSDs für Unternehmen können einen Durchsatz von mehreren Gigabyte pro Sekunde erreichen. Sobald der Kopf positioniert ist, kann ein modernes Festplattenlaufwerk beim Lesen oder Schreiben einer kontinuierlichen Spur Daten mit etwa 200 MB/s übertragen. Die Datenübertragungsrate hängt auch von der Umdrehungsgeschwindigkeit ab, die zwischen 3.600 und 15.000 U/min liegen kann, sowie von der Spur (das Lesen von den äußeren Spuren ist schneller). Die Datenübertragungsgeschwindigkeit kann bis zu 480 MB/s betragen (experimentell).
Leistung beim wahlfreien Zugriff Zufallszugriffszeit typischerweise unter 0,1 ms. Da die Daten direkt von verschiedenen Stellen des Flash-Speichers abgerufen werden können, stellt die Zugriffszeit normalerweise keinen großen Leistungsengpass dar. Die Leseleistung ändert sich nicht, je nachdem, wo die Daten gespeichert sind. Bei Anwendungen, bei denen die Suchvorgänge auf der Festplatte der begrenzende Faktor sind, führt dies zu schnelleren Boot- und Anwendungsstartzeiten (siehe Amdahls Gesetz).

Die SSD-Technologie kann eine relativ konstante Lese-/Schreibgeschwindigkeit liefern, aber wenn auf viele einzelne kleinere Blöcke zugegriffen wird, sinkt die Leistung. Der Flash-Speicher muss gelöscht werden, bevor er wieder beschrieben werden kann. Dies erfordert eine übermäßige Anzahl von Schreibvorgängen über das vorgesehene Maß hinaus (ein Phänomen, das als Schreibverstärkung bekannt ist), was sich negativ auf die Leistung auswirkt. SSDs weisen in der Regel eine kleine, stetige Verringerung der Schreibleistung über ihre Lebensdauer auf, obwohl sich die durchschnittliche Schreibgeschwindigkeit einiger Laufwerke mit zunehmendem Alter verbessern kann.

Die Leselatenzzeit ist viel höher als bei SSDs. Die Zeit für den wahlfreien Zugriff reicht von 2,9 (High-End-Serverlaufwerk) bis 12 ms (Laptop-HDD), da die Köpfe bewegt werden müssen und die Daten unter dem Magnetkopf rotieren müssen. Die Lesezeit ist bei jedem Suchlauf unterschiedlich, da die Position der Daten und die Position des Kopfes wahrscheinlich unterschiedlich sind. Wenn auf Daten aus verschiedenen Bereichen der Platte zugegriffen werden muss, wie bei fragmentierten Dateien, verlängern sich die Antwortzeiten durch die Notwendigkeit, jedes Fragment zu suchen.
Auswirkungen der Fragmentierung des Dateisystems Das sequentielle Lesen von Daten (jenseits typischer FS-Blockgrößen, z. B. 4 KiB) hat nur begrenzten Nutzen, so dass die Fragmentierung für SSDs vernachlässigbar ist. Eine Defragmentierung würde durch zusätzliche Schreibvorgänge auf die NAND-Flash-Zellen, die eine begrenzte Lebensdauer haben, Verschleiß verursachen. Doch selbst bei SSDs gibt es eine praktische Grenze dafür, wie viel Fragmentierung bestimmte Dateisysteme aushalten können; sobald diese Grenze erreicht ist, schlagen nachfolgende Dateizuweisungen fehl. Folglich kann eine Defragmentierung weiterhin erforderlich sein, wenn auch in geringerem Maße. Einige Dateisysteme, wie NTFS, werden mit der Zeit fragmentiert, wenn sie häufig beschrieben werden; eine regelmäßige Defragmentierung ist erforderlich, um eine optimale Leistung zu gewährleisten. Bei modernen Dateisystemen ist dies normalerweise kein Problem.
Akustische Geräusche SSDs haben keine beweglichen Teile und sind daher geräuschlos, obwohl bei einigen SSDs hohe Geräusche durch den Hochspannungsgenerator (zum Löschen von Blöcken) auftreten können. Festplatten haben bewegliche Teile (Köpfe, Aktuator und Spindelmotor) und erzeugen charakteristische Geräusche wie Surren und Klicken; der Geräuschpegel hängt von der Drehzahl ab, kann aber beträchtlich sein (obwohl er oft viel geringer ist als das Geräusch der Lüfter). Laptop-Festplatten sind relativ leise.
Temperaturkontrolle Eine Facebook-Studie ergab, dass bei Betriebstemperaturen über 40 °C die Ausfallrate bei SSDs mit der Temperatur steigt. Bei neueren Laufwerken, die eine thermische Drosselung verwenden, war dies jedoch nicht der Fall, wenn auch zu einem potenziellen Preis für die Leistung. In der Praxis benötigen SSDs in der Regel keine besondere Kühlung und können höhere Temperaturen als HDDs vertragen. Einige SSDs, einschließlich High-End-Modelle für Unternehmen, die als Zusatzkarten oder 2,5-Zoll-Einschübe installiert werden, können mit Kühlkörpern geliefert werden, um die erzeugte Wärme abzuleiten, und benötigen für den Betrieb eine bestimmte Menge an Luftstrom. Umgebungstemperaturen über 35 °C können die Lebensdauer einer Festplatte verkürzen, und bei Laufwerkstemperaturen über 55 °C wird die Zuverlässigkeit beeinträchtigt. Eine Lüfterkühlung kann erforderlich sein, wenn die Temperaturen sonst diese Werte überschreiten würden. In der Praxis können moderne Festplatten ohne besondere Vorkehrungen für die Kühlung verwendet werden.
Niedrigste Betriebstemperatur SSDs können bei -55 °C (-67 °F) betrieben werden. Die meisten modernen HDDs können bei 0 °C (32 °F) betrieben werden.
Höchste Höhe beim Betrieb Für SSDs gibt es hier keine Probleme. HDDs können bis zu einer Höhe von maximal 3.000 Metern (10.000 ft) sicher betrieben werden. HDDs können in Höhen über 12.000 Metern (40.000 ft) nicht mehr betrieben werden. Mit der Einführung von mit Helium gefüllten (versiegelten) Festplatten dürfte dies kein Problem mehr darstellen.
Wechsel von einer kalten Umgebung in eine wärmere Umgebung SSDs haben damit keine Probleme. Durch den Mechanismus der thermischen Drosselung werden SSDs sicher aufbewahrt und vor einem Temperaturungleichgewicht geschützt. Bei einigen Festplatten kann eine gewisse Akklimatisierungszeit erforderlich sein, wenn sie von einer kalten in eine wärmere Umgebung gebracht werden, bevor sie in Betrieb genommen werden; je nach Luftfeuchtigkeit kann sich an den Köpfen und/oder Festplatten Kondensation bilden, und ein sofortiger Betrieb führt zu Schäden an diesen Komponenten. Moderne Helium-HDDs sind versiegelt und haben dieses Problem nicht.
Entlüftungsöffnung SSDs benötigen keine Entlüftungsöffnung. Die meisten modernen HDDs benötigen eine Entlüftungsöffnung, um ordnungsgemäß zu funktionieren. Mit Helium gefüllte Geräte sind versiegelt und haben kein Loch.
Anfälligkeit für Umwelteinflüsse Keine beweglichen Teile, sehr widerstandsfähig gegen Stöße, Vibrationen, Bewegungen und Verschmutzung. Köpfe, die über schnell rotierende Platten fliegen, sind anfällig für Stöße, Vibrationen, Bewegungen und Verunreinigungen, die das Medium beschädigen könnten.
Installation und Montage Unempfindlich gegen Ausrichtung, Vibration und Stöße. Normalerweise keine freiliegenden Schaltkreise. In einem Gerät in Kartenform können Schaltkreise freiliegen, die nicht durch leitende Materialien kurzgeschlossen werden dürfen. Die Schaltkreise können freiliegen und dürfen nicht durch leitende Materialien kurzgeschlossen werden (z. B. das Metallgehäuse eines Computers). Die Festplatten sollten so montiert werden, dass sie vor Vibrationen und Stößen geschützt sind. Einige Festplatten sollten nicht in einer geneigten Position installiert werden.
Anfälligkeit für Magnetfelder Geringe Auswirkung auf Flash-Speicher, aber ein elektromagnetischer Impuls kann jedes elektrische System, insbesondere integrierte Schaltkreise, beschädigen. Generell können Magnete oder magnetische Überspannungen zu Datenbeschädigungen oder mechanischen Schäden an den Festplatteneinbauten führen. Das Metallgehäuse des Laufwerks bietet eine geringe Abschirmung für die Magnetplatten.
Gewicht und Größe SSDs, im Wesentlichen Halbleiterspeichergeräte, die auf einer Leiterplatte montiert sind, sind klein und leicht. Sie haben oft die gleichen Formfaktoren wie Festplatten (2,5-Zoll oder 1,8-Zoll) oder sind nackte Leiterplatten (M.2 und mSATA). Die Gehäuse der meisten Mainstream-Modelle bestehen, wenn überhaupt, meist aus Kunststoff oder Leichtmetall. Bei Hochleistungsmodellen sind oft Kühlkörper am Gerät angebracht, oder sie haben sperrige Gehäuse, die als Kühlkörper dienen und das Gewicht erhöhen. HDDs sind in der Regel schwerer als SSDs, da die Gehäuse meist aus Metall bestehen und schwere Gegenstände wie Motoren und große Magnete enthalten. 3,5-Zoll-Laufwerke wiegen in der Regel etwa 700 Gramm (1,5 lb).
Einschränkungen beim sicheren Schreiben NAND-Flash-Speicher kann nicht überschrieben werden, sondern muss auf zuvor gelöschte Blöcke neu geschrieben werden. Wenn ein Software-Verschlüsselungsprogramm Daten verschlüsselt, die sich bereits auf der SSD befinden, sind die überschriebenen Daten immer noch ungesichert, unverschlüsselt und zugänglich (dieses Problem tritt bei der festplattenbasierten Hardware-Verschlüsselung nicht auf). Auch können Daten nicht sicher gelöscht werden, indem die Originaldatei überschrieben wird, ohne dass spezielle, in das Laufwerk integrierte "Secure Erase"-Verfahren zum Einsatz kommen. HDDs können Daten direkt auf dem Laufwerk in einem bestimmten Sektor überschreiben. Die Firmware des Laufwerks kann jedoch beschädigte Blöcke gegen Ersatzbereiche austauschen, so dass Bits und Stücke noch vorhanden sein können. Bei den Festplatten einiger Hersteller wird beim Befehl ATA Secure Erase Enhanced Erase das gesamte Laufwerk mit Nullen gefüllt, einschließlich der verschobenen Sektoren.
Symmetrie der Lese-/Schreibleistung Bei preiswerteren SSDs ist die Schreibgeschwindigkeit in der Regel deutlich niedriger als die Lesegeschwindigkeit. Leistungsstärkere SSDs haben ähnliche Lese- und Schreibgeschwindigkeiten. HDDs haben im Allgemeinen etwas längere (schlechtere) Suchzeiten beim Schreiben als beim Lesen.
Verfügbarkeit freier Blöcke und TRIM Die Schreibleistung von SSDs wird erheblich von der Verfügbarkeit freier, programmierbarer Blöcke beeinflusst. Zuvor geschriebene Datenblöcke, die nicht mehr verwendet werden, können durch TRIM zurückgewonnen werden; aber auch mit TRIM führen weniger freie Blöcke zu einer langsameren Leistung. HDDs sind nicht von freien Blöcken betroffen und profitieren nicht von TRIM.
Stromverbrauch Leistungsstarke Flash-basierte SSDs benötigen im Allgemeinen die Hälfte bis ein Drittel des Stroms von HDDs. Leistungsstarke DRAM-SSDs benötigen in der Regel genauso viel Strom wie HDDs und müssen auch dann mit Strom versorgt werden, wenn der Rest des Systems ausgeschaltet ist. Aufstrebende Technologien wie DevSlp können den Energiebedarf von Laufwerken im Leerlauf minimieren. Die HDDs mit dem geringsten Stromverbrauch (1,8 Zoll) können im Leerlauf nur 0,35 Watt verbrauchen. 2,5-Zoll-Laufwerke verbrauchen in der Regel 2 bis 5 Watt. Die leistungsstärksten 3,5-Zoll-Laufwerke können bis zu 20 Watt verbrauchen.
Maximale flächenbezogene Speicherdichte (Terabit pro Quadratzoll) 2.8 1.2

Speicherkarten

CompactFlash-Karte, die als SSD verwendet wird

Obwohl sowohl Speicherkarten als auch die meisten SSDs Flash-Speicher verwenden, dienen sie sehr unterschiedlichen Märkten und Zwecken. Beide haben eine Reihe unterschiedlicher Eigenschaften, die optimiert und angepasst werden, um den Bedürfnissen der jeweiligen Nutzer am besten gerecht zu werden. Einige dieser Eigenschaften sind Stromverbrauch, Leistung, Größe und Zuverlässigkeit.

SSDs wurden ursprünglich für den Einsatz in einem Computersystem entwickelt. Die ersten Geräte sollten Festplattenlaufwerke ersetzen oder ergänzen, so dass das Betriebssystem sie als Festplattenlaufwerk erkannte. Ursprünglich waren Solid-State-Laufwerke sogar so geformt und in den Computer eingebaut wie Festplattenlaufwerke. Später wurden SSDs kleiner und kompakter und entwickelten schließlich ihre eigenen einzigartigen Formfaktoren wie den M.2-Formfaktor. Die SSD wurde für den dauerhaften Einbau in einen Computer konzipiert.

Im Gegensatz dazu wurden Speicherkarten (wie Secure Digital (SD), CompactFlash (CF) und viele andere) ursprünglich für Digitalkameras entwickelt und fanden später ihren Weg in Mobiltelefone, Spielegeräte, GPS-Geräte usw. Die meisten Speicherkarten sind physisch kleiner als SSDs und dafür ausgelegt, wiederholt eingesetzt und entfernt zu werden.

SSD-Ausfall

SSDs haben ganz andere Ausfallmodi als herkömmliche magnetische Festplattenlaufwerke. Da Solid-State-Laufwerke keine beweglichen Teile enthalten, sind sie im Allgemeinen nicht von mechanischen Fehlern betroffen. Stattdessen sind andere Arten von Fehlern möglich (z. B. können unvollständige oder fehlgeschlagene Schreibvorgänge aufgrund eines plötzlichen Stromausfalls ein größeres Problem darstellen als bei HDDs, und wenn ein Chip ausfällt, gehen alle darauf befindlichen Daten verloren, was bei magnetischen Laufwerken nicht der Fall ist). Im Großen und Ganzen haben Studien jedoch gezeigt, dass SSDs im Allgemeinen sehr zuverlässig sind und oft weit über die vom Hersteller angegebene Lebensdauer hinaus funktionieren.

Die Lebensdauer einer SSD sollte auf ihrem Datenblatt in einer von zwei Formen angegeben werden:

  • entweder n DW/D (n Laufwerke schreiben pro Tag)
  • oder m TBW (max. geschriebene Terabytes), kurz TBW.

So hat zum Beispiel eine Samsung 970 EVO NVMe M.2 SSD (2018) mit 1 TB eine Ausdauer von 600 TBW.

SSD-Zuverlässigkeit und Ausfallmodi

In einer frühen Untersuchung von Techreport.com, die von 2013 bis 2015 lief, wurde eine Reihe von Flash-basierten SSDs bis zur Zerstörung getestet, um herauszufinden, wie und zu welchem Zeitpunkt sie versagten. Die Website fand heraus, dass alle Laufwerke "ihre offiziellen Ausdauerspezifikationen übertrafen, indem sie ohne Probleme Hunderte von Terabyte schrieben" - Mengen in dieser Größenordnung, die über den typischen Verbraucherbedarf hinausgehen. Das erste SSD, das ausfiel, war ein TLC-basiertes Laufwerk, das über 800 TB schreiben konnte. Drei SSDs im Test schrieben die dreifache Menge (fast 2,5 PB), bevor auch sie ausfielen. Der Test zeigte die bemerkenswerte Zuverlässigkeit selbst von SSDs aus dem Verbrauchermarkt.

Eine Feldstudie aus dem Jahr 2016, die auf Daten basiert, die über einen Zeitraum von sechs Jahren in den Rechenzentren von Google gesammelt wurden und "Millionen" von Laufwerkstagen umfassen, ergab, dass der Anteil der Flash-basierten SSDs, die in den ersten vier Jahren ausgetauscht werden müssen, je nach Modell zwischen 4 % und 10 % liegt. Die Autoren kamen zu dem Schluss, dass SSDs deutlich seltener ausfallen als Festplattenlaufwerke. (Im Gegensatz dazu ergab eine 2016 durchgeführte Evaluierung von 71.940 HDDs vergleichbare Ausfallraten wie die von Googles SSDs: die HDDs hatten eine durchschnittliche jährliche Ausfallrate von 1,95 %.) Die Studie hat auch gezeigt, dass SSDs deutlich höhere Raten an nicht korrigierbaren Fehlern (die zu Datenverlusten führen) aufweisen als HDDs. Sie führte auch zu einigen unerwarteten Ergebnissen und Implikationen:

  • In der realen Welt sind MLC-basierte Designs - von denen man annahm, sie seien weniger zuverlässig als SLC-Designs - oft genauso zuverlässig wie SLC. (Die Ergebnisse besagen, dass "SLC nicht generell zuverlässiger ist als MLC".) Aber im Allgemeinen wird gesagt, dass die Schreibausdauer wie folgt ist:
    • SLC NAND: 100.000 Löschvorgänge pro Block
    • MLC NAND: 5.000 bis 10.000 Löschvorgänge pro Block für Anwendungen mit mittlerer Kapazität und 1.000 bis 3.000 für Anwendungen mit hoher Kapazität
    • TLC NAND: 1.000 Löschvorgänge pro Block
  • Das Gerätealter, gemessen an den Tagen der Nutzung, ist der Hauptfaktor für die SSD-Zuverlässigkeit und nicht die Menge der gelesenen oder geschriebenen Daten, die durch geschriebene Terabytes oder Schreibvorgänge pro Tag gemessen werden. Dies deutet darauf hin, dass andere Alterungsmechanismen, wie z. B. die "Siliziumalterung", im Spiel sind. Die Korrelation ist signifikant (etwa 0,2-0,4).
  • Die Roh-Bitfehlerraten (RBER) wachsen langsam mit der Abnutzung - und nicht exponentiell, wie oft angenommen wird. RBER ist kein guter Prädiktor für andere Fehler oder SSD-Ausfälle.
  • Die unkorrigierbare Bitfehlerrate (UBER) wird häufig verwendet, ist aber auch kein guter Prädiktor für einen Ausfall. Die UBER-Raten von SSDs sind jedoch höher als die von Festplatten, so dass sie, obwohl sie keinen Ausfall vorhersagen, zu Datenverlusten führen können, da unlesbare Blöcke auf SSDs häufiger auftreten als auf Festplatten. In der Schlussfolgerung heißt es, dass die Rate der unkorrigierbaren Fehler, die sich auf einen Nutzer auswirken können, größer ist, obwohl sie insgesamt zuverlässiger sind.
  • "Fehlerhafte Blöcke in neuen SSDs sind häufig, und bei Laufwerken mit einer großen Anzahl fehlerhafter Blöcke ist die Wahrscheinlichkeit, dass Hunderte anderer Blöcke verloren gehen, sehr viel größer, was höchstwahrscheinlich auf einen Ausfall des Flash-Chips zurückzuführen ist. 30-80 % der SSDs entwickeln mindestens einen fehlerhaften Block und 2-7 % entwickeln mindestens einen fehlerhaften Chip in den ersten vier Jahren nach der Einführung.
  • Nach Erreichen der erwarteten Lebensdauer kommt es nicht zu einem starken Anstieg der Fehler.
  • Die meisten SSDs entwickeln nicht mehr als ein paar fehlerhafte Blöcke, vielleicht 2-4. SSDs, die viele fehlerhafte Blöcke entwickeln, entwickeln oft noch viel mehr (vielleicht Hunderte) und können für Ausfälle anfällig sein. Die meisten Laufwerke (mehr als 99 %) werden jedoch ab Werk mit fehlerhaften Blöcken ausgeliefert. Insgesamt wurde festgestellt, dass fehlerhafte Blöcke häufig vorkommen und 30-80 % der Laufwerke im Laufe der Nutzung mindestens einen entwickeln, aber selbst einige wenige fehlerhafte Blöcke (2 bis 4) sind ein Prädiktor für spätere Hunderte von fehlerhaften Blöcken. Die Anzahl der fehlerhaften Blöcke bei der Herstellung korreliert mit der späteren Entwicklung weiterer fehlerhafter Blöcke. In der Schlussfolgerung des Berichts heißt es weiter, dass SSDs entweder "weniger als eine Handvoll" oder "eine große Anzahl" fehlerhafter Blöcke aufweisen und dass dies eine Grundlage für die Vorhersage eines späteren Ausfalls sein könnte.
  • Etwa 2-7 % der SSDs werden in den ersten vier Jahren ihrer Nutzung defekte Chips entwickeln. Mehr als zwei Drittel dieser Chips werden gegen die Toleranzen und Spezifikationen ihrer Hersteller verstoßen, die in der Regel garantieren, dass nicht mehr als 2 % der Blöcke auf einem Chip innerhalb der erwarteten Schreibdauer ausfallen werden.
  • 96 % der SSDs, die repariert werden müssen (Garantieleistungen), müssen nur einmal in ihrem Leben repariert werden. Die Zeitspanne zwischen den einzelnen Reparaturen variiert je nach Modell zwischen "ein paar tausend Tagen" und "fast 15.000 Tagen".

Datenwiederherstellung und sichere Löschung

Solid-State-Laufwerke stellen die Datenrettungsunternehmen vor neue Herausforderungen, da die Methode der Datenspeicherung nichtlinear und viel komplexer ist als die von Festplattenlaufwerken. Die Strategie, mit der das Laufwerk intern arbeitet, kann von Hersteller zu Hersteller sehr unterschiedlich sein, und der TRIM-Befehl löscht den gesamten Bereich einer gelöschten Datei. Verschleißausgleich bedeutet auch, dass die physische Adresse der Daten und die dem Betriebssystem zugängliche Adresse unterschiedlich sind.

Zum sicheren Löschen von Daten kann der Befehl ATA Secure Erase verwendet werden. Ein Programm wie hdparm kann zu diesem Zweck verwendet werden.

Zuverlässigkeitsmetriken

Die JEDEC Solid State Technology Association (JEDEC) hat Standards für Zuverlässigkeitskennzahlen veröffentlicht:

  • Unrecoverable Bit Error Ratio (UBER)
  • Terabytes Written (TBW) - die Anzahl der Terabytes, die innerhalb der Garantiezeit auf ein Laufwerk geschrieben werden können
  • Drive Writes Per Day (DWPD) - die Anzahl der Schreibvorgänge auf die Gesamtkapazität des Laufwerks pro Tag innerhalb der Garantiezeit

Anwendungen

Aufgrund ihrer im Vergleich zu HDDs im Allgemeinen unerschwinglichen Kosten wurden SSDs bis 2009 hauptsächlich in unternehmenskritischen Anwendungen eingesetzt, bei denen die Geschwindigkeit des Speichersystems so hoch wie möglich sein musste. Seitdem Flash-Speicher zu einer gängigen Komponente von SSDs geworden ist, sind sie aufgrund der sinkenden Preise und der höheren Speicherdichte auch für viele andere Anwendungen kostengünstiger geworden. In der verteilten Datenverarbeitungsumgebung können SSDs beispielsweise als Baustein für eine verteilte Cache-Schicht verwendet werden, die vorübergehend das große Volumen der Nutzeranfragen an das langsamere HDD-basierte Backend-Speichersystem auffängt. Diese Schicht bietet eine viel höhere Bandbreite und geringere Latenz als das Speichersystem und kann in verschiedenen Formen verwaltet werden, z. B. als verteilte Schlüssel-Wert-Datenbank und verteiltes Dateisystem. Auf Supercomputern wird diese Schicht üblicherweise als Burst-Buffer bezeichnet. Dank dieser schnellen Schicht erleben die Benutzer oft kürzere Systemreaktionszeiten. Zu den Organisationen, die von einem schnelleren Zugriff auf Systemdaten profitieren können, gehören Aktienhandelsunternehmen, Telekommunikationsunternehmen sowie Streaming Media- und Videobearbeitungsunternehmen. Die Liste der Anwendungen, die von schnellerer Speicherung profitieren können, ist lang.

Flash-basierte Solid-State-Laufwerke können verwendet werden, um aus allgemeiner PC-Hardware Netzwerkanwendungen zu machen. Ein schreibgeschütztes Flash-Laufwerk, das das Betriebssystem und die Anwendungssoftware enthält, kann größere, weniger zuverlässige Festplattenlaufwerke oder CD-ROMs ersetzen. Auf diese Weise gebaute Appliances können eine kostengünstige Alternative zu teurer Router- und Firewall-Hardware darstellen.

SSDs, die auf einer SD-Karte mit einem Live-SD-Betriebssystem basieren, lassen sich leicht mit einer Schreibsperre versehen. In Kombination mit einer Cloud-Computing-Umgebung oder einem anderen beschreibbaren Medium zur Aufrechterhaltung der Persistenz ist ein Betriebssystem, das von einer schreibgesperrten SD-Karte gebootet wird, robust, widerstandsfähig, zuverlässig und unempfindlich gegen dauerhafte Beschädigungen. Wenn das laufende Betriebssystem beschädigt wird, lässt es sich durch einfaches Aus- und Einschalten wieder in den ursprünglichen, unbeschädigten Zustand zurückversetzen und ist daher besonders stabil. Bei dem auf einer SD-Karte installierten Betriebssystem müssen beschädigte Komponenten nicht entfernt werden, da es mit einer Schreibsperre versehen ist, allerdings müssen eventuell beschriebene Medien wiederhergestellt werden.

Festplatten-Cache

2011 führte Intel für seinen Z68-Chipsatz (und mobile Derivate) einen Caching-Mechanismus namens Smart Response Technology ein, der es ermöglicht, eine SATA-SSD als Cache (konfigurierbar als Write-Through oder Write-Back) für eine herkömmliche, magnetische Festplatte zu verwenden. Eine ähnliche Technologie ist auf der RocketHybrid PCIe-Karte von HighPoint verfügbar.

Solid-State-Hybrid-Laufwerke (SSHDs) basieren auf demselben Prinzip, integrieren jedoch einen Teil des Flash-Speichers in ein herkömmliches Laufwerk, anstatt eine separate SSD zu verwenden. Auf die Flash-Ebene in diesen Laufwerken kann der Host mit ATA-8-Befehlen unabhängig vom Magnetspeicher zugreifen, so dass das Betriebssystem sie verwalten kann. Die ReadyDrive-Technologie von Microsoft speichert beispielsweise explizit Teile der Hibernation-Datei im Cache dieser Laufwerke, wenn das System in den Ruhezustand versetzt wird, wodurch die anschließende Wiederaufnahme des Betriebs beschleunigt wird.

Hybridsysteme mit zwei Laufwerken kombinieren die Verwendung von separaten SSD- und HDD-Geräten, die im selben Computer installiert sind, wobei die Gesamtleistungsoptimierung vom Computernutzer oder von der Betriebssystemsoftware des Computers verwaltet wird. Beispiele für diese Art von Systemen sind bcache und dm-cache unter Linux und Apples Fusion Drive.

Dateisystemunterstützung für SSDs

In der Regel können dieselben Dateisysteme, die auf Festplattenlaufwerken verwendet werden, auch auf Solid-State-Laufwerken eingesetzt werden. In der Regel wird erwartet, dass das Dateisystem den TRIM-Befehl unterstützt, der dem SSD hilft, verworfene Daten zu recyceln (die Unterstützung für TRIM kam erst einige Jahre nach den SSDs selbst auf, ist aber inzwischen fast universell). Das bedeutet, dass das Dateisystem keine Abnutzungsanpassung oder andere Merkmale des Flash-Speichers verwalten muss, da diese intern von der SSD gehandhabt werden. Einige log-strukturierte Dateisysteme (z. B. F2FS, JFFS2) tragen dazu bei, die Schreibverstärkung auf SSDs zu reduzieren, insbesondere in Situationen, in denen nur sehr kleine Datenmengen geändert werden, wie z. B. bei der Aktualisierung von Dateisystem-Metadaten.

Obwohl es sich nicht um ein natives Merkmal von Dateisystemen handelt, sollten Betriebssysteme auch darauf abzielen, Partitionen korrekt auszurichten, wodurch übermäßige Lese-Änderungs-Schreib-Zyklen vermieden werden. Bei PCs ist es üblich, jede Partition so auszurichten, dass sie an der 1-MiB-Marke (= 1.048.576 Byte) beginnt, die alle üblichen SSD-Seiten- und -Blockgrößen-Szenarien abdeckt, da sie durch alle gängigen Größen teilbar ist - 1 MiB, 512 KiB, 128 KiB, 4 KiB und 512 B. Moderne Betriebssystem-Installationssoftware und Festplatten-Tools erledigen dies automatisch.

Linux

Die erste Unterstützung für den TRIM-Befehl wurde in Version 2.6.28 der Linux-Kernel-Hauptlinie hinzugefügt.

Die Dateisysteme ext4, Btrfs, XFS, JFS und F2FS bieten Unterstützung für die Funktion "Discard" (TRIM oder UNMAP).

Die Kernel-Unterstützung für die TRIM-Operation wurde in Version 2.6.33 der Linux-Kernel-Hauptlinie eingeführt, die am 24. Februar 2010 veröffentlicht wurde. Um sie nutzen zu können, muss ein Dateisystem mit dem Parameter discard eingehängt werden. Linux-Auslagerungspartitionen führen standardmäßig Verwerfungsoperationen durch, wenn das zugrunde liegende Laufwerk TRIM unterstützt, wobei die Möglichkeit besteht, diese zu deaktivieren oder zwischen einmaligen oder kontinuierlichen Verwerfungsoperationen zu wählen. Unterstützung für Queued TRIM, eine SATA 3.1-Funktion, die dazu führt, dass TRIM-Befehle die Befehlswarteschlangen nicht unterbrechen, wurde mit Linux-Kernel 3.12 eingeführt, der am 2. November 2013 veröffentlicht wurde.

Eine Alternative zur TRIM-Operation auf Kernel-Ebene ist die Verwendung eines User-Space-Dienstprogramms namens fstrim das alle ungenutzten Blöcke in einem Dateisystem durchsucht und TRIM-Befehle für diese Bereiche sendet. fstrim Das Dienstprogramm fstrim wird normalerweise von cron als geplante Aufgabe ausgeführt. Seit November 2013 wird es von der Linux-Distribution Ubuntu verwendet, in der es aus Gründen der Zuverlässigkeit nur für Intel- und Samsung-Solid-State-Laufwerke aktiviert ist; die Herstellerprüfung kann durch Bearbeiten der Datei /etc/cron.weekly/fstrim anhand der in der Datei selbst enthaltenen Anweisungen deaktiviert werden.

Seit 2010 kümmern sich standardmäßige Linux-Laufwerksprogramme standardmäßig um eine angemessene Partitionsausrichtung.

Überlegungen zur Linux-Leistung

Eine SSD, die NVM Express als logische Geräteschnittstelle verwendet, in Form einer PCI Express 3.0 ×4 Erweiterungskarte

Während der Installation konfigurieren die Linux-Distributionen das installierte System in der Regel nicht für die Verwendung von TRIM, so dass die Datei /etc/fstab manuell geändert werden muss. Dies liegt daran, dass die aktuelle Implementierung des Linux-Befehls TRIM möglicherweise nicht optimal ist. Es hat sich gezeigt, dass sie unter bestimmten Umständen zu einer Leistungsverschlechterung statt zu einer Leistungssteigerung führt. Seit Januar 2014 sendet Linux einen individuellen TRIM-Befehl an jeden Sektor, anstatt eine vektorisierte Liste, die einen TRIM-Bereich definiert, wie in der TRIM-Spezifikation empfohlen.

Aus Leistungsgründen wird empfohlen, den E/A-Scheduler von der Standardeinstellung CFQ (Completely Fair Queuing) auf NOOP oder Deadline umzustellen. CFQ wurde für herkömmliche magnetische Medien und Suchoptimierung entwickelt, so dass viele dieser E/A-Planungsbemühungen bei der Verwendung von SSDs vergeblich sind. SSDs bieten konstruktionsbedingt ein viel höheres Maß an Parallelität für E/A-Operationen, so dass es vorzuziehen ist, die Planungsentscheidungen ihrer internen Logik zu überlassen - insbesondere bei High-End-SSDs.

Eine skalierbare Blockschicht für SSD-Hochleistungsspeicher, die als blk-multiqueue oder blk-mq bekannt ist und hauptsächlich von Fusion-io-Ingenieuren entwickelt wurde, wurde mit der am 19. Januar 2014 veröffentlichten Kernel-Version 3.13 in den Linux-Kernel integriert. Dadurch wird die von SSDs und NVMe gebotene Leistung genutzt, indem viel höhere E/A-Übertragungsraten ermöglicht werden. Mit diesem neuen Design der Linux-Kernel-Blockschicht werden die internen Warteschlangen in zwei Ebenen aufgeteilt (Warteschlangen pro CPU und Hardware-Submission-Warteschlangen), wodurch Engpässe beseitigt werden und ein wesentlich höheres Maß an E/A-Parallelisierung möglich ist. Ab Version 4.0 des Linux-Kernels, die am 12. April 2015 veröffentlicht wurde, wurden der VirtIO-Blocktreiber, die SCSI-Schicht (die von Serial-ATA-Treibern verwendet wird), das Device-Mapper-Framework, der Loop-Gerätetreiber, der UBI-Treiber (der die Löschblock-Verwaltungsschicht für Flash-Speichergeräte implementiert) und der RBD-Treiber (der Ceph-RADOS-Objekte als Blockgeräte exportiert) so modifiziert, dass sie diese neue Schnittstelle tatsächlich verwenden; weitere Treiber werden in den folgenden Versionen portiert.

macOS

Versionen seit Mac OS X 10.6.8 (Snow Leopard) unterstützen TRIM, aber nur, wenn sie mit einer von Apple gekauften SSD verwendet werden. TRIM wird nicht automatisch für Laufwerke von Drittanbietern aktiviert, obwohl es mit Dienstprogrammen von Drittanbietern wie Trim Enabler aktiviert werden kann. Der Status von TRIM kann in der Systeminformationsanwendung oder mit dem system_profiler Befehlszeilenwerkzeug überprüft werden.

Versionen seit OS X 10.10.4 (Yosemite) enthalten sudo trimforce enable als Terminal-Befehl, der TRIM auf Nicht-Apple-SSDs aktiviert. Es gibt auch eine Technik, um TRIM in Versionen vor Mac OS X 10.6.8 zu aktivieren, obwohl es ungewiss bleibt, ob TRIM in diesen Fällen tatsächlich richtig genutzt wird.

Microsoft Windows

Vor Version 7 hat Microsoft Windows keine besonderen Maßnahmen zur Unterstützung von Solid State Drives ergriffen. Ab Windows 7 bietet das Standard-NTFS-Dateisystem Unterstützung für den TRIM-Befehl. (Andere Dateisysteme unter Windows 7 unterstützen TRIM nicht.)

Standardmäßig führen Windows 7 und neuere Versionen TRIM-Befehle automatisch aus, wenn das Gerät als Solid-State-Laufwerk erkannt wird. Da TRIM jedoch den gesamten freigegebenen Speicherplatz unwiderruflich zurücksetzt, kann es wünschenswert sein, die Unterstützung zu deaktivieren, wenn die Datenwiederherstellung dem Verschleißausgleich vorgezogen wird. Um das Verhalten zu ändern, müssen Sie im Registrierungsschlüssel HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem den Wert DisableDeleteNotification gesetzt werden. 1. Dies verhindert, dass der Massenspeichertreiber den TRIM-Befehl ausgibt.

Windows implementiert den TRIM-Befehl für mehr als nur Dateilöschvorgänge. Die TRIM-Operation ist vollständig in die Befehle auf Partitions- und Volume-Ebene, wie z. B. Formatieren und Löschen, in die Dateisystembefehle zum Kürzen und Komprimieren sowie in die Funktion Systemwiederherstellung (auch als Volume Snapshot bekannt) integriert.

Windows Vista

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es spezielle Dateisysteme, die an die Besonderheiten von rohen Flashspeichern angepasst sind, so etwa JFFS2, UBIFS und YAFFS; für SSDs mit FTL (Flash Translation Layer) und integriertem Wear-Levelling werden aber wie etwa auch für USB-Sticks einfach konventionelle Dateisysteme wie ext3 genutzt, teilweise aber mit optimierten Schreibzugriffseinstellungen (oder aber besser geeignete Dateisysteme wie ZFS, btrfs, NILFS oder LogFS). Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritätskontrolle erreicht werden.

Windows Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystemdateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben. Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet dazu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Dabei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee. Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist das jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin aktiv, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das beim Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor dem Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 Mebibyte, maximal verwendet Vista 4 Gibibyte. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon länger möglich, indem der Flashspeicher als Auslagerungsspeicher (englisch Swapping) eingehängt wird.

Windows XP bietet von Haus aus keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“ jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern; um aber tatsächlich einen Geschwindigkeitsgewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Leistungsniveau erreichen. Das Programm kann – anders als Vista – auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind PCs, die einen USB-2.0-Port haben, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist.

Windows Vista erwartet im Allgemeinen Festplattenlaufwerke und keine SSDs. Windows Vista enthält ReadyBoost, um die Eigenschaften von über USB angeschlossenen Flash-Geräten zu nutzen, aber für SSDs verbessert es nur die Standardpartitionsausrichtung, um Lese-Änderungs-Schreibvorgänge zu verhindern, die die Geschwindigkeit von SSDs verringern. Die meisten SSDs sind in der Regel in 4-KiB-Sektoren aufgeteilt, während die meisten Systeme auf 512-Byte-Sektoren basieren, deren Standardpartitionseinstellungen nicht an den 4-KiB-Grenzen ausgerichtet sind.

Defragmentierung

Die Defragmentierung sollte auf Solid-State-Laufwerken deaktiviert werden, da die Position der Dateikomponenten auf einer SSD keinen wesentlichen Einfluss auf die Leistung hat, aber das Verschieben der Dateien, um sie mithilfe der Windows-Defrag-Routine zusammenhängend zu machen, führt zu unnötigem Schreibverschleiß bei der begrenzten Anzahl von P/E-Zyklen auf der SSD. Die Superfetch-Funktion wird die Leistung nicht wesentlich verbessern und verursacht zusätzlichen Overhead im System und auf der SSD, obwohl sie keinen Verschleiß verursacht. Windows Vista sendet den TRIM-Befehl nicht an Solid-State-Laufwerke, aber einige Dienstprogramme von Drittanbietern, wie z. B. SSD Doctor, scannen das Laufwerk in regelmäßigen Abständen und nehmen die entsprechenden TRIM-Einträge vor.

Windows 7

Windows 7 und spätere Versionen bieten native Unterstützung für SSDs. Das Betriebssystem erkennt das Vorhandensein einer SSD und optimiert den Betrieb entsprechend. Für SSD-Geräte deaktiviert Windows ReadyBoost, Vorabrufe beim Booten und für Anwendungen sowie die automatische Defragmentierung. Entgegen der ursprünglichen Aussage von Steven Sinofsky vor der Veröffentlichung von Windows 7 wird die Defragmentierung jedoch nicht deaktiviert, obwohl sie sich auf SSDs anders verhält. Ein Grund dafür ist die geringe Leistung des Volume Shadow Copy Service auf fragmentierten SSDs. Der zweite Grund ist die Vermeidung der maximalen Anzahl von Dateifragmenten, die ein Volume verarbeiten kann. Wird dieses Maximum erreicht, schlagen nachfolgende Versuche, auf das Laufwerk zu schreiben, mit einer Fehlermeldung fehl.

Windows 7 bietet auch Unterstützung für den TRIM-Befehl, um die Garbage Collection für Daten zu reduzieren, die das Betriebssystem bereits als ungültig eingestuft hat. Ohne Unterstützung für TRIM wüsste die SSD nicht, dass diese Daten ungültig sind, und würde sie während der Garbage Collection unnötigerweise weiter neu schreiben, was zu einer weiteren Abnutzung der SSD führt. Es ist vorteilhaft, einige Änderungen vorzunehmen, die verhindern, dass SSDs eher wie HDDs behandelt werden, z. B. die Defragmentierung abzubrechen, sie nicht auf mehr als 75 % der Kapazität zu füllen, häufig beschriebene Dateien wie Protokoll- und temporäre Dateien nicht auf ihnen zu speichern, wenn eine Festplatte verfügbar ist, und den TRIM-Prozess zu aktivieren.

Windows 8.1 und höher

Windows 8.1 und neuere Windows-Systeme unterstützen auch automatisches TRIM für PCI Express SSDs, die auf NVMe basieren. Für Windows 7 ist das Update KB2990941 für diese Funktionalität erforderlich und muss mit DISM in das Windows-Setup integriert werden, wenn Windows 7 auf der NVMe-SSD installiert werden soll. Windows 8/8.1 unterstützt auch den Befehl SCSI Unmap für an USB angeschlossene SSDs oder SATA-zu-USB-Gehäuse. SCSI Unmap ist ein vollständiges Analogon des SATA TRIM-Befehls. Er wird auch über das USB Attached SCSI Protocol (UASP) unterstützt.

Der grafische Windows-Defragmentierer in Windows 8.1 erkennt SSDs auch deutlich von Festplattenlaufwerken in einer separaten Medientyp-Spalte. Während Windows 7 automatisches TRIM für interne SATA-SSDs unterstützte, unterstützen Windows 8.1 und Windows 10 manuelles TRIM (über eine "Optimize"-Funktion in der Festplatten-Defragmentierung) sowie automatisches TRIM für SATA-, NVMe- und USB-angeschlossene SSDs.

ZFS

Solaris ab Version 10 Update 6 (veröffentlicht im Oktober 2008) und neuere Versionen von OpenSolaris, Solaris Express Community Edition, Illumos, Linux mit ZFS unter Linux und FreeBSD können alle SSDs als Leistungsverstärker für ZFS verwenden. Ein SSD mit niedriger Latenz kann für das ZFS Intent Log (ZIL) verwendet werden, das als SLOG bezeichnet wird. Dieses wird jedes Mal verwendet, wenn ein synchroner Schreibvorgang auf das Laufwerk erfolgt. Ein SSD (nicht unbedingt mit niedriger Latenz) kann auch für den Level 2 Adaptive Replacement Cache (L2ARC) verwendet werden, der zum Zwischenspeichern von Daten beim Lesen dient. Wenn sie allein oder in Kombination verwendet werden, sind im Allgemeinen große Leistungssteigerungen zu verzeichnen.

FreeBSD

ZFS für FreeBSD hat am 23. September 2012 die Unterstützung für TRIM eingeführt. Der Code erstellt eine Karte der Datenbereiche, die freigegeben wurden; bei jedem Schreibvorgang wird die Karte konsultiert und schließlich werden Bereiche entfernt, die zuvor freigegeben wurden, nun aber überschrieben werden. Es gibt einen Thread mit niedriger Priorität, der Bereiche TRIMt, wenn es an der Zeit ist.

Auch das Unix File System (UFS) unterstützt den TRIM-Befehl.

Partitionen austauschen

  • Laut Microsofts ehemaligem Präsidenten der Windows-Abteilung, Steven Sinofsky, gibt es nur wenige Dateien, die besser auf einer SSD untergebracht werden können als die Auslagerungsdatei". Den gesammelten Telemetriedaten zufolge hatte Microsoft festgestellt, dass die Datei pagefile.sys ideal für SSD-Speicher geeignet ist.
  • Linux-Auslagerungspartitionen führen standardmäßig TRIM-Vorgänge durch, wenn das zugrunde liegende Blockgerät TRIM unterstützt, wobei die Möglichkeit besteht, diese auszuschalten oder zwischen einmaligen oder kontinuierlichen TRIM-Vorgängen zu wählen.
  • Wenn ein Betriebssystem die Verwendung von TRIM auf diskreten Swap-Partitionen nicht unterstützt, kann es möglich sein, stattdessen Swap-Dateien innerhalb eines normalen Dateisystems zu verwenden. OS X zum Beispiel unterstützt keine Swap-Partitionen; es swappt nur auf Dateien innerhalb eines Dateisystems, so dass es TRIM verwenden kann, wenn z. B. Swap-Dateien gelöscht werden.
  • DragonFly BSD ermöglicht es, dass SSD-konfigurierte Swap-Partitionen auch als Dateisystem-Cache verwendet werden können. Dies kann zur Leistungssteigerung sowohl bei Desktop- als auch bei Server-Workloads eingesetzt werden. Die Projekte bcache, dm-cache und Flashcache bieten ein ähnliches Konzept für den Linux-Kernel.

Standardisierungsorganisationen

Im Folgenden finden Sie die bekannten Standardisierungsorganisationen und -gremien, die an der Erstellung von Standards für Solid-State-Laufwerke (und andere Computerspeichergeräte) arbeiten. Die folgende Tabelle enthält auch Organisationen, die die Verwendung von Solid-State-Laufwerken fördern. Diese Liste ist nicht unbedingt erschöpfend.

Organisation oder Ausschuss Unterausschuss von: Zweck
INCITS Koordiniert die Aktivitäten im Bereich der technischen Normen zwischen ANSI in den USA und den gemeinsamen ISO/IEC-Ausschüssen weltweit
T10 INCITS SCSI
T11 INCITS FC
T13 INCITS ATA
JEDEC Entwickelt offene Standards und Publikationen für die Mikroelektronikindustrie
JC-64.8 JEDEC Konzentriert sich auf Standards und Veröffentlichungen für Solid-State-Laufwerke
NVMHCI Bietet Standard-Software- und Hardware-Programmierschnittstellen für nichtflüchtige Speicher-Subsysteme
SATA-IO Bietet der Industrie Anleitung und Unterstützung für die Implementierung der SATA-Spezifikation
SFF-Ausschuss Arbeitet an Standards der Speicherindustrie, die von anderen Standardisierungsausschüssen nicht behandelt werden
SNIA Entwickelt und fördert Standards, Technologien und Bildungsdienste für das Informationsmanagement
SSSI SNIA Fördert das Wachstum und den Erfolg von Festkörperspeichern

Kommerzialisierung

Verfügbarkeit

Die Solid-State-Drive-Technologie wird seit Mitte der 1990er Jahre für das Militär und industrielle Nischenmärkte vermarktet.

Neben dem aufstrebenden Unternehmensmarkt sind SSDs in ultramobilen PCs und einigen leichten Laptops aufgetaucht, die den Preis des Laptops je nach Kapazität, Formfaktor und Übertragungsgeschwindigkeit erheblich erhöhen. Für Low-End-Anwendungen kann ein USB-Flash-Laufwerk je nach Kapazität und Geschwindigkeit für etwa 10 bis 100 US-Dollar erhältlich sein; alternativ kann eine CompactFlash-Karte mit einem CF-zu-IDE- oder CF-zu-SATA-Konverter zu einem ähnlichen Preis verwendet werden. In beiden Fällen müssen die Probleme mit der Schreibzyklusdauer in den Griff bekommen werden, indem entweder auf die Speicherung häufig geschriebener Dateien auf dem Laufwerk verzichtet oder ein Flash-Dateisystem verwendet wird. Standard-CompactFlash-Karten haben in der Regel Schreibgeschwindigkeiten von 7 bis 15 MB/s, während die teureren Karten der Oberklasse Geschwindigkeiten von bis zu 60 MB/s erreichen.

Der erste auf Flash-Speicher basierende PC war der Sony Vaio UX90, der am 27. Juni 2006 zur Vorbestellung angekündigt wurde und am 3. Juli 2006 in Japan mit einer 16-GB-Flash-Speicherfestplatte ausgeliefert wurde. Ende September 2006 rüstete Sony die SSD im Vaio UX90 auf 32 GB auf.

Eine der ersten SSD-Veröffentlichungen für die breite Masse war der XO Laptop, der im Rahmen des One Laptop Per Child-Projekts gebaut wurde. Die Massenproduktion dieser für Kinder in Entwicklungsländern gebauten Computer begann im Dezember 2007. Diese Geräte verwenden 1.024 MiB SLC NAND-Flash als Primärspeicher, der als besser geeignet für die härteren als die normalen Bedingungen gilt, unter denen sie eingesetzt werden sollen. Dell begann am 26. April 2007 mit der Auslieferung von ultraportablen Laptops mit SanDisk SSDs. Asus brachte am 16. Oktober 2007 das Netbook Eee PC mit 2, 4 oder 8 Gigabyte Flash-Speicher auf den Markt. Im Jahr 2008 brachten zwei Hersteller ultradünne Laptops mit SSD-Optionen anstelle der unüblichen 1. 8-Zoll-Festplatte: das MacBook Air, das Apple am 31. Januar mit einer optionalen 64-GB-SSD auf den Markt brachte (im Apple Store kostete diese Option 999 US-Dollar mehr als eine 80-GB-Festplatte mit 4200 U/min), und das Lenovo ThinkPad X300 mit einer ähnlichen 64-Gigabyte-SSD, das im Februar 2008 angekündigt und am 26. August 2008 mit der Veröffentlichung des ThinkPad X301-Modells auf eine 128-GB-SSD-Option aufgerüstet wurde (ein Upgrade, das etwa 200 US-Dollar kostete).

Im Jahr 2008 erschienen Low-End-Netbooks mit SSDs. Im Jahr 2009 wurden SSDs auch in Laptops eingesetzt.

Am 14. Januar 2008 wurde die EMC Corporation (EMC) der erste Anbieter von Unternehmensspeichern, der Flash-basierte SSDs in sein Produktportfolio aufnahm, als sie bekannt gab, dass sie die Zeus-IOPS-SSDs von STEC, Inc. für ihre Symmetrix-DMX-Systeme ausgewählt hatte. Im Jahr 2008 brachte Sun die Sun Storage 7000 Unified Storage Systems (Codename Amber Road) auf den Markt, die sowohl Solid State Drives als auch herkömmliche Festplatten verwenden, um die Vorteile der Geschwindigkeit von SSDs und der Wirtschaftlichkeit und Kapazität herkömmlicher HDDs zu nutzen.

Dell bietet seit Januar 2009 optional 256-GB-Solid-State-Laufwerke für ausgewählte Notebook-Modelle an. Im Mai 2009 brachte Toshiba ein Notebook mit einer 512-GB-SSD auf den Markt.

Seit Oktober 2010 wird in der MacBook Air-Reihe von Apple standardmäßig ein Solid State Drive eingesetzt. Im Dezember 2010 war das OCZ RevoDrive X2 PCIe SSD mit Kapazitäten von 100 GB bis 960 GB erhältlich, das Geschwindigkeiten von mehr als 740 MB/s bei sequentiellen Daten und bis zu 120.000 IOPS bei zufälligen kleinen Dateien bietet. Im November 2010 veröffentlichte Fusion-io sein leistungsstärkstes SSD-Laufwerk namens ioDrive Octal, das die PCI-Express x16 Gen 2.0-Schnittstelle mit einem Speicherplatz von 5,12 TB, einer Lesegeschwindigkeit von 6,0 GB/s, einer Schreibgeschwindigkeit von 4,4 GB/s und einer niedrigen Latenz von 30 Mikrosekunden nutzt. Sie hat 1,19 Mio. 512-Byte-IOPS beim Lesen und 1,18 Mio. 512-Byte-IOPS beim Schreiben.

Im Jahr 2011 wurden Computer auf der Grundlage der Ultrabook-Spezifikationen von Intel verfügbar. Diese Spezifikationen schreiben vor, dass Ultrabooks eine SSD verwenden. Dabei handelt es sich um Geräte für Verbraucher (im Gegensatz zu vielen früheren Flash-Angeboten, die auf Unternehmensnutzer abzielen), die neben dem MacBook Air die ersten weit verbreiteten Verbraucher-Computer mit SSDs darstellen. Auf der CES 2012 stellte OCZ Technology die R4 CloudServ PCIe SSDs vor, die Übertragungsgeschwindigkeiten von 6,5 GB/s und 1,4 Millionen IOPS erreichen. Ebenfalls angekündigt wurde das Z-Drive R5, das mit Kapazitäten von bis zu 12 TB erhältlich ist und mit PCI Express x16 Gen 3.0 Übertragungsgeschwindigkeiten von 7,2 GB/s und 2,52 Millionen IOPS erreichen kann.

Im Dezember 2013 stellte Samsung die erste 1-TB-mSATA-SSD der Branche vor und brachte sie auf den Markt. Im August 2015 kündigte Samsung eine 16-TB-SSD an, zu diesem Zeitpunkt das weltweit größte einzelne Speichergerät jeglicher Art.

Während eine Reihe von Unternehmen SSD-Geräte anbieten, stellen 2018 nur fünf der Unternehmen, die sie anbieten, tatsächlich die Nand-Flash-Geräte her, die das Speicherelement in SSDs sind.

Qualität und Leistung

Im Allgemeinen kann die Leistung eines bestimmten Geräts unter verschiedenen Betriebsbedingungen erheblich schwanken. So können beispielsweise die Anzahl der parallelen Threads, die auf das Speichergerät zugreifen, die Größe der E/A-Blöcke und der verbleibende freie Speicherplatz die Leistung (d. h. die Übertragungsraten) des Geräts erheblich verändern.

Die SSD-Technologie hat sich schnell entwickelt. Die meisten der Leistungsmessungen, die bei Festplattenlaufwerken mit rotierenden Medien verwendet werden, werden auch bei SSDs eingesetzt. Die Leistung von Flash-basierten SSDs lässt sich aufgrund des breiten Spektrums an möglichen Bedingungen nur schwer messen. In einem 2010 von Xssist durchgeführten Test unter Verwendung von IOmeter, 4 kB Random 70% Read/30% Write, Queue Depth 4, begannen die von der Intel X25-E 64 GB G1 gelieferten IOPS bei etwa 10.000 IOPS, fielen nach 8 Minuten stark auf 4.000 IOPS und nahmen in den folgenden 42 Minuten weiter ab. Ab etwa 50 Minuten schwanken die IOPS für den Rest des über 8-stündigen Testlaufs zwischen 3.000 und 4.000.

Entwickler von Flash-Laufwerken für Unternehmen versuchen, die Lebensdauer zu verlängern, indem sie das Over-Provisioning erhöhen und den Verschleiß ausgleichen.

Verkäufe

Die SSD-Lieferungen beliefen sich 2009 auf 11 Millionen Einheiten, 2011 auf 17,3 Millionen Einheiten im Wert von 5 Milliarden US-Dollar, 2012 auf 39 Millionen Einheiten, und es wird erwartet, dass sie 2013 auf 83 Millionen Einheiten steigen werden auf 201,4 Millionen Einheiten im Jahr 2016 und auf 227 Millionen Einheiten im Jahr 2017.

Die Umsätze auf dem SSD-Markt (einschließlich kostengünstiger PC-Lösungen) beliefen sich 2008 weltweit auf 585 Millionen US-Dollar und stiegen damit von 259 Millionen US-Dollar im Jahr 2007 um über 100 %.

Begriff

In der Elektronik bedeutet der englische Begriff „solid state“, dass Halbleiterbauteile verwendet werden. Dadurch unterscheiden sie sich von anderen Speichertechnologien wie Kernspeichern, Lochkarten, Magnetspeicher oder optische Speicher, die zumeist mechanische Komponenten enthalten. In Analogie zu Laufwerkstechniken wie HDDs, FDDs und ODDs wird das Medium als „Drive“ bezeichnet.

Verfahren

SO-SDRAM-Speicherchips

Zwei Arten von Speicherchips werden verwendet: Flash-basierte und SDRAMs.

Flash-Speicher sind besonders energieeffizient und stromunabhängig, wenn es um das Beibehalten des Inhalts geht. Herstellerseitig werden hier rund zehn Jahre versprochen.

SDRAM-Chips sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der deutlich höheren Geschwindigkeit. Mitte der 1990er Jahre auch als „RAM-Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplattenschnittstelle realisiert sein – oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Das Auffinden beliebiger Daten erfolgt 700-mal schneller als bei einer Festplatte. Gegenüber der Flash-Technik sind sie 80-mal so schnell. Ein zweiter Vorteil ist die festplattenähnliche, fast unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 100.000 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt für einzelne Flashzellen. Eine solche kann bei Verschleiß oft mittels S.M.A.R.T. automatisch gegen eine Reservezelle ausgetauscht werden.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen – Festspeicher – zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um beispielsweise bei einem Stromausfall eine Sicherheitskopie zu haben. Umgekehrt wurden in konventionelle Festplatten immer mehr SDRAM- und Flashchips als Zwischenspeicher (sog. „Cache“) eingebaut.

SSDs im Endkundenmarkt

mSATA-SSD mit externem Festplattengehäuse

SSDs sind dabei, konventionelle Festplattentechnik zu ergänzen oder zu ersetzen, zuerst besonders in mobilen, mittlerweile auch in stationären Geräten. Mit einer Ablösung durch Flashspeicher verschwinden zahlreiche Unterscheidungsmerkmale zwischen den Herstellern. Dazu gehören die Punkte Lautstärke und Kühlungsbedarf, aber auch die prinzipbedingt sehr ähnliche Stoßfestigkeit und Zugriffszeit. Den Herstellern bleibt Gestaltungsfreiraum bei Geschwindigkeit, Kapazität, Zuverlässigkeit, Preis, Energiebedarf, Gehäusegröße und Gewicht, Zubehör sowie weiteren Merkmalen (z. B. Verschlüsselung). Wie bei Festplatten ist es auch bei SSDs verbreitet, die Kapazität mit SI-Präfixen anzugeben anstatt mit Binärpräfixen.

Hybridfestplatte/SSHD

Funktion und Technik

Der Schreib-Lese-Kopf einer alten Festplatte (vor GMR)

Bei der Hybridfestplatte wird eine herkömmliche Festplatte mit einem wesentlich kleineren Solid-State-Speicher kombiniert. Dessen nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber einem breiten Markt zugänglich machen.

DDR-SDRAM

Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern dem Massenmarkt ab rund 1000 Euro an. Die DTS „Platinum HDD“ verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach dem Ende der Stromzufuhr und besteht aus einem 1-Gigabyte-DDR-SDRAM-Modul. Er ist zusammen mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte geeignet, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss das Betriebssystem diese Aufgabe übernehmen. Bisher leisten das nur Windows Vista und Windows 7. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB. Allerdings wird auch bei „normalen“ Festplatten teilweise DDR/DDR2-SDRAM als Cache verwendet, allerdings nur maximal 128 MB.

Vergleich

Die folgende Tabelle vergleicht die Eigenschaften gängiger Computer-Speicherverfahren des Massenmarktes 2020, also nicht den High-end-Sektor im Serverbereich. Angegeben sind in der Regel Maximalwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich darunter liegen.

  TLC-NAND-Flash-Laufwerk RAM-Disk als Teil des Arbeitsspeichers Festplatte
1,0 bis 3,5″
Größe (keine Raidlaufwerke) Bis zu 16 TB bis 32 GB je Modul bis 14 TB
Anschluss IDE/(P)ATA, SATA, mSATA, PCIe, M.2 hauptsächlich DIMM-Connector SCSI, IDE/(P)ATA, SATA, SAS
Lesen (kein RAID) bis 3400 MB/s bis 51.200 MB/s bis ca. 227 MB/s
Schreiben (kein RAID) bis 2500 MB/s bis 51.200 MB/s bis ca. 160 MB/s
Mittlere Zugriffszeit lesen ab 0,027 ms 0,000.02 ms ab 3,5 ms
Mittlere Zugriffszeit schreiben ab 0,021 ms 0,000.02 ms ab 3,5 ms
Überschreibbar (Zyklen) >3000 (TLC) > 1015 ca. 10 Mrd. (3 Jahre)
Lagerbar bei −45–85 °C −25–85 °C −40–70 °C
Stoßfestigkeit – Betrieb 1.500 g ca. 1.000 g (rüttelfest verlötet) 60 g
Stoßfestigkeit – Lagerung 1.500 g ca. 1.000 g (ähnlich SSD) 350 g
Verbrauch – Ruhe 0,03 W 1 W pro SDRAM-Modul 4 W und höher
Verbrauch – Zugriff 5–6 W 8 W pro SDRAM-Modul 6 W und höher
Verhalten beim Herunterfahren problemlos Datenverlust, falls keine Sicherung auf SSD/Festplatte stattfindet problemlos
Verhalten bei Stromausfall mit Stützkondensator problemlos, sonst Datenverlust möglich Datenverlust Datenverlust möglich
Lautlos ja ja nein
Bemerkungen unterstützen meistens S.M.A.R.T. Größe begrenzt durch Hauptplatine oder Adapter nötig, nicht bootfähig unterstützen S.M.A.R.T.

Flash-Besonderheiten

Auslagerungsspeicher auf Flash-SSDs

Zur Bewertung der Eignung von Flashlaufwerken für die Aufnahme des Auslagerungsspeichers (oder Auslagerungsdatei) eines Betriebssystems eignet sich am besten eine Analyse der Zugriffe auf diesen Speicher. Microsoft hat eine solche während seiner Arbeit an Windows 7 durchgeführt. Die Auswertung ergab ein Zugriffsmuster aus kurzem, verteiltem Lesen und längerem, zusammenhängendem Schreiben. Das entspricht den Stärken von Flashspeichern. Lesezugriffe überstiegen Schreibvorgänge um das Vierzigfache, während etwa zwei Drittel der Lesezugriffe bis 4 KB Größe hatten und etwa zwei Drittel der Schreibzugriffe mindestens 128 KB Länge hatten. Da das etwa einem Erasable Block entspricht, gibt es laut Microsoft kaum geeignetere Anwendungen für Flashlaufwerke als den Auslagerungsspeicher. Es sollten hierfür jedoch schnelle SSDs bevorzugt werden.

Leistungsverlust bei Verwendung (TRIM und Garbage Collection)

Hintergrund

Das Dateisystem streicht „gelöschte“ Dateien nur aus dem Inhaltsverzeichnis, die eigentliche Datei aber bleibt weiter gespeichert. Dadurch kann sie wiederhergestellt werden, und auch das „Löschen“ großer Datenmengen ist sehr schnell möglich. Beim nächsten Schreiben auf einen so freigestellten Bereich muss der bisherige Inhalt demzufolge aber erst gelöscht werden. Nach einiger Zeit der Nutzung ist damit jeder Bereich des Laufwerks mit entweder aktuellen oder noch nicht tatsächlich gelöschten Inhalten belegt. Bei Festplatten war das kein Problem, da sie ihre Magnetisierungszustände direkt ineinander übergehen lassen können. (Für sie hätte das tatsächliche Löschen der Dateien damit sogar einer Ressourcenverschwendung entsprochen.) Flashspeicher hingegen müssen die noch gefüllten Flashzellen erst leeren, um sie im zweiten Durchgang mit der neuen Datei zu beschreiben. Diese doppelte Arbeit ist anhand einer dann bis zu doppelt so langen Schreibzeit nachvollziehbar. Davon sind allerdings nur verteilte, kurze Schreibvorgänge betroffen, welche kleiner als Erasable Blocks sind – denn durch die Befüllung mit aktuellen und noch nicht gelöschten Daten sind deren Einzelblöcke gefüllt, wodurch bei jeder Änderung der gesamte „Erasable Block“ neu geschrieben werden muss – inklusive der eigentlich „gelöschten“ Dateifragmente. Selbst in diesen Fällen bleiben die Geschwindigkeiten aber oftmals noch oberhalb des – gleichbleibenden – Niveaus konventioneller Festplatten.