Festplatten sind seit langem das Standardmedium für den Datenbankbetrieb. Es gibt aber gute Gründe, in der Zukunft auf Solid-State-Disks zu wechseln. In mehreren Blog-Beiträgen werden wir das Thema SSD näher beleuchten.
Bei Harddisks handelt es sich um eine vertraute und bewährte Technik, die keine Überraschungen mehr bereithält – ab und zu fällt vielleicht mal eine Platte aus, ansonsten kommen regelmäßig Modelle mit mehr Speicherkapazität auf den Markt, im Serverbereich trifft man inzwischen häufiger auf 2,5″ Platten, sonst ändert sich wenig.
Leider ändert sich bei den Zugriffszeiten der Festplatten überhaupt nichts mehr, die Technik ist von Seiten der Mechanik her ausgereizt. Bei steigender Kapazität sinkt somit der Leistungsindex, das Verhältnis von Größe zu Geschwindigkeit der Platten wird also kontinuierlich schlechter.
Dadurch entsteht auch der Effekt, das die Performance des Datenbankbetriebs mit zunehmender Datenbankgröße schlechter wird, die Verarbeitung wird langsamer. Würde die Zugriffsgeschwindigkeit der Platten in gleichem Maße zunehmen wie die Kapazität, gäbe es dieses Problem nicht.
Maßnahmen wie der Einsatz von RAID 10, von Cache-Controllern und mehr Hauptspeicher für den Datenbankpuffer können den Effekt nur abmildern, aber nicht beseitigen. Um in Zukunft bei immer größeren Datenbanken noch vernünftig arbeiten zu können, bieten sich flashbasierte Speichermedien an, die die Festplatten ersetzen.
Im nächsten Teil stelle ich die Grundlagen der SSD-Speichertechnik vor.
Eine Antwort
ein sehr interessantes und aktuelles Thema. Ich freue mich auf die einzelnen Ausführungen und erhoffe mir eine Entscheidungshilfe für den nächsten Serverkauf.
Danke.