Was Flash verspricht, muss der Hypervisor halten

Die Rechenzentren beginnen zu rechnen: Wie viel Effizienz gewinnen wir – wie viel Energie sparen wir mit Flash Storage? Denn so verlockend die extrem hohe Performance nicht flüchtiger Speicher auch ist – klar ist ebenso, dass die extrem hohe Performance momentan noch ihren Preis hat. Dennoch boomt der Markt:

All-Flash-Arrays werden laut IDC noch 2016 einen Weltumsatz von 1,6 Milliarden US$ erreichen – und das bei sinkenden Preisen. Wohin die Entwicklung geht, welche Lösungen es gibt und wo genau die Vorund Nachteile liegen, erläutert Doris Piepenbrink in ihrem Grundlagenbeitrag ab Seite 12. Mara McMahon widmet sich dann konkret dem All-Flash-Bedarf von Serviceprovidern und vergleicht Scale-upmit Scale-out-Designs (Seite 18).

Während die Anschaffungskosten für Flash weiter fallen, spitzen die Speicherverantwortlichen den Bleistift und setzen ein sauberes Storage Management auf, das häufig benötigte Daten auf flotte Medien packt und selten gefragte Informationen zum Beispiel mit preisgünstigen Bändern archiviert. So weit, so gut. Aber leider schießt ausgerechnet ein paralleles Effizienzprojekt quer: der Trend zur Virtualisierung. Damit wachsen nämlich die Dubletten nur so auf der flachen Hand, wenn die Admins nicht aufpassen.

Das wiederum, warnt Thorsten Eckert, treibt die Speicherkosten wieder in die Höhe und ist obendrein ein gefährlicher Risikofaktor. Wie man in dieser Situation Compliance-sicher bleibt und eine saubere Zugriffskontrolle gewährleistet, erklärt sein Beitrag ab Seite 6.

Dazu setzt Alexander Thoma auseinander, was die jüngste Generation von Hypervisoren in (fast) virtualisierten Rechenwelten dazu beitragen kann, dass RZ-Architektur kontrollierbar bleibt – auch dann, wenn die Speicherlösung selbst gar nicht für den VM-Betrieb ausgelegt ist (Seite 14). Einen wichtigen Hinweis gibt außerdem Simon Köhl: „Snapshots sind keine Backups!“, ruft er. Missbraucht man sie zur regulären VM-Datensicherung bläht das den Speicherbedarf gigantisch auf. Sein Beitrag auf Seite 16 erklärt genau die praktischen Unterschiede zwischen Snapshots, Backups und Replikaten.

Die radikale Lösung beim Speichermanagement besteht in der vollständigen Virtualisierung. Das Stichwort dazu heißt Software-defined Storage. Die Argumente, die Michael Hohl auf den Tisch legt (Seite 10), sind nicht uncharmant: Praktische Lösungen sind mittlerweile so weit ausgereift, dass eine Migration selbst von 400-TByte-Beständen im Live-Betrieb machbar ist. Ein solches System ist dann umstandslos und nahezu beliebig skalierbar, lässt sich sparsam zentral verwalten und arbeitet unabhängig von bestimmten Hardware-Herstellern. Ob mit oder ohne Flash.

Quelle: Storage 1/2016 in c’t 5/2016.

Matomo