Worauf Rechenzentren gefasst sein müssen

Auf den ersten Blick nur eine Marketingvokabel mit sehr viel Potenzial zum Wahlkampfgetöse um die wahrscheinlich größte Selbstverständlichkeit der Welt, seit es digitale Speicher gibt – das ist Big Data. Egal, welche Regierungen, Unternehmen und Menschen künftig das Sagen haben, sie alle werden ständig sammeln, auswerten und benutzen, was Datenträger zu bieten haben. Weil es technisch möglich ist.

Die eigentliche Herausforderung hinter Big Data liegt weniger in der politischen Brisanz vermeintlich spektakulärer Spionage, sondern in der unfassbaren Kleinteiligkeit, die immer und überall abgreifbar und sicherheitshalber mehrfach redundant in maximal verfügbaren Rechenzentren gespeichert wird.

Für die Betreiber von Rechenzentren und Infrastrukturen bedeutet das vor allem eins: Ständig steigende Anforderungen, die mit herkömmlicher Technik kaum zu bewältigen sind. Das bedeutet so sicher wie das Amen in der Kirche: Nach dem Hype ist vor dem Hype. Denn der nächste kommt bestimmt. Ein möglicher Kandidat sind so genannte Effizienztechnologien. Dahinter verbirgt sich die aus Marketingsicht noch nicht ganz perfekt, weil zu sperrig, aber immerhin euphemistisch formulierte Lösung für ein altes – nun aber exponentiell ausuferndes – Problem, das alle Anwender von buchstäblich ausgelagerten Ressourcen schon immer hatten und ständig haben werden, wie mein Kollege, Gerald Strömer vom MittelstandsWiki, bei Recherchen zum Thema Big Data herausgefunden hat.

Eine im September 2012 veröffentlichte aktuelle Version von Symantecs State of the Data Center – eine Befragung unter 2453 IT-Profis aus 34 Ländern – hat schwarz auf weiß ergeben, dass Rechenzentren weltweit tatsächlich immer komplexer werden. Als Gründe dafür werden aktuelle Trends wie Mobile Computing, Cloud-Technik und Virtualisierung genannt. Das Problem: Immer vielschichtigere Infrastrukturen sind grundsätzlich fehleranfälliger und wartungsaufwendiger. Das ist gar nicht gut.

Laut Ciscos Global Cloud Index vom Oktober 2012 wächst der Cloud-basierte Datenverkehr im Rechenzentrum schneller als jeder andere Bereich; er soll bis 2016 das Sechsfache (4,3 Zettabyte) des heutigen Werts erreichen. Der gesamte weltweite Datenverkehr in Rechenzentren soll sich auf 6,6 Zettabyte vervierfachen. In drei Jahren wird der Cloud-Traffic Cisco zufolge rund zwei Drittel (64 Prozent) des gesamten Datenverkehrs ausmachen – 2011 waren es nur 39 Prozent. Der Großteil (76 Prozent) dieses Cloud-Traffics wird laut Cisco 2016 innerhalb des Datacenters selbst entstehen und überwiegend durch Storage sowie Produktions- und Entwicklungsdaten erzeugt werden. Das ist eine gewaltige Menge.

Im Februar dieses Jahres veröffentlichte Oracle seinen Next Generation Data Center Index 2013, der ein recht überraschendes Fazit hatte: Europäische Unternehmen, die ihre Daten im letzten Jahr zu externen Dienstleistern ausgelagert hatten, holten sie wieder in die eigenen Rechenzentren zurück. Laut Oracle wurden viele Unternehmen 2011 vom rasanten Datenwachstum überrascht und lagerten Daten aus. Dieser Trend schien sich 2012 wieder umzukehren. „Dies lässt den Schluss zu, dass der Wert, den die Unternehmen ihren Daten zumessen, gestiegen ist“, so Oracle im NGDCI. Allein an diesen beiden gegenläufigen Trends zeigt sich, dass die Fähigkeit, umfangreiche Datenmengen nahtlos zwischen Private und Public Clouds zu verschieben, ganz normal ist.

Ganz aktuell hat nun IDC seine Studie Storage in Deutschland 2013 vorgestellt. Ihr Fazit: Stark steigende Datenmengen sind Treiber für die Anforderungen an Speichertechnologien in Rechenzentren. Die Ausrichtung der Speichertechnologien auf wachsende Datenmengen hat oberste Priorität. Die Mehrheit der Befragten habe das auch erkannt; es sollen verstärkt Investitionen in zukunftsorientierte Lösungen wie Storage-Virtualisierung, Cloud-Storage, SSD-/Flash-Speicher und konvergente Systeme erfolgen.

IT-Verantwortliche stehen zunehmend unter Druck. Einerseits müssen sie dafür sorgen, dass die Storage-Technik den kontinuierlich und rapide steigenden Anforderungen an Performance, Kapazität und Effizienz genügt. Andererseits erwartet man von ihnen umgekehrt proportionale Einsparungen. Die Quellenlage lässt momentan nur einen Schluss zu: Diese beiden entgegengesetzten Vorgaben lassen sich nur dann unter einen Hut bringen, wenn Big-Data-freundlich kalkulierte Investitionen in zukunftsfähige Speichersysteme erfolgen.

Quelle: Rechenzentren und Infrastruktur3/2013 in iX 8/2013

Matomo