Was Rechenzentren von Provisorien unterscheidet

Es gab Zeiten, da war ein Rechenzentrum einfach nur ein Rechenzentrum. Wer eins hatte, war im Vorteil. Vorausgesetzt, man konnte und wollte es sich leisten. Wer nicht, frickelte sich sein eigenes zusammen. Das geht solange gut, bis die laufenden Kosten für Wartung, Strom und Kühlung den Rahmen sprengen. Wildwuchs im Serverraum, totale Abhängigkeit vom einzig bezahlbaren IT-Mitarbeiter, der noch durchblickt und unwägbare Risiken sind die Folge.

Diese Zeiten haben sich gründlich geändert. Bessere Rechenzentren als Kupferkabelverhau im Eigenbau kann sich heutzutage wirklich jeder leisten. Wer das nicht glaubt, sollte sich zum Beispiel die Elastic Compute Cloud (EC2) von Amazon anschauen. Mit wenigen Cents pro Stunde ist man dabei – ohne einen einzigen Server im eigenen Haus betreiben zu müssen.

Das Rechenzentrum in der Wolke beweist, welchen Stellenwert höchste Verfügbarkeit, extreme Skalierbarkeit, schnellste Verkabelung, maximale Sicherheit und komfortabelste Wartung gewonnen haben. Denn mit der Verlagerung kompletter Rechenzentren in die Cloud ist die Nutzererwartung extrem gestiegen. Alles muss zu jeder Zeit und von überall erreichbar und gleichzeitig gegen jeden und alles abgeschottet sein, was keine Legitimation hat. Harte Faktoren, die den Betrieb eines Rechenzentrums dominierten, rücken in den Hintergrund. Nachhaltigkeit und Energieeffizienz treiben die Betreiber. Optimierte Hardware allein genügt nicht mehr. Auf die Software kommt es an. Wie und worauf genau, das beschreibt Christoph Maier von der Thomas Krenn AG in seinem Beitrag auf Seite 6 in dieser Ausgabe.

Armin Haug von Eaton Power Quality schnüffelt auf Seite 10 weltweit vernetzten Stromfressern hinterher: Das Regelwerk ISO 50001 hat sich zum globalen Standard für Energiemanagement entwickelt. Ist ein Rechenzentrum konform, winken handfeste Vorteile gegenüber Mitbewerbern und finanzielle Anreize.

Was die Cloud vom Auto lernen kann, schildert Jürgen Urbanski von T-Systems in seiner Story ab Seite 14. Strukturiert und ausfallsicher muss sie sein. Wer mit verteilten Rechenzentren langfristig wettbewerbsfähig bleiben will, muss den klassischen Betrieb von Servern und Applikationen in Richtung Cloud transformieren. Die Automobilbranche hat Ähnliches durchgemacht.

Dass eine solide Kupferverkabelung bei aller Cloud-Euphorie eine angesagte Alternative zur Glasfaser bleibt, gibt es ab Seite 18 zu lesen: Denn die Zukunft von Kupfer der nächsten Generation hat endlich begonnen. Ob sich das jahrelange Warten auf den 10GBASE-T-Standard gelohnt hat, erläutert Valerie Maguire von Siemon.

Wie die sichere Identifikation im Rechenzentrum mit Smartphones funktioniert, beweist Philipp Spangenberg von Baimos Technologies: Seinen Erfahrungen nach können sogar Rechenzentren, die auf mehrere Standorte verteilt und unbemannt (!) betrieben werden, von einer auf Smartphones gestützten Zugangskontrolle profitieren – ohne Abstriche bei der Sicherheit zu machen (Seite 20).

Ein streitbares Thema sind Open-Fabric-Architekturen für Cloud-Netzwerke. Wie Data Center Bridging Speicherdaten auf einem gewöhnlichen Ethernet-LAN verlustfrei transportiert, weiß Olaf Hagemann von Extreme Networks zu berichten. Welche neuen Lösungsansätze es gibt, Performance, Ausbau, Virtualisierung und Automation in rapide mutierenden RZ-Netzwerken unter Kontrolle zu behalten, steht auf Seite 22 geschrieben.

Womit wir beim finalen Thema ständig steigender Komplexität wären: Von IT-Abteilungen, die ihr Geld wert sein wollen, wird erwartet, dass sie neben organisch wachsenden IT-Infrastrukturen vor allem auch die Applikationslandschaft beherrschen. Welchen Beitrag Managed Hosting zur Entlastung beitragen kann, erläutert Patrick Pulvermüller von Host Europe im abschließenden Beitrag auf Seite 24 in dieser Ausgabe.

Quelle: Rechenzentren und Infrastruktur 1/2013 in iX 2/2013

Matomo