Warum Wachstum eine Frage der Existenz ist

Die jüngste Hannover Messe hat bewiesen, dass ohne Vernetzung so gut wie nichts mehr geht. Für die Anbieter von Rechenzentren und Infrastrukturen mag das auf den ersten Blick eine gute Nachricht sein. Auf die sogenannte Industrie 4.0 werden neue Versionen folgen. Das bedeutet garantiert mehr Kunden aus der Realwirtschaft, die auf kontinuierlich zu verbessernde Ausfallsicherheit und Energieeffzienz angewiesen sind.

Die Folgen dieses Wachstums werden exponentiell steigende Komplexitäten und ein immer kleinteiligeres Service-Management sein. Über allem wird das Damoklesschwert ständig steigender Energiekosten hängen. Die Margen werden sinken. Wer mit Rechenzentren auf lange Sicht Geld verdienen will, muss an den kleinsten Schrauben drehen. Eine dieser Schrauben heißt Data Center Infrastructure Management, kurz DCIM, der wir die Titelstory in dieser Ausgabe gewidmet haben.

Welche Gründe für die Einführung von DCIM im Rechenzentrum sprechen, hat Eric Brabänder von FNT zusammengefasst: Verschärfte umweltrechtliche Vorgaben. Die Bundesregierung hat mit Wirkung 1. Januar 2013 die Europäische Energieeffizienz-Direktive (EED) im Energie- und Stromsteuergesetz umgesetzt. Die Regelung sieht unter anderem vor, dass kleine und mittlere Unternehmen nur dann in den Genuss von Steuerbegünstigungen kommen, wenn sie nachweislich ihren Energieverbrauch systematisch erfassen und regelmäßig überprüfen. Das Ziel ist, die CO2-Emissionen bis 2020 im Vergleich zu 1990 um 25 Prozent zu senken. Was das mit Rechenzentren zu tun hat, lesen Sie ab Seite 6.

Dr. Peter Koch von Emerson Network Power setzt noch einen drauf: Weil die Energiepreise seit Jahren die Betriebskosten für Rechenzentren in die Höhe treiben, nennt er in seinem Beitrag ab Seite 14 zehn Maßnahmen, mit denen Rechenzentrumsverantwortliche den Energieverbrauch um mehr als 70 Prozent (!) senken und gleichzeitig die Kapazität erhöhen können.

Warum die permanente Beobachtung des Stromverbrauchs eine Pflichtübung für RZ-Manager ist, erläutert Ralf Ploenes von Raritan ab Seite 18. Seinen Erfahrungen nach seien viele RZ-Verantwortliche wenig sattelfest, wenn es darum geht, was mit welcher Genauigkeit überhaupt gemessen werden kann. Mit intelligenten Power-Management-Lösungen soll es möglich sein, an detaillierte Informationen zur Betriebsumgebung zu gelangen. Wesentliches Ziel dabei ist es, die Gesamtleistung zu verbessern und gleichzeitig die Kosten zu senken sowie den Einsatz bestehender Ressourcen zu optimieren.

Wem es allmählich zu heiß wird, der sollte unbedingt den Beitrag von Peter Wäsch, Schäfer IT-Systems lesen. Denn wenn es im Rechenzentrum eines Unternehmens brennt, kann die Feuerwehr zwar das Leben der Mitarbeiter retten, aber oft nicht deren Arbeitsplätze. Auf diese erschreckende Formel lässt sich nämlich eine Untersuchung des Systemhauses Debis bringen, der zufolge bereits 2006 mehr als die Hälfte aller Unternehmen, die von einem Totalausfall ihrer IT betroffen waren, nach spätestens drei Tagen ihr Geschäft aufgeben mussten. Diese Zahl dürfte mit zunehmender IT-Abhängigkeit weiter steigen. Was dagegen hilft, steht ab Seite 22 geschrieben.

Mit deutlichen Tendenzen geht es ab Seite 28 weiter. Nach Ergebnissen des Cloud Monitors 2013 des BITKOM und der Wirtschaftsprüfungs- und Beratungsgesellschaft KPMG kletterte der Anteil der Private-Cloud-Nutzer von 27 Prozent Ende 2011 auf inzwischen 34 Prozent. Dabei werden diese vorwiegend in Eigenregie betrieben. Denn mittelständische Betriebe haben ein ungutes Gefühl, wenn sie ihre Daten an einen externen Dienstleister auslagern. Zu groß ist die Angst vor Kontrollverlust. Thorsten Göbe von Pironet NDH weiß, wie man die eigenen internen Systeme Cloud-fähig macht.

Den Abschluss machen Kerstin Ginsberg und Bernd Hanstein von Rittal ab Seite 30. Wer die Begleitumstände der Stromaufnahme eines Intel Pentium Prozessors aus dem Jahr 1993 und eines aktuellen Intel Xeon E7460 kennt, weiß auch, was die Aussage „von acht auf 130 Watt in 20 Jahren“ bedeutet. Zwar fehlen verlässliche Zahlen, wie viele Computer es 1993 gab. Das Internet Systems Consortium hat jedoch aufgezeichnet, dass im Januar 1993 etwa 1,3 Millionen Nutzer im Internet aktiv waren. Heute dürften es etwa eine Milliarde Hosts sein, womit wir wieder beim Thema Wachstum und seinen Folgen wären. Schätzungen haben ergeben, dass nur eine Minute Ausfallzeit mehr als 100.000 Euro an Kosten auslösen kann. Wenn also ein Rechenzentrum eine Stunde oder länger ausfällt, kann das für Menschen, Märkte und Unternehmen existenzbedrohend sein.

Quelle: Rechenzentren und Infrastruktur 2/2013 in iX 5/2013

💡 Sie haben einen Linkedin-Account? Dann können Sie meinen Newsletter „Der 18-Jährige, der einen Zettel schrieb und verschwand“ abonnieren ✔︎ 

Matomo