Wo Data Center mit Grundwasser und Polarluft kühlen

Außer Geysiren, Krimis, Ponys und neuerdings sogar Fußball gibt es auf Island noch den ehemaligen US-Militärstützpunkt Keflavík. Dort ist genug Platz und die Temperaturen bleiben ziemlich verlässlich unter 15 °C. Das wiederum haben etliche RZ-Betreiber als ideale Bedingungen für ein Klimakonzept erkannt, das derzeit Schule macht: die Freikühlung (Seite 12).

Wer nicht selbst an den Polarkreis zieht oder Colocation-Dienste nutzen will, hat bei sich vor Ort ebenfalls interessante Optionen, seine Server auf Temperatur zu halten. Ein Rechenzentrum im Hochbunker am Standort Bremen kühlt zum Beispiel mit Bodenkälte aus 100 bis 200 m Tiefe (Seite 18).

Außerdem umfasst der Klimatechnik-Überblick dieser Ausgabe noch Varianten mit Kühlmitteln direkt am Rack (Seite 14) und mit Wasser (Seite 16). Treiber dieser Entwicklungen ist weniger die Technologie selbst als vielmehr die Betriebswirtschaft: In manchen Rechenzentren geht fast die Hälfte der Energiekosten in die Klimatisierung.

Der zweite Schwerpunkt liegt auf Flash. Hier ist es nicht damit getan, einfach die Einschübe zu tauschen. Zum einen gilt es, die Speicherbausteine auch in ein intelligentes Management einzubinden (Seite 20) und das Backup-Konzept entsprechend anzupassen, zum anderen sollten Flash-Arrays auch so angebunden sein, dass sie ihre Stärken voll ausspielen können. Als Bremse wirkt nämlich oft noch das alte SAS-Protokoll.

Der nichtserielle Nachfolger, der eine ganze Reihe von Vorteilen mitbringt, heißt NVMe (Seite 22). Wer heute schon aufrüstet, achtet besser darauf, dass die Neuanschaffung auch upgradefähig ist.

Und noch ein Thema spielt hier mit herein: die Verfügbarkeit von Anwendungen bei scharfen Service Level Agreements. Damit Anbieter ihre Vereinbarungen halten und doch nicht endlos überprovisionieren müssen, gibt es mittlerweile intelligente Application Delivery Controller (Seite 6), die deutlich mehr als Load Balancing leisten.

Auf der handfesten Seite haben wir diesmal die Messtechnik. Konkret geht es darum, wie man Multimode-LWL-Verbindungen normgerecht und sauber ausmisst – wobei „sauber“ auch wörtlich zu nehmen ist. Denn die Steckerstirnflächen gehören vor jedem Steckvorgang sorgfältig gereinigt, vor allem bei Abnahmemessungen, auch unter Zeitdruck!

Und wir haben zwei Praxisberichte von RZ-Bauprojekten: Der Landesbetrieb IT.Niedersachsen hat für seine neue RZ-Architektur eine gut skalierbare Fabric-Topologie gewählt (Seite 4). Zugleich muss der Energieversorger 50Hertz mit schwankenden Einspeisungen aus Windkraft klarkommen und sein Übertragungsnetz Smart-Grid-tauglich machen. Herzstück dieser Digitalisierung wird das neue Rechenzentrum in Berlin (Seite 24).

Quelle: Rechenzentren und Infrastruktur 1/2017 in iX 2/2017

Matomo