Die Großen rechnen anders

Zum Beispiel der Deutsche Bauernverband. Dort ist es längst klar, dass die Flächenfarmen in Mecklenburg-Vorpommern ganz andere Interessen haben, als eine Allgäuer Almwirtschaft. In der RZ-Landschaft sieht es ganz ähnlich aus. Auch hier arbeiten Hyperscaler und High-Performance-Datacenter oft mit eigenen Lösungen und profitieren von Skaleneffekten, wo „normale“ Rechenzentren systembedingt an ihre Grenzen stoßen.

Initiativen wie OCP (Open Compute Project) und Open19 haben sich aber vorgenommen, den Vendor Lock-in aufzubrechen und entwickeln eigene Hardware-Designs, die auf Energieeffizienz und optimale Total Cost of Ownership getrimmt sind. Ein interessanter Nebeneffekt: Gleichstrom wird dadurch zu einer erwägenswerten Alternative (Seite 22). Ein Beispiel zeigt außerdem, dass sich in Sachen Green IT viel durch eine überlegte RZ-Bauweise erreichen lässt (Seite 9).

Außerdem haben die großen Datenbanktransakteure, also Banken, Versicherer etc., ihre Mainframes keineswegs ausgemustert – im Gegenteil: IBM ist mit dem z14-Absatz ziemlich zufrieden und gewinnt sogar neue Fans, berichtet Ariane Rüdiger im Schwerpunkt dieser Beilage (Seite 6). Die Kernargumente liegen bei Parallelperformanz, Ausfallsicherheit – und seit dem jüngsten DSGVO-Wirbel auch wieder bei der Informationssicherheit. Übrigens ließe sich sogar ohne neue Hardware bewährter Großrechnercode ganz ohne Programmieraufwand umziehen: auf Software-defined Mainframes im Container (Seite 4).

Noch ein weiterer Trend drückt in die Datacenter: Artificial Intelligence. Auf Computing-Seite ist das ganz gut abzuarbeiten, dafür sorgt vor allem Nvidia mit spezialisierten GPU-Chips. Anders sieht es auf der Speicherseite aus, denn künstliche Intelligenz möchte unstrukturierte Workloads schneller parallel abarbeiten, als eine serielle Storage-Architektur Daten liefern kann. Diese „Performancelücke zwischen Rechen- und Speicherressourcen“ lässt sich mit Flash-basierten Objektspeicherlösungen, NVMe/NVMe-oF und Shared Accelerated Storage aber schließen (Seite 12).

Zu´gleich sollten sich RZ-Betreiber bewusst machen, dass die meisten der derzeitigen Geschäftsmodelle zwar nach Hybrid Clouds und Multi-Clouds verlangen, dass das aber eine zeitlich befristete Zwischenlösung bleiben wird: „Hybrid-Clouds sind ein Mittel der Wahl auf bestimmte Zeit; gehen wir hier mal von einem Zeitraum von vier bis sechs Jahren aus“, sagt Axel Oppermann in seiner Marktanalyse ab Seite 10.

Dazu gibt es noch handfeste Praxistipps: wie man Sensortechnik für Umgebungsdaten bruchlos ins DCIM integriert (Seite 16) und wie man 100-Gigabit-Ethernet-Mehrfaserstrecken mit MTP/MPO-Steckern richtig misst (Seite 24).

Zum Schluss das Wetter für Landwirte: Werfen Sie einfach einen Blick auf mundiwebservices.com – dort stehen die Weltraumdaten des EU-Erdbeobachtungsprogramms Copernicus (Seite 20) für Anwender und Entwickler mit eigenen Ideen bereit.

Quelle: Rechenzentren und Infrastruktur 2/18 in iX 7/18

Matomo