Wie Rechenzentren Geschichte schreiben

Gestatten Sie, dass ich mich vorstelle. Mein Name ist Thomas Jannot, kommissarischer Nachfolger von Rainer Huttenloher, der Sie in den vorigen Ausgaben auf dieser Seite begrüßte.

Ausgerechnet im Big-Brother-Jahr 1984 habe ich aus einem der größten Rechenzentren der Welt die Flucht ergriffen. Dieses Rechenzentrum verwaltete über 16 Millionen Kunden. Jeder einzelne wurde über eine individuelle Personenkennzahl indexiert, die von besonders autorisierten Benutzern fast überall und jederzeit abrufbar war und mindestens einer transparenten Kaderakte mit lückenlosen Logfiles eines auf höchste Sicherheit ausgelegten Überwachungsprogramms namens Stasi zugeordnet werden konnte.

Das Rechenzentrum war großflächig abgeriegelt. Streng vertraulich ausgebildete Experten hatten kontrollierten Zugang zu allen Daten. Die Datenverarbeitung basierte auf russische Improvisationen mit funktionalen Infrastrukturen, die bei Stromausfall ohne digitale Unterstützung des VEB Robotron Dresden auskam. Der logistische Aufwand war die rote Kopie einer braunen Vergangenheit, die mangels Akzeptanz nur mit höchst zweifelhaften Methoden lebenslänglicher Kundenbindung viel zu lange funktionierte.

Das erste real existierende Rechenzentrum, das ich mit kritischer Außensicht von innen sah, war Mitte der 1990er-Jahre das von Compuserve in Ohio. Damals hatten mich die bombensicheren Brandschutzmaßnahmen schwer beeindruckt, die aufwendig installiert wurden, um das virtuelle Geschäftsmodell des Online-Pioniers vor den vermeintlich schlimmsten Folgen zu schützen. Genützt hat es leider wenig – Compuserve ist zwar nicht abgebrannt, aber Geschichte.

Zu Beginn der 2000er-Jahre durfte ich ein zertifiziertes Rechenzentrum von Strato in Berlin besichtigen. Diesmal waren es die dieselbetriebenen Notstromaggregatoren und ihre regelmäßig zu prüfenden Anlaufzeiten, die mich faszinierten. Kein Vergleich zu den USV-Teilchen, die ein Dutzend SETI-Rechner in meinem ganz persönlichen Rechenzentrum daheim vor Ausfall schützten ;-)

Das jüngst inspizierte Rechenzentrum war das eines cleveren Geschäftemachers, dem ich 2011 im Auftrag eines unzufriedenen Kunden einen Besuch als Mediator abstatten musste. Mein Auftrag war, herauszufinden, warum existenzbedrohend weniger funktionierte als vertraglich vereinbart und mit peinlich geringer Hochverfügbarkeit unverschämt teuerer als preiswert in Rechnung gestellt wurde. Die Mission gipfelte im sofortigen Abzug geschäftskritischer Daten aus dem potemkinschen Rechenzentrum, das wenige Wochen später in der Insolvenz verschwand. Seit dieser gefährlichen Datenrettung in buchstäblich letzter Minute bin ich ein leidenschaftlicher Anwender von Amazon Web Services, über die jeder Cloud-affine Nerd mit professionellen Ambitionen oder krimineller Energie sein hardwareloses Rechenzentrum auf einem iPad ohne Standleitung in wenigen Minuten mal eben selbst zusammenklicken kann.

Was ich damit sagen will? Geschichte wiederholt sich. Alle Zeiten werden sich ständig und gewaltig ändern. Ganz besonders und vor allem für die vielen kleinen, mittleren und immer größeren Rechenzentren im Exponentialdrift globalisierter Märkte. Wenn ich sehe, welche Begehrlichkeiten wo auch immer gespeicherte Daten auf höchster politischer Ebene wecken, wird mir als ehemaliger Personenkennzahlträger, heute Steuernummerierter angst und bange. Wehe dem, der die Planung, Wartung und Verantwortung auf die leichte Schulter nimmt. Meine Prognose:

Die nächsten großen Konflikte mit nachhaltigen Auswirkungen auf die künftige Historie dieser unserer realen Welt kommen noch sicherer als das Amen in der Kirche. Und sie werden in Rechenzentren entschieden, weshalb wir dieses Thema nie zu früh ernst genug nehmen können.

P.S. Dieser Beitrag ist eine 1:1-Abschrift. Das gedruckte Original erschien im Januar 2012 in der Themenbeilage Rechenzentren und Infrastruktur I/2012, die der iX – Magazin für professionelle Informationstechnik 2/2012 beilag.

Matomo