Zum Hauptinhalt springen

Eins der modernsten Rechenzentren von Microsoft

Projekt Natick: Microsoft zeigt, wie zuverlässig und nachhaltig Unterwasser-Rechenzentren sind

Vor ein paar Wochen bargen Marinespezialisten vor den schottischen Orkney-Inseln einen riesigen Metall-Zylinder, der dicht mit Algen, Seepocken und Seeanemonen bewachsen war. Doch wieso war unser Logo darauf zu sehen? Die zwölf Meter lange Röhre beherbergte eins der modernsten Rechenzentren von Microsoft und wurde vor über zwei Jahren, im Juni 2018, in einer Tiefe von 35 Metern im Meer versenkt. Sein Name: Project Natick.

Die Bergung war der Start zum Endspurt eines jahrelangen Projektes, das nun gezeigt hat, dass Unterwasser-Datenzentren nicht nur möglich, sondern auch logistisch, ökologisch und wirtschaftlich sinnvoll sind. Die Anfangsthese des Forschungsteams von Project Natick war einfach: Der Meeresboden bietet eine stabile und zuverlässige Betriebsumgebung. Unter Wasser sind die Komponenten von Rechenzentren keiner Korrosion durch Sauerstoff und Feuchtigkeit ausgesetzt. Sie müssen auch keine Temperaturschwankungen oder Erschütterungen durch Personen verkraften, die vielleicht zum Austausch von defekten Komponenten vorbeikommen. Das sind alles bekannte Fehlerquellen.

Unsere Ausfallrate ist achtmal geringer als an Land.

Der Feldversuch hat nun die Annahmen bestätigt: „Unsere Ausfallrate ist achtmal geringer als an Land“, sagt der Leiter von Project Natick, Ben Cutler. Die Erkenntnisse würden jetzt in die Nachhaltigkeitsstrategie für die Rechenzentren von Microsoft einfließen. Die Zuverlässigkeit der Unterwasser-Datacenter öffne außerdem die Tür für völlig neue Angebote, mit denen man Kunden bedienen kann, die überall auf der Welt taktische und kritische Rechenzentren einrichten und betreiben müssen.

Das Rechenzentrum im Meer versenken – warum nicht?

Die ersten Ideen für Rechenzentren im Meer entstanden 2014 bei einer ThinkWeek, als Mitarbeiter*innen von Microsoft wieder einmal zusammenkamen, um besonders unkonventionelle Ideen auszutauschen. Das neue Konzept wurde als Möglichkeit gesehen, um schnelle Cloud-Dienste für die Küstenbevölkerung bereitzustellen und dabei auch noch Energie zu sparen.

Ein Jahr später bewies das Natick-Team bei einem 105-tägigen Test im Pazifik, dass der Plan aufgehen kann. Bald wurden auch Verträge mit Spezialfirmen aus den Bereichen Logistik, Schiffbau und erneuerbare Energien abgeschlossen, um zu zeigen, dass dieses Konzept praktikabel ist.

Rechenzentren unter Wasser – dafür sprechen viele Gründe: Mehr als die Hälfte der Weltbevölkerung lebt weniger als 200 Kilometer von der Küste entfernt. Wenn die Datenzentren im Meer in der Nähe von Städten liegen, müssen Daten nur kurze Entfernungen zurücklegen. Das macht das Surfen im Internet oder Video-Streaming und Gaming schneller und reibungsloser.

Algen, Seepocken und Seeanemonen

Bei den Orkney-Inseln sind die Gezeitenströmungen bis zu 14 Kilometer pro Stunde schnell, und Wellen wachsen im Sturm auf über 18 Meter an. Während des zweijährigen Probebetriebs sorgte die raue See dafür, dass der schneeweiße Zylinder sich mit einer Schicht aus Algen und Seepocken überzog, an der sich Seeanemonen festsetzten, die bis zu der Größe von Zuckermelonen heranwuchsen.

Doch die Hochdruckreiniger machten die Röhre wieder sauber, in der zwölf Racks und 864 Server steckten. Anschließend führten die Wissenschaftler Röhrchen durch ein Ventil an der Oberseite ein, um die Atmosphäre in der Anlage zu analysieren. Sie besteht aus trockenem Stickstoff, weil das die IT-Infrastruktur gut vor Korrosion schützt. Nun gilt es herauszufinden, wie die Gase, die mit der Zeit von den Kabeln und anderen Geräten freigesetzt werden, die Umgebung für die Computer beeinflusst haben könnten. Anschließend wurde das ganze Rechenzentrum auf einen Lastwagen geladen und zum Nigg Energy Park im Norden Schottlands gefahren. Erst dort wurde es aufgeschraubt, um die Serverschränke zu bergen und für weitere Analysen in die Microsoft-Zentrale nach Redmond zu schicken.

8 x zuverlässiger als an Land, mehr Energieeffizienz, weniger Emissionen

Die Forscher*innen wollen vor allem herausfinden, warum die Server unter Wasser achtmal zuverlässiger arbeiten als an Land. Auch dafür haben sie bereits eine Hypothese: Die Stickstoffatmosphäre ist viel weniger korrosiv als Sauerstoff. Außerdem wirkt sich das Fehlen von Menschen aus, die bei ihrer Arbeit die Komponenten durch Anstoßen beschädigen können. Wenn sich diese Analyse als richtig erweist, lassen sich die Erkenntnisse wohl auch auf den Betrieb von Rechenzentren an Land übertragen.

Datenspeicher im Inneren des Unterwasser-Datenzentrums von Microsoft

Andere Ergebnisse des Feldversuchs gaben bereits Aufschluss über Möglichkeiten, den Energieverbrauch von Rechenzentren nachhaltiger zu gestalten. Das Versuchsfeld im Nordatlantik wurde auch deshalb ausgesucht, weil der Strom dort zu 100 Prozent aus Wind- und Sonnenenergie sowie weiteren ökologischen Quellen erzeugt wird. Ben Cutler denkt bereits darüber nach, Unterwasser-Rechenzentren in Offshore-Windparks zu versenken, weil dort selbst bei schwachem Wind genug Elektrizität für solche Zwecke produziert wird. Für den Notfall könne man auch eine Stromleitung vom Land mit den Glasfaserkabeln bündeln, die für den Transport der Daten nötig sind.

Wegen Kühlung durch das Meer wird außerdem kein Süßwasser zur Temperatur-Regulierung benötigt, das in vielen Landstrichen eine knappe Ressource ist. Auch das ist ein Beitrag zur Nachhaltigkeit. Zusätzlich spricht die geringe Anfälligkeit des Rechenzentrums für den Unterwasserbetrieb: In so einer lichtlosen Röhre werden Server nur alle fünf Jahre ausgetauscht. Die wenigen, die vorher ausfallen, werden einfach vom Netz genommen.

Und wie geht es jetzt weiter?

Die Erfahrungen mit Project Natick machen Lust auf mehr: Bei Microsoft wird schon überlegt, wie man noch mehr Unterwasser-Rechenzentren errichten und miteinander vernetzen kann, damit sie gemeinsam die ganze Cloud-Palette von Microsoft Azure anbieten. Der Trend geht außerdem zum Edge-Computing, bei dem wichtige Teile der Datenverarbeitung gleich am Ort erfolgen, statt zuerst alles in die Cloud zu laden. Damit steigt auch der Bedarf an kleineren Rechenzentren, die näher bei den Kunden sind, statt irgendwo im Nirgendwo als Riesenklötze auf der grünen Wiese zu stehen.