Projekt Natick: Microsoft zeigt, wie zuverlässig und nachhaltig Unterwasser-Rechenzentren sind

Natick

Read the full story in English

Vor ein paar Wochen bargen Marinespezialisten vor den schottischen Orkney-Inseln einen riesigen Metall-Zylinder, der dicht mit Algen, Seepocken und Seeanemonen bewachsen war. Doch wieso war unser Logo darauf zu sehen? Die zwölf Meter lange Röhre beherbergte eins der modernsten Rechenzentren von Microsoft und wurde vor über zwei Jahren, im Juni 2018, in einer Tiefe von 35 Metern im Meer versenkt. Sein Name: Project Natick.

Die Bergung war der Start zum Endspurt eines jahrelangen Projektes, das nun gezeigt hat, dass Unterwasser-Datenzentren nicht nur möglich, sondern auch logistisch, ökologisch und wirtschaftlich sinnvoll sind. Die Anfangsthese des Forschungsteams von Project Natick war einfach: Der Meeresboden bietet eine stabile und zuverlässige Betriebsumgebung. Unter Wasser sind die Komponenten von Rechenzentren keiner Korrosion durch Sauerstoff und Feuchtigkeit ausgesetzt. Sie müssen auch keine Temperaturschwankungen oder Erschütterungen durch Personen verkraften, die vielleicht zum Austausch von defekten Komponenten vorbeikommen. Das sind alles bekannte Fehlerquellen.

Der Feldversuch hat nun die Annahmen bestätigt: „Unsere Ausfallrate ist achtmal geringer als an Land“, sagt der Leiter von Project Natick, Ben Cutler. Die Erkenntnisse würden jetzt in die Nachhaltigkeitsstrategie für die Rechenzentren von Microsoft einfliessen. Die Zuverlässigkeit der Unterwasser-Datacenter öffne ausserdem die Tür für völlig neue Angebote, mit denen man Kunden bedienen kann, die überall auf der Welt taktische und kritische Rechenzentren einrichten und betreiben müssen.

Das Rechenzentrum im Meer versenken – warum nicht?

Die ersten Ideen für Rechenzentren im Meer entstanden 2014 bei einer ThinkWeek, als Mitarbeiter von Microsoft wieder einmal zusammenkamen, um besonders unkonventionelle Ideen auszutauschen. Das neue Konzept wurde als Möglichkeit gesehen, um schnelle Cloud-Dienste für die Küstenbevölkerung bereitzustellen und dabei auch noch Energie zu sparen.

Ein Jahr später bewies das Natick-Team bei einem 105-tägigen Test im Pazifik, dass der Plan aufgehen kann. Bald wurden auch Verträge mit Spezialfirmen aus den Bereichen Logistik, Schiffbau und erneuerbare Energien abgeschlossen, um zu zeigen, dass dieses Konzept praktikabel ist.

Rechenzentren unter Wasser – dafür sprechen viele Gründe: Mehr als die Hälfte der Weltbevölkerung lebt weniger als 200 Kilometer von der Küste entfernt. Wenn die Datenzentren im Meer in der Nähe von Städten liegen, müssen Daten nur kurze Entfernungen zurücklegen. Das macht das Surfen im Internet oder Video-Streaming und Gaming schneller und reibungsloser.

Algen, Seepocken und Seeanemonen

Bei den Orkney-Inseln sind die Gezeitenströmungen bis zu 14 Kilometer pro Stunde schnell, und Wellen wachsen im Sturm auf über 18 Meter an. Während des zweijährigen Probebetriebs sorgte die raue See dafür, dass der schneeweisse Zylinder sich mit einer Schicht aus Algen und Seepocken überzog, an der sich Seeanemonen festsetzten, die bis zu der Grösse von Zuckermelonen heranwuchsen.

Andere Ergebnisse des Feldversuchs gaben bereits Aufschluss über Möglichkeiten, den Energieverbrauch von Rechenzentren nachhaltiger zu gestalten. Das Versuchsfeld im Nordatlantik wurde auch deshalb ausgesucht, weil der Strom dort zu 100 Prozent aus Wind- und Sonnenenergie sowie weiteren ökologischen Quellen erzeugt wird. Ben Cutler denkt bereits darüber nach, Unterwasser-Rechenzentren in Offshore-Windparks zu versenken, weil dort selbst bei schwachem Wind genug Elektrizität für solche Zwecke produziert wird. Für den Notfall könne man auch eine Stromleitung vom Land mit den Glasfaserkabeln bündeln, die für den Transport der Daten nötig sind.

Wegen Kühlung durch das Meer wird ausserdem kein Süßwasser zur Temperatur-Regulierung benötigt, das in vielen Landstrichen eine knappe Ressource ist. Auch das ist ein Beitrag zur Nachhaltigkeit. Zusätzlich spricht die geringe Anfälligkeit des Rechenzentrums für den Unterwasserbetrieb: In so einer lichtlosen Röhre werden Server nur alle fünf Jahre ausgetauscht. Die wenigen, die vorher ausfallen, werden einfach vom Netz genommen.

Und wie geht es jetzt weiter?

Die Erfahrungen mit Project Natick machen Lust auf mehr: Bei Microsoft wird schon überlegt, wie man noch mehr Unterwasser-Rechenzentren errichten und miteinander vernetzen kann, damit sie gemeinsam die ganze Cloud-Palette von Microsoft Azure anbieten. Der Trend geht ausserdem zum Edge-Computing, bei dem wichtige Teile der Datenverarbeitung gleich am Ort erfolgen, statt zuerst alles in die Cloud zu laden. Damit steigt auch der Bedarf an kleineren Rechenzentren, die näher bei den Kunden sind, statt irgendwo im Nirgendwo als Riesenklötze auf der grünen Wiese zu stehen.

Related Posts

Sieben Wege, wie KI unser Leben einfacher macht

Künstliche Intelligenz (KI) ist mehr als ein Werkzeug für Büroarbeiter*innen oder eine Produktivitätssoftware für Unternehmen. KI kann jederzeit und überall schnelle Antworten geben und dabei helfen, Ideen, Informationen und Inspiration für fast alle Situationen in Beruf und Freizeit zu entwickeln. Eine einfache Möglichkeit, KI zu nutzen, ist Microsoft Copilot auf dem iOS- oder Android-Smartphone zu installieren. Die kostenlose KI-Anwendung fasst Informationen aus dem Internet zusammen, hilft beim Recherchieren, Planen oder Erstellen von Texten oder Bildern auf Grundlage von Anfragen oder sogenannten “Prompts”. Hier sind sieben Tipps, um mit KI mehr aus dem Tag zu machen:  

Announcing new tools in Azure AI to help you build more secure and trustworthy generative AI applications

In the rapidly evolving landscape of generative AI, business leaders are trying to strike the right balance between innovation and risk management. Prompt injection attacks have emerged as a significant challenge, where malicious actors try to manipulate an AI system into doing something outside its intended purpose, such as producing harmful content or exfiltrating confidential data. In addition to mitigating these security risks, organizations are also concerned about quality and reliability. They want to ensure that their AI systems are not generating errors or adding information that isn’t substantiated in the application’s data sources, which can erode user trust.

Sulzer Schmid’s Blade Anomaly Detection AI with Microsoft Azure

Sulzer Schmid stands at the forefront of innovation in the energy service sector. Leveraging cutting-edge technology, the company’s rotor blade inspection process employs autonomous drones to capture repeatable and consistently high-quality images. The cloud-based 3DX™ Blade Platform offers a data driven approach, incorporating AI-enhanced analytics, providing customers with actionable insights to optimize performance of renewable energy assets.

Mit Copilot, Windows und Surface die neue Ära der Arbeit gestalten

Vor einem Jahr haben wir Copilot für Microsoft 365 vorgestellt. Die Daten aus unserer Work-Trend-Index-Studie zeigen, dass unsere Technologie Mitarbeitende produktiver und kreativer macht und manche dadurch bis zu 10 Stunden Arbeitszeit pro Monat sparen.[i] Deshalb arbeiten wir weiter an Innovationen und statten unser gesamtes Produktportfolio mit Copilot-Funktionen aus, einschliesslich all der Anwendungen und Dienste, auf die Unternehmen bauen – von Windows und Microsoft 365 bis hin zu Teams, Edge und mehr.