Para enfriar los servidores del centro de datos, Microsoft recurre a un líquido en ebullición
Quincy, Washington – ¡Ping!
Los emails y otras comunicaciones enviadas entre empleados de Microsoft hacen que, de manera literal, hierva el líquido dentro de un tanque de almacenamiento de acero, repleto con servidores informáticos en este centro de datos en la orilla oriental del río Columbia.
A diferencia del agua, el fluido dentro del tanque en forma de sofá es inofensivo para el equipo electrónico y está diseñado para hervir a 122 grados Fahrenheit, 90 grados por debajo del punto de ebullición del agua.
El efecto de ebullición, que se genera por el trabajo que realizan los servidores, aleja el calor de los procesadores informáticos que se encuentran en funcionamiento. La ebullición a baja temperatura permite que los servidores operen de manera continua a plena potencia, sin riesgo de fallas por sobrecalentamiento.
Dentro del tanque, el vapor que se eleva del fluido en ebullición entra en contacto con un condensador enfriado en la tapa del tanque, lo que hace que el vapor se convierta en líquido y vuelva a llover sobre los servidores sumergidos, lo que crea un sistema de enfriamiento de circuito cerrado.
“Somos el primer proveedor de nube que ejecuta enfriamiento por inmersión en dos fases en un entorno de producción”, comentó Husam Alissa, ingeniero principal de hardware en el equipo de desarrollo avanzado de centros de datos de Microsoft en Redmond, Washington.
La ley de Moore para el centro de datos
La implementación del entorno de producción del enfriamiento por inmersión de dos fases, es el siguiente paso en el plan a largo plazo de Microsoft para mantenerse al día con la demanda de computadoras para centros de datos más rápidas y potentes, en un momento en que los avances confiables en la tecnología de chips de computadora enfriados por aire se han ralentizado.
Por décadas, los avances en chips se derivaron de la capacidad de empaquetar más transistores en el mismo tamaño de chip, lo que duplicaba, de manera aproximada, la velocidad de los procesadores de computadora cada dos años, sin incrementar su demanda de energía eléctrica.
Este fenómeno de duplicación se llama Ley de Moore, en honor al cofundador de Intel, Gordon Moore, quien observó la tendencia en 1965 y predijo que continuaría por al menos una década. Esta se mantuvo durante la década de 2010 y ahora ha comenzado a desacelerarse.
Esto se debe a que los anchos de los transistores se han reducido a escala atómica y han comenzado a alcanzar su límite físico. Mientras tanto, la demanda por procesadores de computadora más rápidos para aplicaciones de alto rendimiento, como la inteligencia artificial, se ha acelerado, señaló Alissa.
Para satisfacer la necesidad de desempeño, la industria de la computación ha recurrido a arquitecturas que pueden manejar más energía eléctrica. Las unidades centrales de procesamiento, o CPU, han aumentado de 150 watts a más de 300 watts por chip, por ejemplo. Las unidades de procesamiento de gráficos, o GPU, han aumentado a más de 700 watts por chip.
Cuanta más energía eléctrica se bombea a través de estos procesadores, más calientes se ponen los chips. El aumento de calor ha aumentado los requisitos de enfriamiento para evitar que los chips funcionen mal.
“El enfriamiento por aire no es suficiente”, comentó Christian Belady, distinguido ingeniero y vicepresidente del grupo de desarrollo avanzado de centro de datos de Microsoft, en Redmond. “Eso es lo que nos lleva al enfriamiento por inmersión, donde podemos hervir de manera directa las superficies del chip”.
La transferencia de calor en líquidos, señaló, es de órdenes de magnitud más eficiente que el aire.
Además, agregó, el cambio al enfriamiento por líquido trae una mentalidad similar a la Ley de Moore a todo el centro de datos.
“El enfriamiento por líquido nos permite volvernos más densos y, por consiguiente, continuar la tendencia de la Ley de Moore a nivel del centro de datos”, comentó.
Lección aprendida de los mineros de criptomonedas
El enfriamiento por líquido es una tecnología probada, señaló Belady. La mayoría de los automóviles que circulan en la actualidad dependen de él para evitar que los motores se sobrecalienten. Varias empresas de tecnología, incluida Microsoft, experimentan con tecnología de placa fría, en la que el líquido se canaliza a través de placas de metal, para enfriar los servidores.
Los participantes de la industria de las criptomonedas fueron pioneros en el enfriamiento por inmersión en líquido para equipos informáticos, usándolo para enfriar los chips que registran transacciones de moneda digital.
Microsoft investigó la inmersión en líquido como una solución de enfriamiento para aplicaciones de cómputo de alto desempeño, como la IA. Entre otras cosas, la investigación reveló que el enfriamiento por inmersión de dos fases, redujo el consumo de energía en cualquier servidor entre 5% y 15%.
Los hallazgos motivaron al equipo de Microsoft a trabajar con Wiwynn, un fabricante y diseñador de sistemas de TI de centros de datos, para desarrollar una solución de enfriamiento por inmersión en dos fases. La primera solución ya se ejecuta en el centro de datos de Microsoft en Quincy.
Ese tanque en forma de sofá está lleno de un fluido diseñado por 3M. Los fluidos de líquido de enfriamiento de 3M tienen propiedades dieléctricas que los hacen unos aislantes efectivos, lo que permite que los servidores operen con normalidad mientras están sumergidos por completo en el fluido.
Este cambio al enfriamiento por inmersión de dos fases permite una mayor flexibilidad para el manejo eficiente de recursos de nube, de acuerdo con Marcus Fontoura, asociado técnico y vicepresidente corporativo en Microsoft, quien es el arquitecto en jefe del cómputo de Azure.
Por ejemplo, el software que administra recursos de nube puede asignar picos repentinos en la demanda de cómputo del centro de datos a los servidores en los tanques enfriados por líquido. Esto se debe a que estos servidores pueden funcionar con una potencia elevada, un proceso que se llama overclocking (rendimiento más alto al de las especificaciones del fabricante), sin riesgo de sobrecalentamiento.
“Para poner un ejemplo, sabemos que con Teams, cuando llegas a la 1 o 2 en punto, hay un gran pico porque las personas se unen a las reuniones al mismo tiempo”, comentó Fontoura. “El enfriamiento por inmersión nos da más flexibilidad para lidiar con estas cargas de trabajo en ráfagas”.
Centros de datos sustentables
Agregar los servidores enfriados por inmersión de dos fases a la combinación de recursos disponibles de cómputo, también permitirá que el software de aprendizaje automático administre estos recursos de manera más eficiente en todo el centro de datos, desde energía y enfriamiento hasta técnicos de mantenimiento, añadió Fontoura.
“No solo tendremos un impacto enorme en la eficiencia, también habrá un impacto enorme en la sustentabilidad porque te aseguras de que no haya desperdicio, de que cada pieza de equipo de TI que implementemos sea bien utilizada”, comentó.
El enfriamiento por líquido también es una tecnología que no utiliza agua, lo que ayudará a Microsoft a cumplir su compromiso de reponer más agua de la que consume para finales de esta década.
Los serpentines de enfriamiento que atraviesan el tanque y que permiten que el vapor se condense, están conectados a un sistema de circuito cerrado separado, que usa fluido para transferir el calor desde el tanque hacia un enfriador seco fuera del contenedor del tanque. Dado que el fluido en estos serpentines siempre está más caliente que el aire del ambiente, no hay necesidad de rociar agua para acondicionar el aire para enfriamiento por evaporación, explicó Alissa.
Microsoft, junto con socios de la industria de infraestructura, también investiga cómo hacer funcionar los tanques de manera que mitiguen la pérdida de fluido y tengan poco o ningún impacto en el medio ambiente.
“Si se hace bien, el enfriamiento por inmersión de dos fases logrará todos nuestros requisitos de costos, confiabilidad y desempeño de manera simultánea, con una fracción del gasto de energía en comparación con el enfriamiento por aire”, comentó Ioannis Manousakis, ingeniero principal de software en Azure.
“Trajimos el mar a los servidores”
La investigación de Microsoft sobre el enfriamiento por inmersión de dos fases, es parte de la estrategia múltiple de la empresa para hacer que los centros de datos sean más sustentables y eficientes de construir, operar y mantener.
Por ejemplo, el equipo de desarrollo avanzado de centro de datos también explora el potencial de usar celdas de combustible de hidrógeno en lugar de generadores diésel para la generación de energía de respaldo en los centros de datos.
El proyecto de enfriamiento por líquido es similar a Project Natick de Microsoft, que explora el potencial de centros de datos submarinos que se implementan de manera rápida y pueden operar por años en el lecho marino, sellados dentro de tubos tipo submarino y sin ningún mantenimiento en sitio por parte de las personas.
En lugar de un fluido diseñado, el centro de datos submarino está lleno de aire de nitrógeno seco. Los servidores son enfriados con ventiladores y un sistema de plomería de intercambio de calor que bombea agua de mar a través del tubo sellado.
Un hallazgo clave de Project Natick es que los servidores en el lecho marino experimentaron un octavo de la tasa de fallas de los servidores de réplica en un centro de datos terrestre. Un análisis preliminar indica que la falta de humedad y los efectos corrosivos del oxígeno fueron los principales responsables del rendimiento superior de los servidores bajo el agua.
Alissa, anticipa que los servidores dentro del tanque de inmersión en líquido experimentarán un rendimiento superior similar. “Trajimos el mar a los servidores en lugar de poner el centro de datos bajo el mar”, mencionó.
El futuro
Si los servidores en el tanque de inmersión experimentan tasas reducidas de fallas como se anticipó, Microsoft podría cambiar a un modelo en el que los componentes no se reemplacen de manera inmediata cuando fallan. Esto limitaría la pérdida de vapor y permitiría el despliegue de tanques en ubicaciones remotas, en las que es difícil dar mantenimiento.
Además, la capacidad de empaquetar servidores de manera densa en el tanque, permite una arquitectura de servidor reimaginada que está optimizada para aplicaciones de alto rendimiento y baja latencia, así como para operaciones de bajo mantenimiento, señaló Belady.
Un tanque de este tipo, por ejemplo, podría desplegarse bajo una torre de comunicaciones celulares 5G en medio de una ciudad, para aplicaciones como automóviles autónomos.
Por ahora, Microsoft tiene un tanque que ejecuta cargas de trabajo en un centro de datos de hiperescala. Para los próximos meses, el equipo de Microsoft realizará una serie de pruebas para demostrar la viabilidad del tanque y la tecnología.
“Este primer paso consiste en hacer que las personas se sientan cómodas con el concepto y demostrar que podemos ejecutar cargas de trabajo de producción”, comentó Belady.
Contenido relacionado
- Conozcan Project Natick
- Lean sobre las pruebas de Microsoft con celdas de combustible de hidrógeno para energía de respaldo en los centros de datos
- Conozcan más sobre el compromiso de Microsoft de reponer más agua de la que consume para 2030
- Vean al director de tecnología de Microsoft discutir las innovaciones en la arquitectura del centro de datos en Azure
John Roach escribe sobre investigación e innovación en Microsoft. Síganlo en Twitter.