Inicio Componentes Solución de problemas de capacidad de alimentación con potencia definida por software

Solución de problemas de capacidad de alimentación con potencia definida por software

La falta de energía es una preocupación constante para los operadores de centros de datos e infraestructuras similares de TI y comunicaciones. La lucha por la optimización de la huella, al tiempo que aumenta las capacidades de procesamiento y almacenamiento es una batalla sin fin. Sin embargo, las ineficiencias e infrautilización de las actuales infraestructuras de suministro de energía diseñadas para satisfacer la demanda máxima, pueden evitarse ahora utilizando una combinación de hardware y software para equilibrar la carga de suministro y optimizar la capacidad disponible. Este uso inteligente de la potencia disponible se puede realizar con herramientas de software que clasifican el uso y reconocen las tareas prioritarias. La energía de la instalación se puede complementar con el almacenaje de la batería para abastecer la demanda máxima, usando energía almacenada durante bajos períodos de utilización. De forma similar, las cargas de trabajo de baja prioridad pueden asignarse a racks de servidores que sólo se alimentan cuando hay suficiente capacidad de suministro.

De esta manera, el sistema puede responder a la demanda máxima mientras se gestionan otras tareas para distribuir la carga de energía. De la misma forma que los Centros de Datos Definidos por Software permiten a los usuarios auto-atendidos desplegar servicios y cargas de trabajo en cuestión de segundos, este enfoque de Software Defined Power® (potencia definida por software) desbloquea la capacidad de alimentación infra utilizada, disponible en los sistemas existentes. Esto permite que la capacidad de procesamiento y almacenamiento del servidor de un centro de datos se expanda sin aumentar la capacidad de suministro de energía, y consiga ahorros considerables en el gasto de capital al no sobreprovisionar la alimentación. Además, el uso del almacenamiento de la batería para suministrar energía para los picos y nivelación de la carga, también puede abilitar la funcionalidad SAI dentro de un centro de datos o un bastidor de servidores, para protegerlo contra cortes de energía.

Entender el “desafío de alimentación” del centro de datos

La demanda de servicios de datos en la nube continúa a medida que las empresas y los consumidores individuales se vuelven cada vez más dependientes de los datos almacenados de forma remota, a los que se pueden acceder a través de Internet desde casi cualquier lugar. Además, Cisco ha estimado que la aparición del Internet de las Cosas dará como resultado unos 50.000 millones de “cosas” conectadas a Internet para el año 2020, ya que el gran número de sensores y controles permiten casas inteligentes, oficinas, fábricas, etc. En combinación con otras aplicaciones más establecidad, se prevé que para 2018 se necesitará una capacidad de red diaria superior a un zettabyte (1021 bytes). El mantenimiento de esta demanda y la ampliación de la capacidad de las redes y centros de datos es inevitablemente un reto, especialmente porque las necesidades de los clientes pueden activarse rápidamente.

Mientras que la industria de TI enfrenta presión para escalar centros de datos, uno de los recursos más limitados es la alimentación. A menudo, la capacidad de potencia de los centros de datos existentes se agota mucho antes de quedar sin capacidad de almacenamiento o procesamiento. Los dos factores principales de esta limitación de capacidad de potencia han sido la necesidad de proporcionar redundancia de suministro y la forma en que se reparte la energía dentro de los centros de datos, los cuales ocupan un espacio significativo, pero lo que es más importante, dejando inactivas las fuentes de energía inactivas. Y esto, a pesar del hecho de que los actuales diseños de servidores son mucho más eficientes en energía que las generaciones anteriores y tienen significativamente menor consumo de energía en reposo. El suministro de capacidad de energía adicional dentro de un centro de datos también requiere mucho tiempo y es costoso incluso suponiendo que la empresa local pueda suministrar la carga adicional, que según las previsiones de IDC, podrían duplicarse de 48 GW en 2015 a 96 GW en 2021 para un centro de datos típico. Desde el punto de vista del gasto de capital, como se muestra en la figura 1, el coste de la infraestructura de energía y refrigeración de un centro de datos es el segundo mayor, sólo por detrás del coste de sus servidores.

La naturaleza de los servicios en la nube también significa que la demanda puede fluctuar dramáticamente con una diferencia significativa entre el pico y la potencia media consumida por un rack de servidores. Por consiguiente, proporcionar suficiente energía para satisfacer los requisitos de carga máxima resultará claramente en la subutilización de la potencia instalada en otras ocasiones. Además, las fuentes de alimentación ligeramente cargadas siempre serán menos eficientes que las que funcionan bajo condiciones de plena carga. Es evidente que cualquier medida que pueda compensar la carga de energía y liberar la capacidad de suministro excedente, debe ser bienvenida para permitir a los operadores de centros de datos atender la demanda adicional de los clientes sin tener que instalar una capacidad de energía adicional. Con respecto a las consideraciones de eficiencia, los servidores y los bastidores de servidores utilizan arquitecturas de energía distribuida en las que la conversión de energía AC/DC se lleva a cabo en varios niveles. Por ejemplo, un bastidor puede estar alimentado por una fuente de alimentación AC/DC de alta gama que proporciona un raíl de alimentación inicial de 48 Vdc. Entonces, a nivel individual del servidor o de la placa, un convertidor de bus intermedio (IBC) bajaría típicamente a 12 Vdc dejando la conversión final a los voltajes más bajos requeridos por CPUs y otros dispositivos, al punto de carga actual (POL). Esta distribución de potencia a voltajes más altos ayuda a la eficiencia, al minimizar las pérdidas de conversión hacia abajo y también evitar las pérdidas de potencia resistiva en cables y trazas de circuitos, que son proporcionales a la corriente y a la distancia. La migración más reciente a fuentes de alimentación controlables digitalmente ha permitido la introducción de técnicas de Software Defined Power® que pueden supervisar y controlar la carga de todas las fuentes de alimentación. Esto permite variar las tensiones de carga intermedia y final de modo que las diversas etapas de suministro puedan operar siempre de la manera más eficiente posible. Sin embargo, otras mejoras en el rendimiento del hardware están alcanzando sus límites y necesitan otras soluciones.

El problema con la provisión de energía en el centro de datos actual

Las arquitecturas tradicionales de fuente de alimentación del centro de datos están diseñadas para proporcionar alta disponibilidad utilizando la redundancia de suministro, para hacer frente a cargas de trabajo de procesamiento de misión crítica. Esto se ilustra en la figura 2, que muestra una configuración 2N que proporciona los requisitos de redundancia del 100% que se esperan de un centro de datos tier 3 o tier 4. Como se puede ver, para un servidor de doble cableado, esto proporciona una conducción de energía independiente desde suministros de la instalación separados o generadores de reserva (back-up) con la protección adicional de SAIs redundantes intermedios. Incluso los servidores de un solo cable tienen la seguridad de un generador de reserva y SAIs. Sin embargo, implícito en este enfoque está la suposición, generalmente falsa, de que todos los servidores están manejando tareas de misión crítica y que la carga en cada uno (y por lo tanto la demanda de energía) es igual. En realidad, hasta el 30% de los servidores podrían manejar cargas de trabajo de desarrollo o de prueba, lo que significa que la mitad de la potencia proporcionada para ellos no es realmente necesaria, es decir, el 15% de la capacidad total del centro de datos está bloqueada. La otra cuestión es que, convencionalmente, la capacidad de suministro está diseñada para proporcionar potencia suficiente para la utilización máxima de la CPU. La variabilidad en el consumo de energía del servidor que resulta de esto, puede ser simplemente representado por la siguiente ecuación lineal: Pserver= Pidle+u(Pfull- Pidle) donde Pidle es la potencia del servidor consumida cuando está en reposo y u es la utilización de la CPU. Con una nueva tecnología que proporciona un consumo en modo reposo más bajo, la diferencia entre la energía en reposo y a plena carga, llega a ser cada vez más significativa. Esta propagación se hace aún mayor a nivel de bastidor, haciendo que la planificación de la capacidad de potencia basada en una cifra de utilización de la CPU supuesta, sea muy difícil. Además, el tipo de carga de trabajo multiplica la variabilidad en el consumo de energía. Por ejemplo, Google encontró que la relación entre la potencia media y la potencia de pico observada para los servidores que manejan correo web fue del 89,9%, mientras que la actividad de búsqueda en la web dio lugar a una proporción mucho más baja del 72,7%. Por lo tanto, el aprovisionamiento de la capacidad de energía del centro de datos basada en la proporción de búsqueda en la Web podría resultar en una infrautilización de hasta un 17%. Desafortunadamente, no termina ahí. El temor es que los picos reales puedan superar los que han sido calculados, potencialmente sobrecargando el sistema de suministro y causando cortes de energía. Esto lleva a los planificadores a agregar capacidad adicional para proporcionar un tramo de seguridad. Por lo tanto, no es sorprendente encontrar que la utilización media en centros de datos en todo el mundo es inferior al 40%, teniendo en cuenta el modelo de demanda de pico más el tramo de seguridad adicional, esta cifra se reduce aún más cuando se incluyen disposiciones de redundancia.

Desbloqueo de la capacidad de la fuente de alimentación infrautilizada

El problema de consumo de pico versus potencia media discutido anteriormente, bloquea una considerable capacidad de potencia. Donde los picos se producen a tiempos predecibles y tienen una duración relativamente larga, los centros de datos usan, típicamente, instalaciones locales de generación de energía para complementar su suministro de servicios de red de la instalación, similar a cómo las empresas eléctricas suben y bajan su capacidad de generación durante todo el día para satisfacer la demanda esperada de consumidores y empresas. Desafortunadamente, el uso de grupos electrógenos no aborda el problema de los picos que se derivan de una utilización más dinámica de la CPU, que se caracteriza por una relación de potencia de pico a promedio más alta, que es de duración más corta y se produce con una frecuencia más alta. Para ello, la solución es proporcionar almacenamiento de energía por baterías. El principio aquí es simple, las baterías suministran la energía cuando se producen los picos de la demanda, y se recargan durante períodos de la utilización más baja. Este enfoque, denominado “peak shaving”, se ilustra en la figura 3, que muestra cómo un rack de servidor que normalmente necesitaría 16 kW de potencia, puede funcionar con 8-10 kW de potencia de red. De hecho, si la potencia de la red eléctrica está restringida, el paso de potencia de 8kW a 10kW podría ser tenido en cuenta con la energía generada localmente, manteniendo el suministro de la red eléctrica a una constante de 8kW.

Optimización mediante redundancia dinámica

La falsa suposición, mencionada anteriormente, de que todos los servidores de los centros de datos tier 3/4 están manejando cargas de trabajo críticas, puede ser mitigado asignando tareas no críticas a bastidores específicos de servidores de baja prioridad. Esto permite que la capacidad adicional del servidor se instale en el centro de datos hasta un límite definido por la carga máxima nocrítica. Así, por ejemplo, en un centro de datos completo donde la carga máxima de rack de 400kW para todos los bastidores, nominalmente requiere suministros de doble 400 kW para proporcionar una redundancia del 100%, podría ser posible proporcionar racks de servidor de baja prioridad para el servicio tal vez 100kW de carga no-crítica. Entonces, en el caso de que uno de los suministros de 400kW falle, la energía se corta a los bastidores de servidor de baja prioridad, para asegurarse de que los bastidores de misión crítica reciben plena potencia del suministro alternativo de 400kW. De esta manera, el uso de la gestión de carga inteligente puede liberar la capacidad de suministro redundante, que no tiene valor añadido, para proporcionar un aumento significativo en la capacidad de carga de un centro de datos, en este caso un 25%, sin necesidad de aprovisionar más energía. Una vez más, una solución combinada de software y hardware puede proporcionar esta gestión dinámica de energía, supervisar y detectar una interrupción del suministro, y cambiar inmediatamente al suministro alternativo para garantizar el funcionamiento continuo de los bastidores de servidor de misión crítica.

La solución de Control Inteligente de Energía (ICE®)

CUI se ha asociado con Virtual Power Systems para introducir el concepto de “peak shaving” en una novedosa solución de Software Defined Power®, para sistemas informáticos. El sistema ICE® (Intelligent Control of Energy), utiliza una combinación de hardware y software para maximizar la utilización de la capacidad y optimizar el rendimiento. El hardware incluye varios módulos, incluyendo unidades de almacenamiento y conmutación de baterías montadas en bastidor, que pueden colocarse en los diferentes puntos de control de potencia en el centro de datos, para apoyar decisiones de software sobre el aprovisionamiento de energía. El software ICE consiste en un sistema operativo que recopila datos de telemetría del ICE y otros equipos de infraestructura, para permitir el control en tiempo real, usando algoritmos de optimización de energía. Para ilustrar los beneficios del sistema, la figura 5 destaca una prueba del sistema ICE en un centro de datos tier top. El ensayo ha demostrado el potencial para desbloquear 16 MW de potencia de una capacidad instalada de 80 MW. Además, el gasto de capital al incorporar ICE, no es ni una cuarta parte del coste en el que se habría incurrido en la instalación de 16 MW adicionales de capacidad de suministro, pero el tiempo necesitado para su instalación fue una fracción y el gasto operativo en curso se reduce.

Conclusión

La ampliación de la capacidad de los centros de datos para hacer frente a la creciente demanda de servicios y almacenamiento de datos en la nube, a menudo puede verse limitada por la energía disponible. A veces esto puede incluso ser una limitación del suministro de la red eléctrica en una ubicación determinada, pero, aunque no sea así, la capacidad de agregar más bastidores de servidores puede estar restringida por la infraestructura de energía y refrigeración existente. Provisionar la capacidad de energía adicional es de lo más costoso, solamente por debajo en coste de la incorporación de servidores, así que cualquier manera de mejorar la utilización de fuentes de energía existentes tiene es bienvenida. A través de su solución ICE® (Intelligent Control of Energy), la empresa Virtual Power Systems, asociada con CUI, proporciona una capacidad completa de administración de energía para centros de datos y aplicaciones de infraestructura de redes y TI similares. Maximiza la utilización de la capacidad mediante “peak shaving” y libera la capacidad redundante de sistemas que no son totalmente críticos para el funcionamiento de la instalación. Es importante destacar que su conmutación de energía y los módulos de almacenamiento en baterías de iones de litio se pueden desplegar fácilmente tanto en instalaciones de centros de datos existentes como nuevas, con una reducción dramática en el coste total de propiedad, hasta el 50%. Para obtener más información sobre la plataforma ICE®, visite la web www.cui.com/sdp-infrastructure-solutions  


Etiquetas
problemas de potencia; software alimentacion