En el ideario de un responsable de TI que maneja infraestructura hardware se pueden encontrar siempre cuatro máximas: el ahorro energético, de costes, de espacio y, por encima del resto, la eficiencia.
En el ideario de un responsable de TI que maneja infraestructura hardware se pueden encontrar siempre cuatro máximas: el ahorro energético, de costes, de espacio y, por encima del resto, la eficiencia. Estos factores básicos son los que desembocan en una tecnología que remonta sus orígenes al año 2009, donde VFE y Flexpod inician algo que se denominó “Convergencia 1.0”. Esta aproximación, pasados unos años, desembocó en lo que hoy conocemos como Hiperconvergencia, o “Convergencia 3.0”, culminada por Simplivity (actualmente HPE Simplivity).
A partir de aquí han sido diferentes aproximaciones tecnológicas las que han complementado las soluciones de HCI (Infraestructura HiperConvergente): integración con soluciones SDN (Redes Definidas por Software), integraciones nativas con Sistemas de Virtualización, etc. Debemos tener en cuenta que la tecnología hiperconvergente tiene como origen la evolución del SDS (Almacenamiento Definido por Software), y como tal posee como principal característica: reducir la inversión en “hierro” para ganar rendimiento y almacenamiento (la mayoría de las soluciones hiperconvergentes en la actualidad incorporan técnicas de compresión y deduplicación). Estas prestaciones son también incorporadas a los sistemas de almacenamiento masivo (cabinas) que, hoy por hoy, triunfan en el mercado. Reducimos hardware, ganamos espacio en nuestro datacenter y, en ocasiones, incrementamos nuestro almacenamiento en tasas de hasta 5:1. ¡Qué más podemos pedir!
¿Hacia dónde nos lleva todo esto? Indudablemente esta tecnología ha llegado para quedarse y evolucionar, ¿pero tiene límites? Está claro que ha sido la principal impulsora del mundo cloud, ya que ha permitido a los proveedores de servicios ser mucho más eficientes y, por lo tanto, elevar exponencialmente su servicio y rapidez de acceso al dato (arrancar una VM de 2 TB en segundos estaba, hasta hace muy poco, al alcance de sólo unos pocos).
El único pero que debemos poner a este tipo de soluciones es la dependencia, en cuanto a, sobre todo, las diferentes “filosofías” implementadas por las fabricantes. La escalabilidad de una solución, el tipo de configuración software y el hardware, están condicionadas a seguir un esquema rígido de arquitectura nativa (ésta quizá es la diferencia fundamental entre las soluciones exclusivamente basadas en SDS, menos dependientes, y las HCI). Este factor, no es negativo del todo, ya que impulsa a las marcas a reinventarse y desarrollar equipamiento que sea cada vez más eficiente, competitivo y de mayor rendimiento. Dicho equipamiento está compuesto de nodos (hipervisores) con configuraciones mínimas de dos o tres, en función del fabricante. Debemos tener en cuenta también el modo de licenciamiento (funcionalidades) de cada una de estas alternativas, por lo que, en algunos casos, la elección va en función no sólo del precio, sino de las prestaciones concretas y arquitectura que queramos conseguir. Por ejemplo: toda infraestructura HCI con un mínimo de dos nodos (existen topologías mínimas de tres nodos) tendrá una réplica de datos consolidada . Si añadimos un tercer nodo, y además tenemos la posibilidad de ubicarlo en un emplazamiento diferente al del resto de la infraestructura, añadiremos la funcionalidad de DR (Disaster Recovery) a la ecuación. Con lo que elevaremos el nivel de eficiencia y seguridad de nuestra solución. Otro ejemplo es la integración por parte de algunas soluciones del despliegue y gestión de escenarios con VDI (Escritorios Virtuales), ya que el rendimiento y la capacidad de ese tipo de sistemas es idóneo para realizar este tipo implantaciones.
Por todo esto dentro de diez años la respuesta a la pregunta “¿Es la Hiperconvergencia la mejor solución para evolucionar mi datacenter?” seguro que será diferente. Pero hoy por hoy la respuesta es clara: SÍ.