Tradicionalmente, las infraestructuras de red de datos han estado basadas en arquitecturas de tres capas: core, distribución y acceso, siendo esta última la que soporta las conexiones de los sistemas finales. Este tipo de arquitecturas desde un punto de vista únicamente de gestión son relativamente sencillas: el departamento de comunicaciones es quien se encarga del acceso a red (configuración, administración,etc), y el personal de sistemas administra todos los aspectos relativos al sistema final: usuarios, aplicaciones, recursos, etc.
A medida que los sistemas evolucionan, y actualmente con las distintas técnicas de virtualización en auge, esta administración se vuelve más compleja puesto que ya no tenemos un modelo de gestión delimitado; pensemos en un sistema blade con un switch empotrado en el propio chasis, un sistema VMWare usando su vswitch para permitir la conectividad de las máquinas virtuales, o el uso de una arquitectura distribuida usando vd; en cualquiera de los casos, ¿quién administra estos equipos de comunicaciones? Habitualmente, el administrador de red no suele llegar a este nivel, quedando en manos del administrador de sistemas (o de virtualización) la gestión del dispositivo, el cual es posible que no disponga de los mismos conocimientos de red que el personal dedicado.
Recientemente he asistido a un taller de Cisco sobre Unified Computing donde Cisco propone varias soluciones a este problema mediante la tecnología VN-LINK. Esta trata, salvando la distancia, de mapear un puerto de red a cada máquina virtual, de forma que el administrador de red gestiona todos los puertos de la red por igual, usando las mismas herramientas, pudiendo crear perfiles de red (port profile) que más tarde el administrador de virtualización podrá asignar a los sistemas finales. Con este propósito, también han creado la alianza VCE, formada por VMWare, Cisco y EMC (véase la noticia en idg.es).
Para solucionar este problema, Cisco dispone de varias soluciones basadas en el switch de la serie Nexus 1000V (conmutación virtual sobre el hypervisor o sobre la tarjeta física) o Hypervisor bypass, usado en sistemas críticos que requieren gran rendimiento. El sistema Cisco Nexus 1000V es un sistema de conmutación basado en Cisco NX-OS, formado por dos componentes, la supervisora, desde la cual se configuran y gestionan los parámetros de red de las máquinas virtuales, y el software instalado sobre VMWare que se encarga de la propia conmutacion. Este sistema sustituye al conmutador virtual proporcionado por VMWare, mejorando el modelo de gestión ya que podemos administrarlo con las mismas herramientas que el resto de switches de nuestra red, y mejorando la funcionalidad, puesto que disponemos de todas las opciones de configuración de los switches habituales, como pueden ser Private VLan, Port Security, DHCP Snooping, etc,
Para llevar a a cabo esta mejora, Cisco ha lanzado su estrategia UCS (Unified Computing System) agrupando mediante un único sistema, procesamiento, almacenamiento y virtualización. Los sistemas basados en UCS disponen de un sistema completo de servidores distribuidos y chasis (en formato blade o rack), que se interconectan y gestionan desde un único punto de red, permitiéndonos disponer de sistemas llamados Stateless Server, es decir, con posibilidad de separar el propio servidor (sistema operativo y configuración) del hierro sobre el que corre, de forma que podremos crear perfiles de servicio (Service Profile) con los datos de hardware (interfaces de red, interfaces HBA, parametros de BIOS, etc) y llevar el sistema a otro hardware distinto, manteniendo toda la configuración.
Como comentó Rafa en su post de la semana pasada, empresas como CISCO están realizando grandes avances tecnológicos, y aunque no sea tan futurista como la telepresencia en 3D, seguro que la tecnología UCS da mucho que hablar. Desconozco las soluciones similares de otros fabricantes, aunque me costa que Juniper e IBM trabajan en algo similar. ¿Algún lector tiene más información al respecto?