>> Estudio EIC >>  Management IT.

 

   

Virtualización de los servidores.
Todas las empresas que tengan su sector de informática y sistemas, deben replantearse los proyectos en función de dos parámetros futuros esenciales, incluso postergando lo proyectado para este año, excepto lo que denominamos mantenimiento IT.

Esos dos parámetros son, primero todo cambio, innovación o incorporación de tecnología hay que programarla pensando en lo que se utilizará hoy y por lo menos hasta el año 2008.  Y segundo, todo programa de mejoramiento debe incluir los cambios esperados en la tecnología IT , para luego del año 2010, que será revolucionario.  En parte, ese cambio revolucionario está relacionado con esta nota, pero las telecomunicaciones, todo el espectro wireless, y los nuevos sistemas operativos basados en la seguridad, junto a los cambios en el hardware, son otros de los complementos muy importantes a tener en cuenta.

Solo recapacite lo siguiente.  Entre armar el proyecto, realizarlo, y ponerlo en marcha, seguramente transcurrirá un año o poco menos, y ya estará situado a mediados del año 2007.  Si lo que cambia pasa a ser obsoleto en el 2008, seguramente no podrá recuperar lo invertido en solo un año. Y si lo implantado, lo obliga a diseñar todo desde cero, por no incorporar las posibilidad de dos años más(año 2010), simplemente sus cotos de inversiones serán muy altos y poco rentables.  Si desea leer un informe(en inglés) preparado por Cisco Systems, referido al crecimiento de la economía hasta el año 2020, haga clic.

La presente no está dirigida a los especialistas informáticos, sino a quienes deben entender y planificar las inversiones en tecnología informática(IT) de una empresa, de una MiPyME, y también a los usuarios avanzados del mercado SOHO.

La virtualización del área de servidores, como se la denomina, no ayuda a entender el concepto por sí solo, sin entrar en algunas explicaciones esenciales.  Es que virtual y digital son conceptos similares, aunque no iguales.  Hasta ahora, el área de servidores estaba formada por varios servidores, cada uno con un servicio primordial cargado en él, y si bien todo está en red, el funcionamiento está separado. La plataforma es la bien conocida x86.

Bien, desde el año pasado, ese concepto ya ha evolucionado, y se habla de un área de servidores, incluso una operativa y otra de storage(almacenamiento), todo en una sola área.  Estos conceptos ya los hemos incorporado a este magazine, desde el año 2005.  En sí, no son revolucionarios, pero para muchos, implicarán cambios estructurales muy importantes en sus servidores, y las nuevas posibilidades de más servicios, sí puede considerarse revolucionario o por lo menos, una nueva ola en la evolución digital.

Utilizar separados los servidores, obliga a que el porcentaje real de uso en cada uno de ello, sea necesariamente bajo, para poder afrontar los posibles picos de utilización.  Ahora, la mayor potencia de los servidores y la utilización de memoria RAM por encima de los 4 Gb, límite propio de la tecnología de 32 bits, permite que se pueda interrelacionar mejor las funcionalidades de cada servidor, y orientar las aplicaciones a su objeto (de uso), con lo cual los servidores quedarán unidos, como un solo conjunto o idea, y todas las funciones se pueden realizar en forma indistinta, unificada, y en mayor cantidad, sin necesidad de incorporar nuevas máquinas servidores.  De ahí que se hable de virtualización, pues la idea comenzó al pensarse en dividir un servidor virtualmente, no físicamente, según las funcionalidades que pueda brindar.

Ahora la tecnología de los procesadores es de 64 bits, y eso permite mayor cantidad de Gb de RAM, y a la vez, mayor cantidad de operaciones al unísono, todo lo cual aunado, permite pensar distinto y hacer procesos más complicados, más grandes, y también con distintas funcionalidades.  Ahora, es más sencillo compartir diferentes sectores de memoria, sin los problemas de la vieja tecnología de 32 bits, que obligaba a reservar sectores para las DLL, aunque no se utilizaran, para evitar caídas del sistema.

Esta es la idea base, lo que realmente ha cambiado, y que permite pensar distinto de ahora en más.  Lo importante es que con solo cambiar a la tecnología de 64 bits, no es necesario mayor cantidad de servidores, ni mayor espacio físico, evitando la consecuente inversión no solo de inmuebles, sino de refrigeración antiestática, nuevos cableados, conexiones al exterior con más ancho de banda, etc.   Evidentemente, se deberá invertir en tecnología de 64 bits.

Intel ha prometido un segundo paso, con la nueva tecnología Virtualization Technology for Directed I/O, llamada VT-d, que aparecerá el próximo año(2007). AMD también está en el mismo camino, desde el 2005, con su proyecto Xen, aunque su tecnología no es igual a la de Intel , ya que es open source. Ambas funcionan muy bien.

Por ejemplo, con VMware, se pueden “consolidar” entre 10 y 50 servidores en una misma caja (área), dependiendo del tipo de aplicaciones que se corran.  Como se ve, el cambio es revolucionario, es de gran envergadura, y se sentirán sus efectos sobre todo en los grandes centros de cómputos.  Será desde allí, donde veremos nuevas técnicas de acceso, nuevos servicios para Internet, nuevas posibilidades en telecomunicaciones, incluso las wireless, y nuevas formas interactivas de trabajar, con solo tener implementada la tecnología de 64 bits.  La competencia será dura e implacable.  VMware correrá tanto con Intel como con AMD, y permitirá que se asigne, por ejemplo, a una tarjeta de red, una máquina virtual en el servidor, o sea un sector del servidor, interpretándolo como una PC completa, a su disposición.  Un concepto similar al de la partición en un disco rígido, con las lógicas salvedades de las diferencias entre dispositivo y máquinas servidores.

Prepárese para vivir el cambio, que será de estructuras, y no solo de aplicaciones y/o programas.  Cambiarán los conceptos.  A todo esto, añada la idea del concepto NAS(Network Attachment Storage) para la red, y el de área SAN (Área de almacenamiento de servidores), separada de los servidores que soportan las utilidades.  No confunda NAS con SAN, ya que son tecnologías distintas, aunque ambas están relacionadas con el almacenamiento.  Hay ya sistemas que permiten hacerlo, tanto de Microsoft como de IBM, donde se separa virtualmente las cajas, una operativa y otra de storage, sin agregar nuevos servidores.  Un importante ahorro de inversiones, y de tiempo de proceso, con amplia seguridad.  Por ejemplo, así se puede hablar de backup en tiempo real mientras los servidores dan soporte a las utilidades IT, seguridad IT mucho mayor, al resguardarse información en áreas NAS, inaccesibles para el usuario de la red, booteo remoto, espejado de servidores con menor tiempo de respuesta, recuperación instantánea de servidores caídos, management no solo de redes sino del área servidores, para llegar con eficiencia al famoso 99,9% de disponibilidad.  Todo esto soporta la tecnología RAID , por supuesto, aunque en este foro de Intel no se presentaron detalles técnicos.  El concepto de equilibrio de carga será más dinámico, pero a la vez más simple y automático, con lo cual toda la red funcionará en forma más eficiencia, más rápido y con mayor seguridad.

Ahora bien, si piensa que estos cambios están referidos solo a grandes centros de cómputos, permítame decirle que se equivoca.  En el Intel Developer Forum pasado, se presentó toda esta nueva tecnología de virtualización de servidores, para aplicarse en una casa inteligente, o sea el mercado SOHO.  Y si se puede aplicar a una única casa, o incluso a un edificio inteligente, porque no podría aplicar a una PyME.  Solo es cuestión de capacitación y saber como se debe invertir correctamente.  En la presentación del Entry Sotorage SS4000-E se probó que puede soportar hasta cuatro discos SATA (Serial Advanced Techonology Attachment) que son rapidísimos, por experiencia propia.  También funcionó este sistema con Macintosh.  Por ahora, el SS 4000-E no es barato, ya que con capacidad para 250Mb cuesta entre 700 y 2000 dólares, pero todos sabemos que en dos años, esos precios pueden reducirse menos de su mitad.

Finalmente, para luego del año 2010, se espera a las nanoPC, con más del triple de capacidad que las actuales, y velocidades muy superiores a este triple valor.  Se aplicarán las técnicas de multimedia, y hablar a las nanoPC será algo normal.  Es más, tal vez no se llamen nanoPC.  Los celulares serán prácticamente una PC móvil.  La banda ancha superará los 10 GB como mínimo, habrá muchos millones más de personas conectadas, el e-goverment habrá evolucionando tanto como creció hasta ahora.  Habrá importantes avances en todo lo relacionado con el trabajo móvil y el comercio electrónico, que serán distintos a lo que hoy conocemos.   Mientras tanto, veremos como se desarrolla la tecnología IT.   La convergencia tecnológica que hoy tanto se cita, será un hecho consumado.  Eso sí, hay que estar preparado hoy, y seguir estándolo todo el tiempo que nos reste de vida, tanto para tomar decisiones empresariales correctas, como para poder utilizar estos nuevos avances.

Dr. Jorge E. SOSA GONZÁLEZ. Derecho de Autor s/ Reg. Prop. Intelectual Nº 171.055. Publicado en el EIC MAGAZINE 30/04/06.

Si tiene dudas puede consultarnos.