jueves, 27 de septiembre de 2012

What is new in the “Folsom” version of OpenStack?

The “Folsom” version of OpenStack is going to be delivered today. It’s the community’s sixth release. Openstack was initially launched in July of 2010 by Rackspace Hosting and NASA and to date has attracted more than 150 backers including Red Hat and SUSE, IBM, Dell, HP and even VMware.

The previous version (“Essex”) of OpenStack was released in April of 2012 with “Nova” Compute, “Horizon” Dashboard, “Glance” imaging, “Swift” Object Store and “Keystone” Identity services.

Maybe, the most anticipated new feature of the next OpenStack release are the new network services known as “Quantum,” which controls network virtualization, and "Cinder", formerly known as nova-volume and now developed independently of Nova (Compute) itself, which becomes a volume service and provides persistent block storage (volumes) to guest VMs, opening support for traditional SAN and NAS besides of the usual players (EMC, NetApp, and Nexenta).

So the picture is the following:
High level OpenStack Architecture in Folsom version 
In words, currently there are seven core components of OpenStack: Compute, Network, Object Storage, Block Storage, Dashboard, Identity, and Image Service, and here is a reminder of them:
  • Compute (codenamed “Nova”) provides virtual servers upon demand. Big companies as Rackspace and HP provide commercial compute services built on Nova, but also other as Tissat. Besides, it is used internally at companies like Mercado Libre and NASA (where it originated).
  • Network (codenamed “Quantum”) provides “network connectivity as a service” between interface devices managed by other OpenStack services (most likely Nova). The service works by allowing users to create their own networks and then attach interfaces to them. Quantum has a pluggable architecture to support many popular networking vendors and technologies. Quantum is new in the Folsom release.
  • Object Store (codenamed “Swift”) allows you to store or retrieve files (but not mount directories like a fileserver). Several companies provide commercial storage services based on Swift. These include KT, Rackspace (from which Swift originated) Internap and Tissat. Swift is also used internally at many large companies to store their data.
  • Block Storage (codenamed “Cinder”) provides persistent block storage to guest VMs. This project was born from code originally in Nova (the nova-volume service described below). Please note that this is block storage (or volumes) not filesystems like NFS or CIFS share. Cinder is new for the Folsom release.
  • Dashboard (codenamed “Horizon”) provides a modular web-based user interface for all the OpenStack services. With this web GUI, you can perform most operations on your cloud like launching an instance, assigning IP addresses and setting access controls.
  • Image (codenamed “Glance”) provides a catalog and repository for virtual disk images. These disk images are mostly commonly used in OpenStack Compute. While this service is technically optional, any cloud of size will require it.
  • Identity (codenamed “Keystone”) provides authentication and authorization for all the OpenStack services. It also provides a service catalog of services within a particular OpenStack cloud.
Coming back the real new component (since Cinder was previously part of Nova, tough this doesn’t mean that it wasn’t a great improvement), Quantum provides support for SDN, Sofware Defined networking: it has got a feature-rich and extensible API for programmatically defining networks. This allows for far richer network topologies to be defined, and more advanced configurations at the backend or implementing QoS and security functions. Quantum gives users of OpenStack the ability to control all aspects of their cloud compute environment, without compromising the underlying infrastructure and security of the underlying OpenStack environment; in summary, Quantum brings true multi-tenancy without any restrictions of VLANs.

Of course other important new features has been added in the already existing components (for example, the coming back of support for Microsoft’s hypervisor, Hyper-V, removed in Essex version).

jueves, 20 de septiembre de 2012

Gestión de Riesgos Energéticos en un Data Center

 

Las soluciones de Cloud Computing (Iaas, Paas, y SaaS) mejoran la eficiencia y elasticidad de la operaciones de las TIC, al permitir un mejor aprovechamiento de las plataformas TIC con el subsiguiente ahorro energético, al tiempo que permiten ofrecer servicios más aquilatados en costes y con modelo de facturación de pago por uso.
Sin embargo, las infraestructuras Cloud hacen uso extensivo e intensivo de la virtualización, y los D.C. tienden a ser entornos muy dinámicos en las cuales las cargas de trabajo virtualizadas migran libremente entre servidores físicos, al tiempo que se produce la aparición de nuevas cargas y la desaparición de otras hasta ese momento operativas.
Esta deseada agilidad de las TIC si no es gestionada adecuadamente puede traer, por el contrario, efectos no deseados e incluso contradictorios con sus teóricas ventajas: aprovechamiento energético no-óptimo (e incluso derroche energético), pérdidas de servicio, etc., es decir, por citar un par de ejemplos extremos:
  • nos podemos encontrar con servidores físicos dando servicio a una sola máquina virtual cada uno,
  • o por citar el otro extremo máquinas sobre-cargadas, de pobre rendimiento y que pueden provocar un exceso de consumo que, junto con otras en el mismo rack, superen las capacidades energéticas, eléctricas y/o de disipación de calor del mismo y conduzcan a costes de servicio por problemas eléctricos o caloríficos.
Por otra parte, en segundo lugar, los DC suelen ser diseñados con márgenes de seguridad y de capacidad de crecimiento que provoca que exista energía desaprovechada y malgastada. Por tanto es importante disponer de herramientas o métodos que permitan identificarla y reducirla: suprimir la “energía desaprovechada” en el D.C. (por error en los cálculos o por un desajuste evolutivo), reducir el valor de la “energía ociosa” (la disponible para absorber la fluctuación de la cargas dinámicas del D.C.), ajustar mejor la “energía de reserva”, aquilatando el “margen de seguridad, etc.
Pero, lógicamente, la reducción de la energía de “reserva” y de la de “seguridad” incrementa el riesgo de desaprovisionamiento en determinadas circunstancias imprevistas.
Por otra parte, en tercer lugar, para mejorar la Eficiencia Energética de un Data Center (es decir aumentar el DCiE o disminuir el PUE), se debe:
  • disminuir el consumo energético de cualquier origen (eléctrico, gas, gasoil, etc.) de todas las instalaciones o equipos que dan servicio al DataCenter pero que no están en la categoría de TIC (climatizadores, ventiladores, etc.)
  • disminuir las ineficiencias y pérdidas que se producen en los mismos (SAIs, grupos electrógenos de backup, etc.)
  • y reducir las pérdidas en la distribución de la energía (PDUs, cuadros eléctricos, cableado, etc.)
Pero, algunas de las medidas para la reducción de la energía no aprovechada en las TIC implican riesgos que se deben gestionar adecuadamente:
  • puede hacer peligrar la continuidad del servicio del DataCenter (p.e. la minoración de la capacidad total de los SAIs, o la reducción de las máquinas de A/C de reserva, etc.)
  • o pueden reducir la vida media de los equipos (p.e. al elevar la temperatura media del DataCenter para reducir la refrigeración)
  • o pueden hacer peligrar la buena gestión del DataCenter al eliminar elementos como PDUS, etc.
  • etc.
 
La resolución de estos 3 problemas enumerados (solo una muestra del conjunto de la problemática), se puede conseguir mediante la correcta implementación de un completo “proceso de gestión de la capacidad” (tal como lo define la norma ISO 20.000 o las mejores prácticas ITIL) que permita optimizar el uso de los recursos energéticos existentes en un DC, sin poner en peligro ni la disponibilidad del servicio ni los niveles de servicio comprometidos (SLA). Es decir gestionar la capacidad energética controlando el riego derivado.
 
Para ello proponemos la implantación de un sistema DCIM (Data Centre Infrastructures Management) mediante el desarrollo procesos (bien automáticos, bien manuales donde no sea posible otra opción) que permitan integrar las Instalaciones (equipamiento no-TIC) con el equipamiento TIC y orquestar las operaciones de ambos, de forma que las Instalaciones se aquilaten en todo momento a la demanda de las TIC (sin exceso innecesario que suponga derroche energético, ni defecto que ponga en juego la disponibilidad de las TIC) y con el dinamismo que precisa un DC moderno.
DCIM como Agregador de Inteligencia Operativa
 
Estos procedimientos seguirán en la parte TIC el modelo de proceso de la norma ISO-20.000 y en la parte de Instalaciones la PAS-55, incorporando procesos que armonizcen la operacion de las Instalaciones con la operacion de las TIC.
Procesos de soporte a DCIM
Procesos de soporte a DCIM
 
Nota: Esto es un resumen de la ponencia de Tissat en el Concreso CSTIC 2012 que, con el lema “Dominando los riesgos se compite mejor”, ha sido organizado por la AEC (Asociación Española para la Calidad) y se ha celebrado en Madrid el pasado 18 de septiembre de 2012.

miércoles, 5 de septiembre de 2012

¿Tienen futuro los servicios Cloud europeos?, ¿y los españoles?

 

Nota Previa: Este artículo es una copia del prefacio que he escrito para el informe-libro “Análisis de la oferta y la demanda de los servicios Cloud Computing”, editado por el Instituto Tecnológico AIMME con ISBN/EAN13:1478313854 / 9781478313854.
 
“Una invasión de ejércitos puede ser resistida, no así una idea cuyo momento ha llegado”
o
¿Tienen futuro los servicios Cloud europeos?, ¿y los españoles?
 
El surgimiento del “Cloud Computing” implica la redefinición de la forma de trabajar (en el más amplio concepto de la palabra) con las TIC, tanto para los Proveedores de Servicios, como para los Usuarios de los mismos (ya sean ciudadanos, ya sean autónomos o profesionales, ya sean los empleados de una empresa, organismo o entidad de cualquier tipo, ya sean los departamentos TIC de esas empresas o entidades).
 
En sus inicios había mucha gente, y hoy en día aún quedan algunos (especialmente entre las empresa de sector TIC que no han sabido “hacer sus deberes” y no está aún metidos en el mercado), que decía que el “Cloud Computing” era una palabra de moda (buzzworld) y no hay duda que eso ha sucedido en muchas ocasiones con conceptos detrás de los cuales no había nada (nuevo) y que cada vez sale un concepto hay gente que los aprovecha y lo lleva a límites muy forzados (como XaaS o “Lo-que-sea as a Service”).
 
Sin embargo, el Cloud Computing aprovechando y combinando los avances de muchas otras tecnologías (en muchos casos subyacentes dentro del modelo, como la virtualización) responde por primera vez a las expectativas de los ciudadanos y de las empresas de usar las TIC como una “Utility” (es decir, como las empresa de servicios eléctricos, gas, agua, etc.). Y es que, como dijo Victor Hugo, “una invasión de ejércitos puede ser resistida, no así una idea cuyo momento ha llegado.”
 
Por ello todos los especialistas coinciden en que si bien el concepto de Cloud Computing aún va a sufrir transformaciones y evolucionar, sin embargo “no es una moda pasajera, sino que ha llegado para quedarse”. Esa evolución vendrá tanto de la propia innovación de la industria creando nuevas aplicaciones y servicios para el usuario final, como de los retos y desafíos, u obstáculos y barreras, según se mire, que el Cloud Computing aún tiene que afrontar y resolver: desde la seguridad hasta un cambio cultural, organizacional o de procesos, pasando por la ausencia de estándares, los problemas de interoperabilidad, de portabilidad, de “confianza”, de prestaciones, de SLAs, de regulaciones y legislación, etc.
 
La solución a estos desafíos no está en un producto, ni en una técnica, ni en un método, ni en un proceso concreto, sino en una “normalización” de todas las actividades necesarias para garantizar la seguridad, y resolver el resto de retos pendientes. Una encuesta reciente de ENISA (la agencia de seguridad cibernética de la UE) sobre los Acuerdos de Nivel de Servicio (ANS) mostró que muchos funcionarios en las organizaciones del sector público apenas reciben observaciones sobre los factores importantes de seguridad, como la disponibilidad del servicio, o las debilidades del software. Con el fin de ayudar a solventar este problema, ENISA ha lanzado este mismo año 2012 (en abril) una guía práctica dirigida a los equipos informáticos de adquisición de servicios TIC, centrándose en la vigilancia continua de la seguridad en todo el ciclo de vida de un contrato en la “Nube”: se trata de la EU Procure Secure: A guide to monitoring of security service levels in cloud contracts”. La publicación de esta guía se produce unos poco meses más tarde de que febrero la Administración Norteamericana publicara la “Federal Risk Assessment Program” (FedRAMP), cuyo objetivo es evaluar y asegurar el riego mediante la normalización de más de 150 “controles de seguridad” y con los que se establecen los requisitos de seguridad comunes para la implementación de Clouds en determinados tipos de sistemas. De esta forma los proveedores que quieran vender sus servicios a la Administración Federal Norteamericana deberán adherirse al programa y demostrar que cumple con dichos controles.
 
Además de los muchos puntos comunes, la primera diferencia entre ambos es que mientras que la europea es una “guía”, la americana incluye, además, un programa de certificación para las empresas que quiera contratar con su Administración Federal, regulación que no ha sido vista (por los proveedores) como un obstáculo, sino como un incentivo para el negocio. Sin embargo, en mi opinión, la principal diferencia es que la FedRAMP americana es la consecuencia y el paso lógico tras un hecho diferenciador (punto de ruptura) que es la publicación a finales del 2010 de la ”Cloud First Policy” con la que la Administración Obama (a través de la Office of Management and Budget, OMB) decidió impulsar el uso del Cloud Computing entre todos los organismos federales para poder reducir el coste de los servicios exigiendo a las Agencias Federales de EE.UU. el uso de soluciones Cloud cuando las mismas existan y sean seguras, fiables y más baratas.
 
En una muy reciente revista (junio del 2012), la Comisionada Europea para la Agenda Digital (Ms. Neelie Kroes) declaró que Europa no está defendiendo una Nube Europea, sino lo que Europa puede aportar a la Nube, y aclaró que es un concepto que no contempla fronteras, por lo que la legislación deberá recoger estos aspectos, sin abandonar los derechos de protección de los datos personales que asisten a los ciudadanos europeos. Estas declaraciones suceden a una también reciente publicación de un informe de Gartner (una de las más prestigiosas empresas consultoras del sector) que afirma que Europa esta 2 años por detrás de USA en temas de Cloud. Pese a reconocer que el interés por la Cloud en Europa es muy grande, y que las oportunidades que el Cloud Computing ofrece son válidas para todo el mundo, sin embargo, según Gartner, los riesgos y costes del Cloud, principalmente seguridad, transparencia e integración (lo cuales son aplicables a todo el mundo), adquieren una idiosincrasia y relevancia especial en Europa que actúan como frenos (o, al menos, “ralentizadores”) de la adopción del Cloud en Europa:
  • En primer lugar, las diversas (incluso aún cambiantes) regulaciones de los países europeos obre la privacidad inhiben el movimiento de los datos personales en la Nube. Este aspecto que, según algunos puede facilitar el predominio de algunas empresas que basan su negocio en la geolocalización de la Nube dentro de las fronteras de un país (o zona) sin embargo está produciendo el efecto de que muchas otras compañías eviten a los Proveedores de Servicios Cloud Europeos (CSP, o Cloud Services Providers) por miedo a conflictos con la legislación europea frente a la americana.
  • En segundo lugar la complejidad de la integración de los procesos de negocio (B2B) en Europa, si bien ha favorecido a algunos Proveedores Europeos, una vez más esa misma complejidad hace que resulte difícil que se alcance una masa crítica y por lo tano se ralentice la aparición de empresas que ofrezcan Servicios Cloud a lo largo de toda Europa.
  • En tercer lugar, la lentitud de las prácticas políticas y de los procesos legislativos paneuropeos, así como la propia variedad legislativa entre los distintos países obstaculizan el negocio de los CSP.
  • Por último, a estos 3 factores anteriores, se une el efecto que sobre las inversiones produce la crisis de débito existente en la eurozona.
Frente a estos retos, en mi opinión, de momento, solo tenemos buenas intenciones que se plasman en grandes palabras y pocos hechos (solo unos buenos pero tímidos pasos y, a mi juicio, insuficientes) de la Comisión Europea.
 
Además, en Europa la influencia del sector público es mucho más importante que en USA (donde el sector privado es, en sí mismo, mucho más dinámico y ágil). Por ello tanto la Administración de la Comisión Europea como las distintas Administraciones de los Países miembros tienen un papel importante, primordial, en el fomento del Cloud Computing en Europa tanto como usuarios y consumidores de servicio Cloud, como facilitando el desarrollo del negocio en torno al Cloud Computing. Y es por ello que creo que en Europa hace falta definir una “Política Cloud” que propicie claramente el uso del Cloud en todas las Administraciones Públicas Europeas, tanto de la Comisión como de los Países Miembros (al estilo de la “First Cloud Policy” de EE.UU.), de forma que se fomente el mercado Cloud tanto para los proveedores de servicios (CSP) como las empresas consumidores de dichos servicios, así como las inversiones en Investigación y Desarrollo en esta área. La Comisionada Europea, Ms. Kroes, afirmaba que Europa está llena de gente con talento para conseguirlo, pero sin duda se necesita que haya un mercado que lo demande y una regulación-legislación que lo permita, si no de nuevo “perderemos el tren”.
 
En lo que a nuestro país concierne, el “Informe de Recomendaciones para la Agenda Digital en España” (presentado hace escasos días, el 18 de junio, y elaborado por un Grupo de Expertos a quien el Gobierno encomendó su elaboración) reconoce que “España se enfrenta a una crisis de su economía marcada por la particular configuración de los riesgos endémicos –burbuja inmobiliaria, crisis financiera, etc.-, la existencia de deficiencias estructurales y los desequilibrios respecto a otras economías centrales de la zona euro, elementos que están amplificando los efectos negativos de la adversa coyuntura internacional”. También afirma que “la adopción inteligente de tecnologías digitales permitirá impulsar el crecimiento, la innovación y la productividad, contribuyendo a evitar que se trunque la trayectoria de transformación y modernización que ha experimentado la economía española en las últimas décadas.” Y entre los principales factores de cambio destaca en primer lugar “la transición al cloud computing como mecanismo de entrega eficiente de servicios”, sin olvidar otros tan importantes como “la generalización de la movilidad, el aumento en la disponibilidad de banda ancha ultrarrápida, el desarrollo de la Internet de las Cosas, y el amplio uso de dispositivos que, como smartphones y tablets.
 
Sin embargo, mientras en el Reino Unido el Gobierno ha creado hace unos meses el ”UK CloudStore” (un sistema diseñado para facilitar, simplificar y abaratar el proceso de selección y provisión de servicios Cloud para los sector público), en España llevamos más de 10 años sin renovar el “Catálogo de Patrimonio” para la provisión de servicios de DataCenter, entre los que esperamos, cuando se saque el Concurso correspondiente, estén integrados los Servicios de Cloud Computing (al menos los de tipo IaaS, es decir “Infrastructures as a Service”); y deseemos además que su resolución no conlleve un proceso de más de 2 años (por los recursos planteados) como ha sucedido con el Concurso para “Desarrollo de Sistemas de Información”.
 
Por último mi mayor deseo es que mis palabras sean tan efímeras, o más que los datos estadísticos que se recogen y analizan en este informe, necesarios pues reflejan la situación y conocimiento del Cloud Computing en las PYMEs y apuntan sobre qué aspectos trabajar para mejorar la situación, pero que todos deseamos que pierdan su vigencia cuanto antes, pues ese hecho significará una gran señal de progreso para el mercado TIC español en particular, y para la evolución de la economía española en general.
 
Nota Final: Para reflejar mejor la situación en España debo aclarar que, tras la publicación del mencionado informe/libro del que he copiado este artículo, ha sido convocado (y aún está en proceso de licitación) el Concurso para entrar en Catálogo de Patrimonio del Estado para “Servicios de alojamiento de sistemas de información” que respecto a los Servicios Cloud establece, cito textualmente, que: “Los licitadores podrán indicar en su oferta si están en condiciones de realizar servicios de alojamiento basados en cloud computing en el caso de ser adjudicatarios. Dichas condiciones se trasladarían a los contratos basados en el acuerdo marco que contemplen esa posibilidad. La inclusión de ese tipo de soluciones no es obligatoria para licitar.”