Soluciones TIC eficientes para las Smarts CitiesEscrito por David Suárez el 08/10/2013 a las 11:26:123366
(Director Tecnología y Operaciones) Resumen de la ponencia ‘SOLUCIONES TIC EFICIENTES PARA LA SMART CITY’ durante el BDigital Global Congress 2013, realizado por David Suárez – Director de Tecnología y Operaciones en Nexica. Principales retos tecnológicos del Big Data
Las Smart Cities son aquellas ciudades que fomentan un desarrollo económico sostenible y una mejor calidad de vida para sus ciudadanos, y lo hacen a través de infraestructuras tecnológicas innovadoras, una gestión eficiente de los recursos y un gobierno participativo. En su proceso de constitución y consolidación están proliferando en ellas servicios cada vez más importantes. Uno de los principales retos de estos servicios y aplicaciones es precisamente la complejidad que representa la magnitud de los datos a gestionar. En este marco las plataformas cloud, más eficientes en costes, pueden facilitar el almacenamiento y procesamiento de datos, eliminando las barreras de entrada que puedan tener las empresas e instituciones a la hora de afrontar nuevos proyectos de Big Data. Alternativas de servicio a través de diferentes propuestas de valor
El peso específico de los costes de las infraestructuras puede ser muy importante cuando hablamos del tratamiento de grandes volúmenes de datos. Una buena aplicación puede optimizar mucho la solución final, pero su uso intensivo puede implicar un gran consumo de memoria, CPU o disco, disparando los costes de tratamiento de información. Por ello es necesario un desarrollo meticuloso considerando incluso el crecimiento futuro del servicio. El Cloud Computing puede ayudar a todo ello mediante la aportación de infraestructuras flexibles y eficientes que garanticen la ubicuidad, escalabilidad y disponibilidad de los datos, proporcionando tanto una ágil respuesta al usuario como un servicio de costes controlados. Para ver esto en detalle, consideremos una aplicación de Big Data como la suma agregada de servicios desarrollados sobre diferentes niveles solapados, presentando cada una de ellos una complejidad y eficiencia diferente. Así, partiendo de los datos ‘en bruto’ el acercamiento hacia la solución final puede considerar las siguientes capas: · IaaS- Infraestructura TIC: o Cloud Público, Privado o Híbrido o Capacidad de computación, Almacenamiento o Seguridad o Disponibilidad o El coste está indexado al uso de la infraestructura En este ámbito es donde existe mayor competencia y menor diferenciación entre ‘players’, con muchos actores nacionales e internacionales y cada vez con servicios más completos. Esta capa aporta recursos de infraestructura como valor. · PaaS – Middleware o Coste indexado al uso de la plataforma. o Es necesario adaptarse a la codificación. Aporta entornos para el desarrollo, además de los beneficios propios de IaaS. · SaaS – Aplicaciones o Coste indexado al uso de la aplicación. o Es necesario adaptarse a la aplicación. Permite acceder mediante licencias y módulos, además de los beneficios de PaaS · Outsourcing – Análisis y Conclusiones o El coste está indexado al valor de la información. Puede considerarse la solución más completa pues permite beneficiares del valor que aportan todas las capas anteriores. Cada una de las capas mencionadas añade valor a la solución, si bien incorporando también su correspondiente nivel de sobrecoste. Por tanto, plantear una aplicación capaz de aprovechar adecuadamente los beneficios aportados por las capas inferiores, permite disponer de una solución altamente eficiente. Así, en el ámbito del IaaS, la aplicación debe tener en cuenta los siguientes aspectos: · Elasticidad como fuente de ahorro · Capacidad de auto-escalado · Calidad del Servicio Elasticidad como fuente de ahorro en Big Data
La Elasticidad es la capacidad de un sistema de deformarse (expandirse, por ejemplo creando nuevos servidores) cuando se encuentra sometido a estrés y volver a su forma original cuando el estrés desaparece (desactivar los servidores sobrantes). Permite consumir servicios en base a su uso. Existen actualmente gran cantidad de aplicaciones destinadas a proporcionar respuestas al Big Data. Una vez tenemos la aplicación funcionando correctamente y diseñada para que consuma los mínimos recursos, es necesario disponer de infraestructuras elásticas que puedan crecer y decrecer en función de la demanda, pagando así solo por los recursos disponibles. Por ejemplo es evidente que una aplicación que gestione el tráfico no procesará el mismo volumen de información un domingo a las 3 de la madrugada que un lunes a las 8:30. Si disponemos de una infraestructura propia estática y esta está diseñada para dar una respuesta rápida en los momentos de alta demanda (lunes 8:30) tendremos una plataforma sobredimensionada en las horas valle (domingo 03:00) y estaremos pagando por recursos que no utilizamos. Por el contrario, mediante el outsourcing de infraestructuras podríamos disponer de plataformas cloud elásticas que podrían crecer i decrecer su tamaño de forma automática y en tiempo real en función de la demanda, pagando únicamente por los recursos consumidos. Otra forma de ahorro aportada por el cloud podría ser la gestión de datos en periodos de baja demanda. Los proveedores de infraestructuras cloud tienen horas valle en los que su infraestructuras están más ‘ociosas’. Estos recursos pueden ser contratados a precios más competitivos para procesos programables intensivos pero que no requieran una respuesta en tiempo real (por ejemplo análisis histórico de datos). Capacidad de auto-escalado
No es suficiente que las infraestructuras para la gestión de Big Data sean elásticas sino que también deben poder responder de forma autónoma a partir de patrones previamente definidos que permitan su auto-reconfiguración. En la definición de patrones tendremos que considerar los siguientes factores: • Predictibilidad: Estimación del tiempo de proceso y priorización • Control de Coste: Imputación y proyección del coste incurrido. Limitación del coste. • Planificación: Consumo en distintas franjas temporales (dia, hora) asociadas a diferentes tarifas de computación Si no tenemos presentes todos estos conceptos, cuando el volumen de datos aumente, los costes pueden dispararse dramáticamente. Sobre este aspecto algunos proveedores de infraestructuras en modo cloud pueden proporcionar herramientas que permitan conocer qué recursos están activos en cada momento, para así poder predecir su comportamiento, y anticiparse en el aprovisionamiento, o programar su uso en otros horarios más económicos. Todo ello con la finalidad de crecer organizadamente y con control de los costes. Los parámetros tradicionales que definen el auto-escalado pueden ser el tiempo de respuesta de la aplicación, el consumo de CPU, o inclusive indicadores diseñados a medida y que, como resultado final, aporten una mejor experiencia al usuario. En un entorno Big Data las infraestructuras siempre van al límite en cuanto al uso de los recursos, por lo tanto hay que considerar otros patrones que generen el auto-escalado tales como cuantos datos tengo en cada momento, cuantos quiero procesar simultáneamente, y cuando quiero que se realice el cálculo. Calidad de Servicio (QoS)
En el cloud público los clientes comparten una misma infraestructura, la cual actúa como distintas plataformas virtuales. El cliente se beneficia así de un aprovisionamiento rápido y del pago por uso. Para asegurar la calidad, los clientes de Big Data necesitan saber cuántos procesadores virtuales se están asignando para cada procesador físico, con el fin de evitar que otros clientes del proveedor puedan interferir en sus procesos de cálculo. El problema es que esta información no suele ser pública. Por el contrario mediante un cloud privado dispondremos de recursos reservados en exclusiva, garantizando la disponibilidad de los recursos, pero no dispondremos de las ventajas en precio y pago por uso del cloud público. Por eso es importante disponer de un proveedor de confianza que no sólo pueda proporcionar plataformas híbridas que combinen las ventajas de las nubes públicas y privadas (por ejemplo proporcionar una nube privada con capacidad de desbordamiento en una nube pública), sino que sea transparente en cuanto a la información de sobresuscripción aplicada. Por esto a la hora de seleccionar un proveedor hay que considerar cuál es su grado de flexibilidad, su capacidad de adaptación a las políticas de seguridad, qué mecanismos técnicos que aporta (mejor si puede adaptarse a los del cliente), cuáles son sus políticas de sobresuscripción i como puede ajustarlas (cuantas IOPs consume mi disco i a que latencias me proporciona), con quien se están compartiendo los recursos y cómo evolucionará el proyecto en el tiempo (garantías, SLA, etc). Conclusiones
Por su gran volumen de información los proyectos en Big Data necesitan analizar cuidadosamente las infraestructuras que las sostienen con el fin de evitar sobrecostes. El alojamiento de aplicaciones Big Data en plataformas cloud es una buena solución que permite ahorrar costes, y que proporciona: • Elasticidad: La dimensión de la plataforma se adapta a las necesidades de cada momento. Aporta distintos niveles de servicio y pago por uso. • Auto-escalado: Automatismo con control de costes variables y sistema de priorización de preferencias. Imputación y reporting de costes con límites personalizables • Calidad de Servicio: Rendimiento predecible e indicadores internos de plataforma (valor / €). Tecnologías líderes y compatibles para garantizar la integración y la seguridad Es necesario disponer de un proveedor de confianza que nos ayude a definir nuestras necesidades presentes y futuras y sea transparente en cuanto a sus políticas de sobresuscripción. Ponencia en video: http://streaming.bdigitalglobalcongress.com/13-06-2013_03.html
|