Actualizado el 17/12/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Opiniones
  4. >
  5. Big Data (3): ¿Son suficientes las tecnologías de almacenamiento actuales?

Big Data (3): ¿Son suficientes las tecnologías de almacenamiento actuales?

Escrito por Jordi Torres el 12/03/2013 a las 21:18:25
6033

(Catedrático de la UPC e investigador del BSC)

En los dos artículos previos hemos constatado que se acerca una marea de información que difícilmente la podremos almacenar y acceder de la misma manera que se ha venido haciendo hasta ahora: memoria RAM para la información que las aplicaciones necesitan a menudo y discos para el resto de los datos que las aplicaciones no están usando en ese instante.

 

El hecho de no tener toda la información en memoria se debe a que esta es cara, por lo que habitualmente hay relativamente poca en un servidor. En cambio, las unidades de disco duro (HDD) presentan una gran capacidad mucho más económica, del orden de cien veces más barata que la memoria RAM, pero de acceso mil veces más lento. Pero además de ser cara, la memoria también es volátil, lo que significa que, si un servidor cae o se queda sin electricidad, la información almacenada en la memoria se pierde.

 

La tendencia actual es empezar a utilizar como sistemas de almacenamiento tecnologías de memoria no volátil, como las usadas en dispositivos móviles, que se denominan discos de estado sólido (SSD). Un ejemplo son los chips de memoria flash, que, del mismo modo que los HDD, son no volátiles y mantienen la información cuando se quedan sin alimentación eléctrica. Los SSD parecen una opción con futuro si tenemos en cuenta que el precio de la memoria flash está bajando y que, además, al ser básicamente un chip de semiconductores, tiene un consumo energético muy inferior al de los discos HDD, que usan componentes mecánicos para leer los discos.

 

Como memorias que son, se está investigando como conectar estos dispositivos, ahora conectados como discos, al bus interno de los ordenadores (que conecta con el procesador directamente) permitiendo un acceso simple y rápido que reducirá mucho más todavía el tiempo de acceso al almacenamiento persistente. Es lo que se conoce como storage class memory (SCM), que consiste básicamente en diseñar un sistema de almacenamiento de capacidad y economía similar al de los HDD, pero con unas prestaciones de rendimiento equivalentes a las de la memoria RAM.

 

En definitiva, para dar respuesta a los retos del Big Data pronto veremos servidores que además de disponer de una gran capacidad de cálculo, dispondrán de un gran almacenamiento con todos los niveles comentados anteriormente: RAM, SCM, SSD, HDD, etc. Pero además, dado que las redes cada vez son más rápidas y ofrecen más ancho de banda, el acceso rápido a datos remotos permitirá disponer de un almacenamiento distribuido de enormes magnitudes compartido entre todos los servidores.

 

Ahora bien, la complejidad de gestión que representa este almacenamiento descrito es sin duda uno de los retos que se deben abordar y del que hablaremos en el próximo artículo.

 

Jordi Torres, experto en Big Data en la UPC Barcelona Tech y el Barcelona Supercomputing Center www.JordiTorres.eu