Nuevos sistemas para afrontar la avalancha de datos. Big DataEscrito por Jose Manuel Huidobro el 24/10/2017 a las 17:18:493778
(Ingeniero de Telecomunicación y Doctor en Derecho) En el pasado año 2016 una mayor cantidad de organizaciones comenzó a almacenar y procesar datos de todo tipo de formatos y tamaños, además de extraer valor de ellos, tendencia que ha continuado en 2017 con el crecimiento de los sistemas que admiten grandes volúmenes de datos, tanto estructurados como no estructurados y, para responder a este reto, el mercado exige plataformas que faciliten a los responsables de los datos las tareas de administración y seguridad de los mismos; además, éstas deberán permitir a los usuarios finales poder analizar dichos datos, por lo que estos sistemas madurarán para funcionar correctamente en el marco de los sistemas y estándares empresariales de TI.
Cada día existen más y más empresas que manejan una incalculable cantidad de información, casos en los que hablamos de Petabytes. Si a ello sumamos la gestión de datos proveniente de las redes sociales, que mundialmente son la nueva forma de comunicación, como Facebook (que ya cuenta con más de 1.000 millones de usuarios registrados y es la red social más popular), Twitter, Instagram y LinkedIn, surge el concepto de Big Data. Junto con el gigantesco volumen de datos, las organizaciones enfrentan el problema de que la información está repartida por toda la estructura y en lugares físicos distantes. Si con eso no bastara, los datos provienen de diversas fuentes, muchas de ellas desestructuradas.
.Pero ¿qué es Big Data? Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.
Sin embargo, el tamaño no es el único problema al que nos enfrentamos si buscamos una solución: además de almacenarla, es necesario capturar, consultar, gestionar y analizar toda esta información. Big Data (análisis de datos masivos), entonces, alude a un conjunto de datos cuyo tamaño está más allá de la capacidad de la mayoría de las aplicaciones utilizadas para capturar, gestionar y procesar la información dentro de un tiempo tolerable. Es en este escenario en el que surge la necesidad, por parte de las organizaciones, de contar con nuevas herramientas y procesos de gestión que les permitan aprovechar todo su potencial.:
Teniendo herramientas a las que recurrir, es vital que las entidades que manejan una gran cantidad de datos pongan en práctica todas las acciones disponibles para gobernar su Big Data, y de este modo obtener un beneficio para su negocio. Ya existen grandes y pequeños fabricantes de software que se han percatado de ello y la gran mayoría cuenta con alguna solución que de cobertura a esta gestión, tanto a la hora de capturar los datos como a la de almacenarlos, organizarlos y, sobre todo, analizarlos. Este último apartado, el del análisis, tal vez sea el más complejo de llevar a cabo puesto que es necesario generar algoritmos que sean capaces de relacionar datos no estructurados de lo más variopinto. Pero esto es sólo una parte, la otra dificultad reside en como transportar todos estos ingentes volúmenes de información de uno a otro punto, y para ello las redes de telecomunicaciones, tanto fijas como móviles deben estar preparadas, siendo más potentes, rápidas y con capacidad suficiente, lo que requiere de fuerte inversiones por parte de los operadores para poder mover todos estos datos de un lugar a otro eficientemente.
José Manuel Huidobro Ingeniero de Telecomunicación Noticias Relacionadas:Big Data en Barcelona Business Intelligence y Big Data revolucionarán el marketing digital |