miércoles, 27 de enero de 2016

BIG DATA se nos muere

La velocidad del cambio es directamente proporcional a la incertidumbre, a la necesidad de ser disruptivo, a la potencia tecnológica que se abre cada segundo que pestañeamos.

BIG DATA apareció como solución a la ingente cantidad de información que comenzábamos a generar las personas, organismos y empresas. De manera exponencial crecía tanto la creación propia de datos como la importación desde cualquier origen, como un tsunami arrasó los centros de datos. Al igual que las ballenas consumen toneladas de “krill” cada día, las organizaciones consumen “teras” de almacenamiento viéndose obligadas a ampliar de forma drástica la capacidad, y con ello la velocidad de tratamiento… el tsunami arrastra todo lo conocido dejando un panorama jamás visionado. La NUBE se convirtió en la solución “terminológica” ya que se trataba de lo mismo pero con gran velocidad de proceso compartiendo miles de máquinas (que no es poco)

A todo este “montaje” se adhirió un concepto, una solución, que llevaba muchos años siendo crítico en las organizaciones, pero que no contaba con un soporte enriquecedor, ANALYTICS. Las soluciones de análisis de alto nivel se topaban con un obstáculo sistémico que impedía crecer en servicio de calidad y cantidad. Con la llegada del almacenamiento masivo y semiestructurado los modelos de análisis se han despejado y se han convertido en islas independientes de dónde se encuentren los datos. Se puede decir que han encontrado su salida natural como cualquier jovencito que decide independizarse y experimentar la vida con las interactuaciones y relaciones que decida.

En mi último post “BIG DATA... ANALYTICS... ¿y eso es todo?” abordaba la necesidad de un tercer elemento que otorgase equilibrio de almacenamiento, fiabilidad de análisis y calidad del dato… SMART DATA. Con esta pieza intermedia se consigue dotar de inteligencia al dato, consolidando y tipificando correctamente, según las expectativas y objetivos del negocio.