La
velocidad del cambio es directamente proporcional a la incertidumbre, a la
necesidad de ser disruptivo, a la potencia tecnológica que se abre cada segundo
que pestañeamos.
BIG DATA apareció como solución a la ingente cantidad
de información que comenzábamos a generar las personas, organismos y empresas. De
manera exponencial crecía tanto la creación propia de datos como la importación
desde cualquier origen, como un tsunami arrasó los centros de datos. Al igual
que las ballenas consumen toneladas de “krill” cada día, las organizaciones
consumen “teras” de almacenamiento viéndose obligadas a ampliar de forma
drástica la capacidad, y con ello la velocidad de tratamiento… el tsunami
arrastra todo lo conocido dejando un panorama jamás visionado. La NUBE se convirtió en la solución “terminológica” ya que se
trataba de lo mismo pero con gran velocidad de proceso compartiendo miles de
máquinas (que no es poco)
A
todo este “montaje” se adhirió un concepto, una solución, que llevaba muchos
años siendo crítico en las organizaciones, pero que no contaba con un soporte
enriquecedor, ANALYTICS. Las soluciones
de análisis de alto nivel se topaban con un obstáculo sistémico que impedía
crecer en servicio de calidad y cantidad. Con la llegada del almacenamiento
masivo y semiestructurado los modelos de análisis se han despejado y se han convertido
en islas independientes de dónde se encuentren los datos. Se puede decir que han
encontrado su salida natural como cualquier jovencito que decide independizarse
y experimentar la vida con las interactuaciones y relaciones que decida.
En
mi último post “BIG DATA... ANALYTICS... ¿y eso es todo?” abordaba la necesidad de un tercer elemento
que otorgase equilibrio de almacenamiento, fiabilidad de análisis y calidad del
dato… SMART DATA. Con esta
pieza intermedia se consigue dotar de inteligencia al dato, consolidando y tipificando
correctamente, según las expectativas y objetivos del negocio.