La
velocidad del cambio es directamente proporcional a la incertidumbre, a la
necesidad de ser disruptivo, a la potencia tecnológica que se abre cada segundo
que pestañeamos.
BIG DATA apareció como solución a la ingente cantidad
de información que comenzábamos a generar las personas, organismos y empresas. De
manera exponencial crecía tanto la creación propia de datos como la importación
desde cualquier origen, como un tsunami arrasó los centros de datos. Al igual
que las ballenas consumen toneladas de “krill” cada día, las organizaciones
consumen “teras” de almacenamiento viéndose obligadas a ampliar de forma
drástica la capacidad, y con ello la velocidad de tratamiento… el tsunami
arrastra todo lo conocido dejando un panorama jamás visionado. La NUBE se convirtió en la solución “terminológica” ya que se
trataba de lo mismo pero con gran velocidad de proceso compartiendo miles de
máquinas (que no es poco)
A
todo este “montaje” se adhirió un concepto, una solución, que llevaba muchos
años siendo crítico en las organizaciones, pero que no contaba con un soporte
enriquecedor, ANALYTICS. Las soluciones
de análisis de alto nivel se topaban con un obstáculo sistémico que impedía
crecer en servicio de calidad y cantidad. Con la llegada del almacenamiento
masivo y semiestructurado los modelos de análisis se han despejado y se han convertido
en islas independientes de dónde se encuentren los datos. Se puede decir que han
encontrado su salida natural como cualquier jovencito que decide independizarse
y experimentar la vida con las interactuaciones y relaciones que decida.
En
mi último post “BIG DATA... ANALYTICS... ¿y eso es todo?” abordaba la necesidad de un tercer elemento
que otorgase equilibrio de almacenamiento, fiabilidad de análisis y calidad del
dato… SMART DATA. Con esta
pieza intermedia se consigue dotar de inteligencia al dato, consolidando y tipificando
correctamente, según las expectativas y objetivos del negocio.
Y
ahora que todo el mundo habla de BIG DATA,
sabiendo de lo que se habla, ahora que se imparten cientos de cursos sobre esta
tecnología, ahora que los rezagados comienzan a sopesar la naturaleza de
incorporar esta novedad a su entorno de sistemas… ahora va y enferma. El diagnóstico
no está claro. Unos opinan que se trata del éxito que ha desvirtuado el
objetivo de su creación. Otros que las expectativas originales han mutado y ahora
se requiere algo “diferente”. Lo que está claro es que el tratamiento es simplemente
“paliativo” mientras se produce el desenlace.
La
realidad es que las organizaciones necesitan, porque así lo fija la velocidad
del cambio actual, de datos elaborados en tiempo real. No me importa dónde se
cree el dato, ni su formato, ni su tecnología, ni su especificación ni
tipificación; necesito un resultado, un indicador, una alerta en el momento en
que se está produciendo según una conjunción de datos, simples o elaborados,
previamente definidos en reglas y/o algoritmos, que a su vez se deberán
actualizar en tiempo real. Y no solo esto, dependiendo de la analítica en
tiempo real tendré un subsistema que desencadenará acciones en todos los sentidos,
de marketing online, ajustes de negocio, propuestas de un nuevo modelo, etc.
A
pesar de no haber terminado de entrar en la última, lo hacemos en una nueva era
que volverá a modificar las reglas del juego de mercado: reacción en tiempo real
sobre la estrategia, estructura y modelo del negocio.
La flexibilidad debe
de ser total para que la acción/reacción sea camaleónica, o no. Todo dependerá de
si somos un camaleón más o el entorno cambiante e innovador.
No hay comentarios:
Publicar un comentario
Si así lo deseas, escribe un comentario sobre esta entrada. Estoy preparado para todo.