sábado, 24 de octubre de 2015

BIG DATA... ANALYTICS... ¿y eso es todo?

Hace ya años que se maneja BIG DATA como repositorio de la ingente cantidad de información que se genera en nuestro planeta, aunque solo una parte ínfima se ajuste a nuestras necesidades de conocimiento de negocio. Y es sobre esta insignificante porción de información universal sobre la que nuestro negocio necesita actuar. Big Data se alimenta cada vez de más fuentes de datos: sistemas centrales, sistemas distribuidos, herramientas ofimáticas, digitalización de papel (NOSQL), web, redes sociales… y ya se están incorporando datos, cada vez más importantes, desde los accesorios de todo tipo o wareables y de forma dramática con Internet de las Cosas (IoT) –su aporte actual es del 4% del total de información generada, pasando al 10% en 2020-

En el año 2003 el mundo creó 5EB (exabytes), o lo que lo mismo, 5.000.000.000 GB.   Hasta 2007 y desde el inicio de la Humanidad se habían generado 295 EB, en 2011 esta cantidad de datos se generaba tan solo cada dos días. Sirvan estos datos para entender la magnitud de información a la que nos enfrentamos. BIG DATA es capaz de absorber cualquier estructura y origen de datos ya que lo basamos en almacenamiento (más o menos estructurado).


Tan solo el 0,007% de la información creada se encuentra almacenada en papel





En el otro extremo de la ecuación se encuentra ANALYTICS como capa de resultados lógicos mediante algoritmos y reglas. La analítica de datos es una rama científica y existen grandes soluciones de multinacionales que ayudan a componer el entorno que necesita el negocio, o cada área de negocio para evolucionar, competir y conocer el mercado, los clientes y nuestros propios procesos.

De nada sirve tener millones, billones de GB almacenados de datos que pueden resultar relevantes para la Organización si no se realiza un análisis riguroso y estratégico sobre ellos. Pero no solo analizamos datos propios de nuestro BIG DATA, tiramos de BIG DATA externos, de otras organizaciones que poseen información de valor de nuestros clientes y potenciales, del mercado y tendencias. En resumen, manejamos ingente cantidad de datos que luego debemos ser capaces de consolidar, agrupar, caracterizar para que los resultados de las analíticas sean fiables e íntegros.

Para comenzar con BIG DATA y ANALYTICS lo recomendable es hacerlo sobre los datos transaccionales y estructurados existentes en la Organización. Paulatinamente ir aportando información desestructurada de diferentes fuentes, también internas. Una vez hemos conseguido la normalización deseada se puede comenzar a incorporar fuentes externas y de otros BIG DATA.


El potencial es enorme, pero las implicaciones también son inquietantes. Los departamentos de TI deben pulsar el botón de reinicio para buscar nuevas formas de innovar en la infraestructura existente, mientras que se preparan para bucear en el futuro de la computación de tercera plataforma”, Jeremy Burton, Presidente de Productos y Marketing de EMC Information Infrastructure.


En 2013, sólo el 22% de la información en el universo digital se consideraba información útil, pero menos del 5% de los datos fueron analizados, lo que dejó una cantidad masiva de datos perdidos en tierra de nadie por el ciberespacio del universo digital. Para el año 2020, más del 35% de todos los datos podrían considerarse útiles, gracias al crecimiento de los datos motivado por el Internet de las Cosas, pero luego serán las empresas las que se encarguen de extraer valor estos datos.


“A medida que los sensores se conectan cada vez más a Internet, los datos que generan van cobrando mayor importancia para todas las áreas del negocio, de manera que transforman empresas antiguas en nuevas e importantes entidades. Los servicios de almacenamiento tradicionales alcanzarán nuevos niveles de solidez y tolerancia para hacer posible el Universo Digital, que sólo puede garantizarse en un entorno definido por software”, Vernon Turner, Vice Presidente Senior de IDC.


Ante este panorama, tenemos dos capas, almacenamiento y analítica. ¿Tú te sentirías cómodo con esta estructura?


NO. Al menos no deberías.


Es necesario incorporar una tercera vital: SMART DATA

Si no dotamos a nuestro BIG DATA de una inteligencia en el dato, nos volveremos locos interpretando resultados y aplicando factores correctores cuando es posible que no sean necesarios o deberían de ser descartados. Con el paso de los meses (ya no podemos hablar de años en la innovación) BIG DATA desaparecerá y quedará una sola capa de almacenamiento e inteligencia del dato: SMART DATA.


La calidad prevalece sobre la cantidad


La transformación de la cantidad de datos inconexos en datos de calidad se realiza mediante algoritmos y reglas que dotarán a nuestra Organización de capacidad suficiente, veraz y fiable para la toma de decisiones y planificar acciones. Una vez obtenido el SMART DATA de nuestra Organización, el almacenamiento será menor pero la capacidad de explorar y analizar se incrementa exponencialmente. El coste de la nube y personas cualificadas para su uso se reducirá. El tiempo de reacción nos pondrá en posición aventajada sobre el resto: FAST DATA

Por si no te has percatado aún, el futuro de tu Organización depende de la agilidad que demuestres en construir una infraestructura tecnológica capaz de almacenar cantidades ingentes de datos, dotar de inteligencia a éstos y obtener resultados basados en la analítica de método.





No hay comentarios:

Publicar un comentario

Si así lo deseas, escribe un comentario sobre esta entrada. Estoy preparado para todo.