Hace
ya años que se maneja BIG DATA como repositorio
de la ingente cantidad de información que se genera en nuestro planeta, aunque
solo una parte ínfima se ajuste a nuestras necesidades de conocimiento de
negocio. Y es sobre esta insignificante porción de información universal sobre
la que nuestro negocio necesita actuar. Big Data se alimenta cada vez de más
fuentes de datos: sistemas centrales, sistemas distribuidos, herramientas
ofimáticas, digitalización de papel (NOSQL), web, redes sociales… y ya se están
incorporando datos, cada vez más importantes, desde los accesorios de todo tipo
o wareables y de forma dramática con
Internet de las Cosas (IoT) –su aporte actual es del 4% del total de
información generada, pasando al 10% en 2020-
En
el año 2003 el mundo creó 5EB (exabytes), o lo que lo mismo, 5.000.000.000 GB. Hasta 2007 y desde el inicio de la Humanidad
se habían generado 295 EB, en 2011 esta cantidad de datos se generaba tan solo cada dos días. Sirvan estos datos para entender la magnitud de información a la que nos enfrentamos.
BIG DATA es capaz de absorber cualquier estructura y
origen de datos ya que lo basamos en almacenamiento (más o menos estructurado).
Tan solo el 0,007% de la información creada se encuentra
almacenada en papel
En
el otro extremo de la ecuación se encuentra ANALYTICS como capa de
resultados lógicos mediante algoritmos y reglas. La analítica de datos es una
rama científica y existen grandes soluciones de multinacionales que ayudan a
componer el entorno que necesita el negocio, o cada área de negocio para
evolucionar, competir y conocer el mercado, los clientes y nuestros propios
procesos.
De
nada sirve tener millones, billones de GB almacenados de datos que pueden
resultar relevantes para la Organización si no se realiza un análisis riguroso
y estratégico sobre ellos. Pero no solo analizamos datos propios de nuestro BIG DATA, tiramos de BIG DATA externos, de otras organizaciones que poseen
información de valor de nuestros clientes y potenciales, del mercado y
tendencias. En resumen, manejamos ingente cantidad de datos que luego debemos
ser capaces de consolidar, agrupar, caracterizar para que los resultados de las
analíticas sean fiables e íntegros.
Para
comenzar con BIG DATA y ANALYTICS lo recomendable es hacerlo sobre los datos
transaccionales y estructurados existentes en la Organización. Paulatinamente
ir aportando información desestructurada de diferentes fuentes, también internas.
Una vez hemos conseguido la normalización deseada se puede comenzar a
incorporar fuentes externas y de otros BIG DATA.
“El potencial es enorme, pero las
implicaciones también son inquietantes. Los departamentos de TI deben pulsar el
botón de reinicio para buscar nuevas formas de innovar en la infraestructura
existente, mientras que se preparan para bucear en el futuro de la computación
de tercera plataforma”, Jeremy Burton, Presidente de Productos y
Marketing de EMC Information Infrastructure.
En
2013, sólo el 22% de la información en el universo digital se consideraba
información útil, pero menos del 5% de los datos fueron analizados, lo que dejó
una cantidad masiva de datos perdidos en tierra de nadie por el ciberespacio
del universo digital. Para el año 2020, más del 35% de todos los
datos podrían considerarse útiles, gracias al crecimiento de
los datos motivado por el Internet de las Cosas, pero luego serán las empresas
las que se encarguen de extraer valor estos datos.
“A medida que los sensores se conectan cada vez más a
Internet, los datos que generan van cobrando mayor importancia para todas las
áreas del negocio, de manera que transforman empresas antiguas en nuevas
e importantes entidades. Los servicios de almacenamiento tradicionales
alcanzarán nuevos niveles de solidez y tolerancia para hacer posible el Universo Digital, que sólo puede
garantizarse en un entorno definido por software”, Vernon Turner, Vice Presidente Senior de
IDC.
Ante
este panorama, tenemos dos capas, almacenamiento y
analítica. ¿Tú te sentirías cómodo con esta estructura?
NO.
Al menos no deberías.
Es
necesario incorporar una tercera vital: SMART DATA
Si
no dotamos a nuestro BIG DATA de una
inteligencia en el dato, nos volveremos locos interpretando resultados y
aplicando factores correctores cuando es posible que no sean necesarios o
deberían de ser descartados. Con el paso de los meses (ya no podemos hablar de
años en la innovación) BIG DATA
desaparecerá y quedará una sola capa de almacenamiento e inteligencia del dato:
SMART DATA.
La calidad prevalece sobre la cantidad
La
transformación de la cantidad de datos inconexos en datos de calidad se realiza
mediante algoritmos y reglas que dotarán a nuestra Organización de capacidad
suficiente, veraz y fiable para la toma de decisiones y planificar acciones.
Una vez obtenido el SMART DATA de nuestra
Organización, el almacenamiento será menor pero la capacidad de explorar y
analizar se incrementa exponencialmente. El coste de la nube y personas
cualificadas para su uso se reducirá. El tiempo de
reacción nos pondrá en posición aventajada sobre el resto: FAST DATA
Por
si no te has percatado aún, el futuro de tu Organización depende de la agilidad
que demuestres en construir una infraestructura tecnológica capaz de almacenar
cantidades ingentes de datos, dotar de inteligencia a éstos y obtener
resultados basados en la analítica de método.
No hay comentarios:
Publicar un comentario
Si así lo deseas, escribe un comentario sobre esta entrada. Estoy preparado para todo.