Aproximación al concepto de BIG DATA


Cada vez es más difícil no encontrarse con el concepto de BIG DATA y resulta cada vez más embarazoso no entender que significa.

En primer lugar, debemos aclarar ciertas definiciones confusas y poco rigurosas que se están dando del concepto BIG DATA, podemos decir que: no es una tecnología; ni un producto comercial; y, mucho menos es una base de datos grande.

Son muchas las definiciones existentes, a mí, me gusta esta:

“BIG DATA son un conjunto de tecnologías relacionales y no relacionales para analítica a gran escala. Resulta necesario cuando tenemos grandes volúmenes de datos a analizar o bien gran variedad de los mismos (bases de datos, fotos, mails, video, …) o bien que la analítica a desarrollar precise de gran velocidad que demandará un procesado altamente escalable para obtener conocimiento y tomar decisiones”.

En esta definición están presentes las “3-V” que originariamente se asociaron al concepto de BIG DATA.

La primera sería Volumen. Nos referíamos a ella porque este conjunto de tecnologías de almacenamiento y procesamiento están orientadas a trabajar con macro datos con la circunstancia de que en la actualidad se ha multiplicado exponencialmente la cantidad de datos disponibles y la necesidad de analizarlos. La existencia de datos para mejorar una estrategia o estructura no es nada nuevo, pero es verdad que las nuevas tecnologías nos permiten analizar grandes cantidades de datos, que hace unas décadas hubieran sido imposibles de recopilar y entender. Es por ello que hoy, cuando hablamos de análisis de grandes cantidades de datos, casi siempre hacemos referencia al Big Data, y casi nunca pensamos en sets o conjuntos de datos manejables de forma manual.

La segunda V es la Variedad. Hoy en día tenemos datos en infinidad de formatos, desde los datos altamente estructurados de una base de datos transaccional o analítica, pasando por datos semiestructurados como puede ser un Excel, hasta los datos no estructurados como sería una foto, un video, … Aunque los datos se analizan usando tecnología avanzada, no necesariamente han sido generados en espacios altamente digitalizados. En parte, que a día de hoy existan tantos datos, es gracias y por culpa de la tecnología. Todas nuestras actividades generan una gran cantidad de datos. Además, el boom demográfico y de conectividad hace que cada vez haya más gente generando datos y, por lo tanto, haya menos tiempo para analizarlos.

La tercera V es la Velocidad. Las empresas necesitan recoger, recibir y analizar rápido los datos, siendo esta una clave de las estrategias Big Data. Pese a que se trata de una ciencia relativamente nueva, el valor que puede llegar a aportar a las organizaciones es incalculable, y por ello, es imprescindible que se entienda como una sección necesaria y transversal dentro de toda empresa. Aunque los avances en Big Data están siendo muy rápidos, todavía queda mucho camino por recorrer y muchas mejoras por hacer, así que el factor humano sigue siendo muy necesario en los procesos de análisis de datos y la definición de estrategias.

Con posterioridad se han ido agregando “V” pasando a ser: 4V, con la inclusión de Veracidad; 5V, se incluyó Valor; luego 10V, 14V y, por último, hasta donde yo conozco 17V.

 {Volumen (Volume); Velocidad (Velocity); Variedad (Variety); Valor (Value); Veracidad (Veracity); Validación (Validity); Volatilidad (Volatility ); Visualización (Visualization); Viralidad (Virality); Viscosidad (Viscosity); Variabilidad (Variability); Hub Almacenamiento (Veneu); Vocabulario (Vocabulary); Vaguedad (Vagueness); Verbosidad (Verbosity); Voluntariedad (Voluntariness); Versatilidad (Versatility)}

Personalmente, me gusta más la definición originaria “3-V” o como mucho “5-V”, más sencilla de entender y muy explícita en cuanto al núcleo principal sobre el que gira el BIG DATA, pero creo que si es de interés saber que existen muchos otros atributos que caracterizan este conjunto de tecnologías.

Después de entender la definición, la pregunta que yo me hice fue la siguiente, ¿necesitará mi “Despacho profesional-PYME” trabajar con el BIG DATA?

En principio no creo que tenga que trabajar con Terabytes de datos ni mucho menos con Petabytes, más bien los análisis de datos que realizamos en un despacho caben en memoria RAM.

Tampoco solemos trabajar con datos No estructurados si bien esto ya está cambiando porque existen tecnologías, por ejemplo, de reconocimiento fotográfico, visualización de campos de facturas para su contabilización automática que están siendo abordadas con tecnologías BIG DATA, aunque las más comunes en el mercado están usando tecnología “Optical character recognition” avanzada (OCR).

Por último, en cuanto a la velocidad, parece que sin usar BIG DATA es suficiente para nuestros ERP, CRM, intranets y demás, pero ¿a alguien le parece mal que los ordenadores procesen más rápido?

El BIG DATA, no parece ser necesario para pequeñas organizaciones, sin embargo, os puedo asegurar que cada vez va penetrando más en las PYMES y que las compañías que dedican un esfuerzo en comprender esta tecnología e implantarla en su día a día están consiguiendo obtener muy buenos resultados.

Por lo que la siguiente pregunta es, ¿te quieres quedar atrás?

14

Entradas relacionadas