El término BIG DATA o “macrodatos” hace referencia al manejo de una cantidad muy grande de datos que antes de poder comprenderlos y darles un sentido, requieren de sistemas no tradicionales para el procesamiento de información.
Cuando hablamos de un dato, nos referimos a “aquella información extraída de la realidad que tiene que ser registrada en algún soporte físico o simbólico, que implica una elaboración conceptual y además que se pueda expresar a través de alguna forma de lenguaje” (ver).
El almacenamiento y uso de datos informáticos nació junto con las primeras computadoras, y a lo largo de su existencia, el verdadero valor de los datos siempre ha tenido relación con el uso que se les puede dar, ya sea permitir comprender una situación, realizar un diagnóstico y/o tomar decisiones. Eso no ha cambiado, pero si ha tenido una diferencia drástica la cantidad de datos que podemos almacenar, la evolución de los dispositivos que los almacenan, procesan y el modo en que se exhiben. Un ejemplo claro de esto es que hemos pasado de dispositivos con capacidad de almacenar 1 megabyte (MB o Mbytes) = 1024 kilobytes en los años 80’s a plataformas que en el presente guardan 1 yottabyte (YB o Ybytes) = 1024 zettabytes (que es equivalente a 1.000.000.000.000.000.000 Megabytes).
Esta diferencia en la capacidad de almacenamiento y procesamiento de datos ha estado transformando también la habilidad en cosas como el análisis del comportamiento de una persona, o la detección de patrones y la formulación de predicciones en todo tipo de ámbitos. Entre ellos en los negocios para predecir comportamientos del mercado, en la salud para prevenir enfermedades infecciosas y hasta en la lucha contra el crimen organizado.
¿Existen límites en el almacenamiento de datos actual?
Aunque podemos pensar lo contrario, existen límites en la capacidad de almacenamiento de datos (la gran mayoría de nosotros no hemos interactuado ni con un 5% de un yottabyte), hay áreas donde se toca techo en esta capacidad y su procesamiento; En la meteorología, los especialistas presentan limitaciones en la lectura y predicción de acontecimientos. En el ámbito de la biología molecular, se generan grandes cantidades de información científica que los sistemas no logran traducir en algo simple y comprensible e incluso en los motores de búsqueda de internet como Google, existen obstáculos en el rastreo de las páginas indexadas.
Por otro lado, todos los sistemas empresariales tienen limitaciones en su infraestructura para el almacenamiento y procesamiento de big data.
Podemos concluir, que aunque el crecimiento tanto en capacidad como en procesamiento de datos ha sido exponencial, aún queda mucho camino por recorrer.
Usaremos la definición de BIG DATA que John Mashey, un empresario y experto en informática nacido en USA, popularizó en los años 90’s: Big data o macrodatos es un término que hace referencia a una cantidad de datos tal que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable.
¿En base a qué parámetros podemos describir o saber que hablamos de Big Data y no de un grupo simple de datos? Si bien, no existe un número exacto que nos permita separar una cantidad simple de Big Data, podemos considerar los siguientes elementos:
- Volumen: la cantidad de datos generados y guardados.
- Variedad: el tipo y naturaleza de los datos. Los macrodatos usan textos, imágenes, audio y vídeo.
- Velocidad: La velocidad a la cual se generan y procesan los datos para cumplir las exigencias y desafíos de su análisis.
- Veracidad: la calidad de los datos, desde cuál fue su origen hasta si están dispuestos de manera correcta en el sistema que los soporta.
- Valor: que los datos generados deben ser útiles y accionables.
[/dt_vc_list][vc_empty_space][vc_column_text]
Los desafíos del Big Data
Las mejoras presentes y futuras del Big Data van más allá de los sistemas e infraestructura que lo soportará. La evolución y perfeccionamiento del procesamiento del Big Data está estrechamente ligada a sus fuentes de origen. ¿De dónde proviene tal cantidad de información?, de múltiples fuentes: las personas generamos miles de datos al usar un Smartphone, las páginas webs emiten información con cada transacción realizada, las interacciones entre máquinas cómo los GPS’s y los autos, entre múltiples otras fuentes. Por lo tanto, a medida que cada una de las fuentes de información evolucione, contribuirá a los cambios que el almacenamiento y procesamiento de Big Data pueda tener.