Sistemas de informacion/Big Data: importancia, gobernabilidad y futuro


¿Qué es el Big Data?

editar

El Big Data es un conjunto de datos de gran tamaño y complejidad, procedentes de nuevas fuentes de datos. Tal es el volumen de estos, que el software convencional no es suficiente para poder procesar los datos. En cambio, estos volúmenes de datos otorgan la posibilidad de hacer frente a problemas en el ámbito empresarial, que de otra forma no hubieran sido solucionados.

También se puede definir el Big Data a través de las “tres V”:

  • En primer lugar, el Volumen, que se refiere a la cantidad de datos (no estructurados) importados en la base de datos. Por ejemplo, feeds de datos de Twitter o flujo de clics en una página web.
  • En segundo lugar, la Velocidad, que es el ritmo al que se reciben los datos y se llevan a cabo estrategias utilizando esa información.
  • Por último, la Veracidad, que se refiere a la diversidad de tipos de datos de los que se puede hacer uso. Los datos convencionales eran estructurados, pero con el auge del Big Data pasaron a ser no estructurados, lo que da la naturaleza compleja.

Con la evolución de las nuevas tecnologías, han surgido dos nuevas V. Por un lado, el Valor intrínseco, que es el valor de nuestros datos sin tener en cuenta los casos de uso ni la estrategia. Sin embargo, este no tendrá ninguna utilidad hasta que se descubra. Hoy en día, el Big Data se ha convertido en un activo de gran importancia para las empresas ya que el valor de estas viene determinado en mayormente de sus datos y de cómo los analizan para llevar a cabo sus estrategias de negocio, para aumentar su eficiencia.

Por otro lado, cuando nos referimos a la Veracidad, estamos haciendo referencia al grado de fiabilidad que estos datos nos da. Será necesario invertir tiempo en conseguir datos de calidad para que el valor de estos sea real.

En definitiva, El Biga Data es una combinación de estas características con las que las empresas pueden obtener ventajas competitivas frente a sus competidores.

Importancia

editar

Reducción de costes

editar

Las grandes tecnologías de datos y su análisis aportan grandes ventajas en términos de costos cuando se trata de almacenar un gran volumen de datos e identificar formas más eficientes de llevar a cabo un negocio y así aumentar su productividad.

La reducción de costes es un elemento fundamental para organizar cualquier compañía de forma exitosa, identificando qué servicios o productos se pueden eliminar/ disminuir, siempre y cuando no afecte a la rentabilidad de las empresas ni a la calidad de sus productos. Para ello, se tendrá que elaborar un plan de reducción de costes y llevar a cabo diferentes métodos de seguimiento y control mediante herramientas tales como el Business Intelligence (BI).

En conclusión, el Big Data permitirá realizar posibles mejoras y la evaluación de impacto de estas.

Mayor rapidez en la toma de decisiones

editar

La velocidad del análisis junto con la capacidad de examinar nuevas fuentes de datos hace que las organizaciones puedan tomas decisiones basadas en los datos recopilados. A su vez, determinará las causas de los fallos y problemas de forma casi inmediata.

El Big Data en la toma de decisiones trabaja para mejorar y minimizar la manera de responder a los desafíos. Esto permite a las empresas obtener mayores ventajas competitivas en el mercado. Para ello, el Big Data les facilita patrones, tendencias, y asociaciones que relacionan el cliente con el producto, revelando los comportamiento e interacciones que cada compañía tiene con esos datos.

Nuevos productos y servicios

editar

El Big Data otorga la capacidad de evaluar las necesidades de los clientes mediante estudios realizados por las empresas, además de tener un mayor conocimiento del mercado en el que las empresas realizan su actividad. Es por esto, que la recopilación de datos históricos, contextuales y a tiempo real dan lugar a la creación, de forma más eficiente, de nuevos producto y servicios.

Además, el Big Data nos permitirá predecir el comportamiento futuro que los consumidores tendrán y así poder adelantarnos a sus futuras necesidades.

Desafíos a resolver en el futuro

editar

Multitud de fuentes

editar

Cada vez tiene más dificultad la integración de los datos. Los errores más comunes a los que nos enfrentamos en este ámbito son el que no seamos capaces de entender los datos que queremos integrar, no tener en cuenta el rendimiento de los mismos y olvidarnos de la seguridad. Por esa razón, es complicado estructurar los mismos y ese debería de ser nuestro primer paso. Podemos distinguir las siguientes fuentes de datos:

  • Datos de Internet y Móviles
  • Datos de Internet de las cosas: Es un sistema de dispositivos electrónicos interconectados que recopilan y transmiten datos a través de una red inalámbrica sin intervención humana.
  • Datos sectoriales recopilados por empresas especializadas: Indicadores a corto plazo.
  • Datos experimentales: Tiene como fin observar, manipular y registrar variables que afectan a los sujetos de estudio.

Alto volumen de datos

editar

El exceso de datos provoca grandes problemas a la hora de llevar a cabo un proyecto o la ejecución de un proceso de calidad.

Para poder solucionar este problema son fundamentales tres elementos: las infraestructuras, las herramientas y el proceso.

El almacenamiento en la nube (Cloud Computing) junto a las herramientas específicas y adecuadas son primordiales para conseguir una alta escalabilidad y flexibilidad.

Por supuesto, con un proceso de interpretación de datos que nos ayude a mejorar constantemente y alcanzar una autonomía que nos brinde un mejor manejo de los datos.

Tipos de datos

editar

Si tenemos dudas o no tenemos claro cual es nuestro problema, no podemos plantearnos continuar con nuestros objetivos o decantarnos por lo que nos interesa sin antes encontrar varias soluciones factibles. Los datos son los que nos permiten tomar esas decisiones con bases objetivas de las que hablamos para que después nos sea más fácil evaluarlas y mejorarlas. Conocer la clasificación de los datos es primordial y podemos diferenciar los siguientes tipos:

  • No estructurados: Los datos están desorganizados y no tienen valor hasta que se ordenan, se identifican y se almacenan, es decir, no tienen una figura clara identificable.
  • Estructurados: Son datos bastante fáciles de manejar ya que están organizados y bien definidos en términos de tamaño, formato y longitud.
  • Semi-estructurados: Es una mezcla de los dos formatos ya mencionados: no están perfectamente estructurados aunque disponen de una organización definida.

Una vez identificados y clasificados tanto los tipos de fuente como los tipos de datos seremos capaces de pasar a la fase en la que definamos de manera correcta los mecanismos que queremos utilizar para poder convertirlos en información que nos sea de gran utilidad.

Gran volatilidad

editar

A medida que pasa el tiempo las variaciones de los datos cada vez son más frecuentes y eso hace que la validez de los mismos cambie y no se aprovechen a largo plazo, ya que tienen una duración bastante corta.

¿Cómo se soluciona este problema?

Lo primero es informarse y anticiparse ante cualquier situación para conocer a fondo a lo que nos enfrentamos. De esta manera, obtendremos diferentes objetivos logrando mayor diversificación. Para finalizar, evaluaremos los resultados apoyándonos en las herramientas más optimas.

Inexistencia de estándares de calidad de datos unificados

editar

La falta de calidad de los datos es uno de los mayores problemas que enfrenta el mundo de los sistemas de información y las empresas en general ya que provoca graves consecuencias, por ejemplo, falta de productividad y rentabilidad.

Si no llevamos a cabo estrategias que las solucionen podríamos incurrir en datos erróneos, datos inexactos, falta de trabajadores cualificados, reducción de la fiabilidad y de la calidad, etc.

Para poder ejercer un buen control de calidad, es necesario cubrir todo el proceso logrando así una mejor calidad de manera que el nivel de satisfacción de los clientes y las empresas o industrias sea mayor.

Por esa razón, la correcta gestión de ese proceso genera numerosos beneficios tanto para el cliente como para la empresa.

Gobernabilidad

editar

La gobernabilidad es la forma en la que se asegura que los datos tienen la autorización y condiciones adecuadas/necesarias respecto al usuario, al mismo tiempo que se minimizan los errores y se garantiza la seguridad y la privacidad.

Acceso y actualización de los datos

editar

Por el objetivo de la gobernabilidad, el acceso y autorización de los datos debe tener un control específico. Este control suele tratarse de controles granulares, los cuales se llevan a cabo a través de agrupación y lógica booleana, que determina el acceso a los datos con perfiles y configuraciones de visibilidad.

Este sistema debe ser configurado en función de los niveles de acceso deseado, para poder garantizar una seguridad integrada. En principio, se pueden observar dos niveles. En primer lugar, el nivel más bajo, oculta los datos confidenciales. Y, en segundo lugar, el nivel alto protege los contratos confidenciales.

Autenticación de datos

editar

Al final del proceso de datos, es necesario que haya una seguridad específica. Con la autenticación de datos lo que se pretende es que existan cortafuegos alrededor de los sistemas que imposibiliten la entrada a agentes externos. Además, las empresas deben sincronizar sus sistemas e integrar sus servicios de directorio para una mayor protección.

Las empresas tienen un abanico de posibilidades para crear un soporte de autenticación más seguro, pero lo más importante es que no creen una infraestructura separada sino una que se pueda integrar en la que ya tengan.

Análisis y auditorías continuas

editar

Para mantener las estrategias de cualquier ámbito, es necesario el continuo análisis para mantener la transparencia de datos y poder así controlar más eficazmente la gobernanza de datos. Incluye también, que las empresas mantengan actualizadas las estrategias, ya que vivimos en un entorno muy dinámico. Por esto, es fundamental que se fijen en el entorno para facilitar a los usuarios que se adapten lo más rápido posible a los cambios del entorno.

Privacidad y seguridad

editar

A través de encriptación y tokenización podemos garantizar la privacidad y seguridad de los datos.

En primer lugar, la encriptación es un proceso de codificación mediante el cual se imposibilita la lectura de la información a cualquiera que no sea el emisor o el receptor. En segundo lugar, la tokenización de datos es conferir una serie numérica a datos confidenciales, lo que hace nuevamente imposible su lectura a quien no conozca el token.

Arquitectura de datos unificada

editar

Por último, las formas en las que se lleva a cabo la gobernabilidad tienen que estar acompañadas de una arquitectura de datos unificada. Es decir, las empresas deben asegurarse de que los datos no están muy diversificados ya que cuanta menos unificación hay, menos control también.

La digitalización avanza a pasos agigantados y, es por esto, que el mayor reto de las empresas hoy en día es seguir este ritmo, ya que tienen que estar en continuo cambio para asegurar la unificación de datos. Las nuevas estrategias para poder hacerlo pueden ser añadir nuevas capacidades a las infraestructuras que ya tienen de anterioridad o la virtualización de datos.

Referencias

editar