Los datos, antes una preocupación del área de TI, han pasado a ser una preocupación central de los responsables de negocio de las compañías. Antes se usaban casi exclusivamente con una visión transaccional, mientras que ahora los datos se han convertido en un activo estratégico para las empresas, por el valor que se puede extraer de ellos.
Esto, que ahora está en boca de todos y parece una obviedad, no lo era tanto hace tan solo unos años. Entonces, las personas que tomaban las decisiones de negocio en las compañías, disponían de sistemas de reporting unidireccionales y costosos de evolucionar. Y se servían de hojas de cálculo para trabajar con la poca información a la que tenían acceso, con el objetivo siempre de tomar las mejores decisiones. Esta inercia generó silos de información departamentales, que daban lugar a diferentes resultados y puntos de vista sobre aspectos clave del negocio como, por ejemplo, el volumen de ventas, las unidades en stock, los consumos incurridos…
Lo que ha ocurrido es que ha irrumpido con fuerza en el mercado una nueva generación de herramientas de visualización de los datos y análisis de información, mucho más sencillas de utilizar por las áreas de negocio. Unas herramientas que, además, son capaces de acabar con los silos de información dentro de las compañías. Sin embargo, las unidades de negocio no son capaces de sacar partido de ellas porque las áreas de tecnología de sus empresas no han evolucionado a la misma velocidad a la que aparecen estas nuevas necesidades. En parte, porque con los años, las organizaciones se han cargado con una gran cantidad de sistemas operacionales que son necesarios para la marcha del negocio, y que les absorben una gran parte de sus recursos. Hasta ahora, las necesidades de información no han tenido la misma prioridad que el funcionamiento 24x7 de los sistemas transaccionales, y esto es lo primero que tiene que evolucionar.
El paradigma big data está siendo el gran catalizador de este cambio. Ya nadie se cuestiona ya si la analítica avanzada de datos funciona o si debe formar parte del día a día del negocio. La pregunta, ahora, es cómo sacarle partido antes de que sea demasiado tarde. El tiempo de las pruebas de concepto ha pasado. Es necesario plantearse cómo se integran estas capacidades en el día a día de la toma de decisiones. Este proceso de integración está obligando a las organizaciones a evolucionar sus modelos operativos actuales, a través de la evolución de los procesos de negocio, de la incorporación de talento, de la modificación de estructuras de gobierno y del desarrollo de líneas estratégicas basadas en la explotación de datos.
Si hacemos un zoom al nivel de los datos, veremos que ya se ha desarrollado la tecnología que hace posible almacenar y analizar grandes volúmenes de información. Los algoritmos de inteligencia artificial, que estaban reservados para un pequeño grupo de empresas,, se están democratizando. Pero la causa más relevante y, quizá, menos comprendida, que está facilitando que se mueva la frontera del dato, es el denominado late schema committment. Esto es, la capacidad de almacenar los datos en su estructura original y de tratarlos (darles un esquema concreto) justo en el momento de realizar el análisis que se necesite.
El late schema committment es el gran impulsor de la frontera del dato, que está cada vez más cerca de las áreas de negocio y, por tanto, más cerca de la toma de decisión de las empresas. Hace 15 años, para construir un sistema informacional que proveyera algún tipo de valor añadido al día a día de una compañía, era necesario diseñar y desarrollar un esquema de datos a-priori, sobre el cual se construirían, después, los cubos e informes que se distribuían a las personas que los consumían. El objetivo, que todo el mundo tuviera la misma visión de la información (la única versión de la verdad). Esto funciona muy bien cuando las preguntas de negocio se ciñen a la información almacenada en ese esquema -como por ejemplo “¿cuáles fueron las ventas del mes pasado?”-. Pero no tanto cuando las preguntas no respetan esta estructura predefinida -“¿Qué ha pasado con las ventas de la zona norte la semana pasada?”-. En la mayoría de los casos, este tipo de información se agrega en periodos determinados, por lo que para responder a la pregunta hay que bucear en los sistemas origen de la mano de un experto en la gestión de datos -no necesariamente conocedor del negocio- que nos ayude a dar con las respuestas. Y por el camino, esperar que lo que entienda uno sea lo mismo que ha dicho el otro. Hoy, los profesionales que reciben la información saben que si les dan acceso a los datos en una forma que ellos entiendan, pueden ser autosuficientes a la hora de buscar respuestas.
Estos profesionales están acostumbrados a trabajar con hojas de cálculo, porque les aportan flexibilidad e independencia. La primera y mayor flexibilidad parte del esquema de datos. Cada respuesta puede requerir de su propio esquema y el esquema se debe generar por el propio analista en el momento del análisis. La segunda es la capacidad de generar nuevos indicadores que ayuden a resolver la pregunta en cuestión. Por ello, también necesitan un entorno con capacidad de edición, cosa que supone un reto tecnológico para implementarlo a gran escala.
El grado de madurez actual de las tecnologías big data nos permite mover la frontera del dato hasta el consumidor final, pero la tecnología sola no va a resolver el problema por nosotros. Para conseguirlo hay que tener en cuenta los siguientes factores: