Share

El panel de control: crónica de una muerte anunciada

Autor Lic. Martín Marcelo Sgattoni

“Del derecho y del revés
Uno siempre es lo que es
Y anda siempre con lo puesto
Nunca es triste la verdad
Lo que no tiene es remedio”

Hoy no tengo un buen día. Me levanté con ganas de hacer maldades.

Primera parte: la era del Business Intelligence

Los principios del Business Intelligence se formalizaron y pusieron de moda en los 80. La misma década en que la informática comenzó a popularizarse con las primeras computadoras de escritorio que llegaban a los hogares y a las oficinas. Esto no es casual. Los 80s, además de la ropa flúo y MTV, dieron a luz la era de los datos en la que nos encontramos inmersos hoy.

En el mundo de los negocios, y en otros rubros también, se mutó a un modelo de toma de decisiones basado en datos. La Inteligencia de Negocios (Business Intelligence) supone que no hay mejor acción a tomar que la que se fundamenta con información. Cuanto más voluminosa, mejor.

Los liderazgos carismáticos e intuitivos empezaron a reemplazarse por perfiles más analíticos. Este nuevo paradigma supone varias creencias sagradas: La información es verdad. Los datos son objetivos. Las decisiones basadas en datos son las correctas.

El paradigma del BI se popularizó en los años 90, y se consolidó durante los primeros años del siglo XXI, empujado por tres fenómenos: el crecimiento de la capacidad de procesamiento de información de los ordenadores, la creciente red de datos que facilitó la circulación de la información y la digitalización de todos los procesos de la vida. Todo lo que hacemos hoy deja una “huella digital”. La nueva deidad es el Big Data.

Con el aumento en la cantidad de datos se produjo un atracón informativo que dejó a la mayoría de las compañías en estado de bulimia analítica. Entre el aluvión de datos, y las maravillosas decisiones que se deben tomar en base a ellos, quedó abierto un abismo. En este marco comenzaron a surgir, sobre todo en la última década, soluciones tecnológicas que lo que hacen en esencia es juntar los datos, limpiarlos y disponerlos ya digeridos en plataformas de reportes interactivos. Las estrellas son los paneles de control.

Los tableros de control (dashboards) buscan diagnosticar situaciones específicas del negocio de forma rápida y periódica. Deben ser visuales y de fácil interpretabilidad. Suponen el extremo opuesto a los datos crudos: quien los consume debe recibir la información procesada y resuelta.

Un buen tablero debe comprimir en una sola pantalla los indicadores relevantes, llamados KPIs, para favorecer la toma de las decisiones. Deben estar graficados con indicadores que llamen la atención y alerten cuando algo no está bien. Es común el uso de semáforos y velocímetros. Se deben actualizar también con mucha periodicidad. Dependiendo del negocio, este ciclo de actualización puede ser mensual, diario o minuto a minuto.

Un buen dashboard es la solución perfecta al problema de la indigestión de datos. Por ejemplo: las compras de miles de clientes en el último mes pueden resumirse a un semáforo y una flecha que indique si subieron o bajaron en relación al mes anterior.

Así como en los 90 comenzó el crecimiento exponencial de la acumulación de datos, y así como en la primera década del siglo XXI creció exponencialmente la conectividad, los últimos 10 años han abierto la puerta al crecimiento exponencial de las técnicas de análisis de datos, llevando la profundidad de análisis a niveles nunca vistos. Ha nacido la era de la Ciencia de Datos. Y las técnicas básicas del Business Intelligence comenzaron a mostrar las canas, especialmente los coloridos dashboards.

Cuando el zapato empieza a apretar

El pensamiento analítico se clasifica en 4 niveles: Descripción, Diagnóstico, Predicción y Prescripción. De momento el BI ha dado solución a solo los primeros dos niveles.La mayoría de los analytics que se realizan en una empresa son de carácter DESCRIPTIVO: ¿qué sucedió? Los paneles de control con sus semáforos nos cuentan eso, lo ocurrido.

En análisis más sofisticados se realizan DIAGNÓSTICOS. Para diagnosticar no alcanza saber QUÉ PASÓ. Lo que se busca conocer es el POR QUÉ pasó. Para esto necesitamos vincular los datos y buscar relaciones. El uso de correlaciones, regresiones y SQL avanzado son las herramientas más usadas para el Diagnóstico. Dentro de un panel de control el Diagnóstico suele ser bastante pobre. A lo sumo algún que otro gráfico que correlacione variables causales obvias con los resultados, por ejemplo: inversión publicitaria vs. ventas, ausentismos vs. productividad, inflación vs. consumo. Y no mucho más.

Hablaremos de las otras 2 etapas en un ratito. Pero por ahora sigamos con los dashboards.

Los problemas de la simplificación

Son varias las limitaciones que producen los paneles de control en las empresas. No quiero con esto decir que no sirven para nada o desacreditarlos. Por el contrario, creo que un panel de control bien diseñado puede ser de gran utilidad. Pero me parece importante conocer sus limitaciones para saber cómo complementarlos.

El negro…

Ford solía decir que se podía comprar un Ford de cualquier color siempre y cuando fuera negro. Este esquema de “una solución que le sirva a todos” se presenta a menudo cuando se diseñan paneles de control. Reducir un panel de control a un puñado de KPIs suele resultar en simplificaciones que muchas veces no sirven para responder las preguntas que se hacen los decisores.

Es frecuente la sensación de que la información que se visualiza no alcanza o no sirve para decidir nada. Es como esos restaurantes gourmet que te cobran una fortuna por una hoja de albahaca bañada en perfume y salpicada con condimentos indios. Todo muy lindo, pero te quedás con hambre.

La botella…

El armado de paneles de control genera cuellos de botella en el área de sistemas de las empresas. Entre los datos y el semáforo final hay un proceso de armado que requiere de alguien con capacidad analítica y de programación. En el mejor de los casos se debe saber crear las queries de las que surge el KPI. No es para este artículo. No voy a detenerme mucho en el tema, pero una query es una sentencia en un lenguaje específico (sql) que sirve para extraer información de una base de datos. Es un lenguaje en sí mismo y manejarlo con destreza requiere de especialización.

Es bastante común que los dashboards entonces sean solicitados a la gente de sistemas por todas las áreas de la compañía generando una alta demanda. Tengamos en cuenta también que Sistemas debe encargarse también de armar el Data Warehouse, que es el repositorio central de datos sobre el que se ejecutarán la queries. Llegar a un Data Warehouse sólido es muy complejo y laborioso.

El espejo…

Otro problema recurrente es el de las “vanity metrics”. A veces los dashboards se diseñan para acariciarnos el alma. Los indicadores orquestados solo sirven para hacernos sentir bien. Cuando esto ocurre es muy grave porque el objetivo de un buen panel de control tiene que ser alertar ante las situaciones no favorables.

El uso de KPIs que solo sirvan para alimentar nuestra vanidad y reforzar la idea de que todo lo que estamos haciendo está bien debe ser abordado rápidamente.

La persiana…

El panel de control tiene como objetivo presentar la información procesada. Muchas veces esta digestión actúa como una venda en los ojos. Los semáforos y colores terminan siendo una persiana cerrada donde los datos originarios quedan escondidos y fuera del alcance de los interesados. Esto trae aparejados tres problemas:

En primer lugar la información de origen no está disponible para el usuario final. Profundizar sobre los datos originarios de donde emerge el KPI es difícil o está vedado para el interesado.

En segundo lugar, de manera menos frecuente, visualizar la data tan reducida genera dudas sobre la veracidad de los datos o la calidad de su procesamiento. Suelen escucharse de parte de los gerentes frases como “…este KPI no puede ser”, “…esto no surge de mis datos”, “…esto está mal calculado”, “…acá faltan datos”.

Finalmente el panel de control en su afán de resaltar solo lo relevante y omitir lo demás, produce una falacia muy importante: se pierde el contexto. Los indicadores existen aislados en una pantalla. Los semáforos y los mapas se colorean sin los datos secundarios. ¿Y sin contexto, cómo puedo tomar decisiones?

Segunda parte: la era del Data Science

El salto evolutivo en las técnicas y posibilidades analíticas que ya mencioné está generando un cambio de paradigma: “The Data Empowerment Age”. Y si el Business Intelligence buscaba simplificar el análisis de los datos para la toma de decisiones, el Data Science busca complejizar los procesos para encontrar oportunidades y amenazas.

El cambio fundamental entre el Business Intelligence (BI)I y el Data Science (DS) es el abandono en la centralidad de los datos. Para el DS la información es importante pero la centralidad está en los procesos. El usuario final no consume los datos digeridos sino que participa en el proceso analítico desde el origen.

Esto supone una nueva generación de gerentes y decisores que deberán tener conocimientos más sofisticados sobre técnicas de análisis de datos y, en menor medida, conocimientos esenciales de programación. Cuando en charlas o clases menciono la necesidad de tener conocimientos esenciales sobre programación todos me miran feo.

Pero no hay que matar al mensajero. Así como hoy es impensable no enseñar inglés a un niño, en breve todas las profesiones del futuro requerirán dominar algún lenguaje de programación. Como dice la canción: “Nunca es triste la verdad. Lo que no tiene es remedio”.

El embudo…

La Ciencia de Datos se centra en el proceso que se lo conoce como Data Pipeline (cañería). La idea central es construir el paso a paso desde el dato de origen al resultado final de manera estructurada. Dicho proceso está al servicio de la pregunta que se quiere responder con el análisis.

El enfoque de Pipelinese justifica en la idea de que un proceso bien estructurado puede repetirse siempre con el mismo nivel de certeza. Las tres etapas del flujo son: limpieza, modelado y verificación. Se confía en que un circuito bien armado le dará veracidad a los resultados. Y como su construcción debe hacerse a partir de una pregunta del negocio, es fundamental que el decisor esté involucrado desde el armado inicial

La verdad…

Acompañar el proceso y no el resultado da VERDAD a los datos. Se pierde la duda del resultado porque no hay velo cubriendo los datos de origen. El armado del proceso, que debe ser en equipo, dota de veracidad a los resultados y ayuda a realizar un análisis exploratorio más profundo. En un panel de control el KPI es desarrollado por alguien de sistemas. ¡Es decir que la persona que interactúa con los datos no entiende nada del negocio!

La curiosidad…

Poder jugar con los datos despierta la curiosidad. Abandonamos el marco rígido del panel de control que solo nos permite hacer DESCRIPCIÓN. Si tengo todos los datos, no solo el análisis ya masticado, hay espacio para hacernos preguntas. Abordar los datos con dudas hace que el proceso sea más fructífero.

Los datos ya no sirven solo para diagnosticar. Sirven para buscar cosas que no sabemos. Podemos intuir, dudar, explorar. Entonces el proceso analítico se formula en base a la pregunta. El proceso buscará responder a la curiosidad.

En estos procesos se pueden encontrar oportunidades y amenazas. También se puede completar información con huecos, clasificar elementos dudosos, detectar zonas de homogeneidad en los datos, aislar casos extraños, limpiar datos sucios, predecir y clasificar.

La predicción…

Las nuevas técnicas de analytics que se apoyan principalmente en algoritmos de Aprendizaje Automático (Machine Learning), abren la puerta a los otros 2 niveles de análisis que mencionamos: PREDICTIVO y PRESCRIPTIVO.

En el nivel PREDICTIVO se puede hacer análisis de la información con técnicas algorítmicas que van más allá de lo que pasó y hacen predicciones: dicen qué es lo que PODRÍA PASAR. Estas técnicas llevan los datos a un nuevo nivel de utilidad: el de la simulación. Podemos manipular los datos pasados para simular modelos futuros bastante precisos y probar distintos escenarios.

Los datos no solo sirven para tomar decisiones. Sirven para poner a prueba nuestras decisiones antes de tomarlas, simularlas y crear escenarios probabilísticos con los resultados posibles. Así se abre la puerta al 4º nivel: el PRESCRIPTIVO. Si yo puedo simular y probar escenarios, puedo recetar lo que más conviene hacer. Ya los datos no solo son la VERDAD, son también el FUTURO.

Los problemas…

No me quiero ir sin terminar de arruinarle el día. Esta nueva etapa viene llena de problemas. El Data Science no viene a simplificar nada, llegó para complicarnos la vida. Este viraje a la centralidad del proceso analítico y a las etapas predictiva y prescriptiva trae varios problemas nuevos:

La moneda…

El análisis de datos se vuelve más caro. Estos niveles de análisis son muy costosos en términos de dinero, tiempo y recursos. Se necesitan equipos multidisciplinarios que aprendan a trabajar en simultáneo. De base se requiere alguien que entienda de programación orientada a DS y de alguien que conozca en profundidad las reglas del negocio. No se puede explorar los datos sin saber cómo hacerlo, pero tampoco sin entender lo que los datos significan.

El tiempo…

Lleva más tiempo llegar a los resultados. El armado del embudo, sobre todo la etapa inicial de limpieza, consume mucho tiempo. El modelado de los datos es un proceso de iteración en el cual se ponen a prueba distintos algoritmos y se los evalúa en su rendimiento.

Es un proceso lento en el cual el embudo se re-formula muchas veces hasta llegar al modelo final.

El entendimiento…

Las personas involucradas en este proceso deben tener un nivel de capacitación más sofisticado que el actual. Los perfiles de informática deben tener un mayor entendimiento de los datos en relación al negocio y de las preguntas que los gerentes quieren responder. Y los decisores necesitan entender rudimentariamente las técnicas de modelado que se ponen en juego. No digo que deban saber programar como expertos, pero sí entender lo que ocurre en términos estadísticos y algorítmicos.

Los errores…

Según un estudio realizado hace unos años: una de cada 3 planillas de Excel tiene algún tipo de error. ¡Esto quiere decir que 1 de cada 3 veces que se toma una decisión viendo una planilla de Excel, se está haciendo sobre información equivocada! ¿Se imagina la cantidad de errores que se pueden cometer en el proceso de DS completo desde su inicio hasta el resultado final?

Listo, me voy a dormir satisfecho, con el objetivo cumplido de haberle quitado el sueño. Le avisé que hoy no tengo un buen día.

Autor Lic. Martín Marcelo Sgattoni