No se trata de simples innovaciones extravagantes provenientes de mercados asiáticos. El pasado 30 de diciembre el comité de Salud Municipal de Wuhan alertaba de la llegada de una peligrosa neumonía de origen desconocido. Al día siguiente la Organización Mundial de la Salud (OMS por sus siglas) alertaba a instituciones de todo el mundo de una cepa nunca antes vista. Se trataba del coronavirus, pero la tecnología y el Big Data ya lo habían identificado varias semanas antes, y se estaban posicionando en un papel clave para la futura gestión de la crisis.
A miles de kilómetros de la ciudad china, la startup canadiense BlueDot llevaban casi un mes recopilando indicios de un problema sanitario, desde sus oficinas de Toronto. Mediante la analítica y el Big Data, esta empresa tejió todo un sistema de seguimiento sobre los cientos de mensajes que comenzaron a aparecer en redes sociales durante los primeros compases del mes de diciembre. ¿Cómo?
La analítica de un software desarrollado en 2014, gracias a inversiones de 10 millones de dólares, permitía procesar grandes cantidades de información para dar con la respuesta que varios meses más tarde pondría al mundo patas arriba. Este es solo un ejemplo de cómo ha evolucionado la tecnología en las últimas dos décadas, hasta convertirse en un pilar fundamental de las sociedades y economías del planeta.
La tecnología ya no es solo un valor diferencial en términos de competitividad, sino que ha trascendido el ámbito empresarial para ocupar un papel transversal en el progreso de la civilización y la sostenibilidad de la especie en el próximo siglo. Por eso gobiernos y empresas están volcadas a seguir alimentando un fenómeno, que de acuerdo con Reports and Data, el año pasado ya facturó más de 40.000 millones de dólares.
En la última “Guía mundial de gasto semestral en Big Data y analítica”, la consultora IDC fija los ingresos del sector en 260.000 millones de dólares para el año 2022. La industria crecería a un ritmo interanual del 11,9%, sin considerar los efectos que generará la crisis del coronavirus en las previsiones.
“La terminología propia del 'big data' es generacional, porque dentro de unos años ni siquiera deberíamos seguir refiriéndonos a este concepto, ya que la explotación de los datos a gran escala se habrá convertido en la norma dentro de cualquier actividad”, opina Jacques-Aurélien Marcireau, de Edmond de Rothschild Asset Management.
¿Qué hay detrás de este fenómeno? Desde el ámbito académico y los medios de comunicación se hace énfasis en los efectos más evidentes del uso del Big Data: la obtención de ventajas competitivas, de nuevos servicios, la generación de valor dentro del largo y amplio viaje de la Transformación Digital. E incluso se llega a hablar de la reducción de riesgos gracias al optimización en el proceso de toma de decisión.
Pero ¿y si ya se ha producido el desastre? La pandemia y multiplicación del COVID-19 demuestra que la analítica y monitorización no siempre son capaces de coordinar a los distintos agentes sociales para organizar una respuesta preventiva.
Existen determinados riesgos imposibles de anticipar, y cuando se adviene uno, los datos deben servir de herramienta reactiva. En las próximas décadas la gestión del riesgo será una cuestión clave para afrontar contextos cargados de incertidumbres y fenómenos desconocidos.
Los Estados son conscientes de ello, y eso explica por qué la Comisión Europea tiene previsto invertir 6.000 de los 20.000 millones de euros anuales destinados a la Transformación Digital del continente para la próxima década, en el “pumpeado” del Big Data. Lo que implicará crear, según el organismo, “normas prácticas, justas y claras para el acceso y el uso de los datos”.
Para el año 2030 se espera que la tecnología y los datos sean ya más importantes en la solvencia de crisis que el propio valor de los individuos. Ahora bien, esto no significa que la robotización lleve al trabajador a la marginalización del sistema.
La analítica es un proceso que debe ser controlado por una mano experimentada, y en ese sentido la formación será crucial para procesar un volumen de datos inabarcable. De hecho, algunos expertos estiman que el 99,5% de estos inputs generados no podrán ser analizados por escasez de mano cualificada y de infraestructuras.
Los retos son tan variados y numerosos, que, a fecha de 2020, las organizaciones se están limitando a aprovechar el Big Data en la medida que pueden hacerlo. Algunas multinacionales lideran la vanguardia del i+d con nuevas soluciones, mientras que los millones de pymes repartidas por todo el mundo se limitan a reforzar sus frentes más desprotegidos.
Es ahí donde ahora los datos constituyen un flotador salvavidas durante las crisis. Y esa es la razón por la que las empresas siguen con obsesión el manejo que países como China o Corea del Sur están haciendo del Big Data, para controlar la pandemia.
Si en la república de Moon Jae-in la mortalidad del virus no superó el 0,6%, fue gracias al férreo sistema de trazabilidad que se impuso en las primeras fases de la propagación. El diagnóstico temprano masivo alcanzado gracias a políticas de privacidad laxas, uso de aplicaciones móvil —Corona 100m, AliPlay Health Code —, analítica y Big Data, permitieron obtener una optimización real de los datos. Luis Sanz, CEO de la startup Carto, propone extender esta perspectiva tecnológica al caso español, cediendo recursos a la geolocalización.
“Toca reabrir la economía”, apunta. “Necesitamos saber qué efectos tiene, saber si mantenemos la enfermedad a raya. Con esta tecnología conocemos cómo se concentra la gente o si guarda la distancia de seguridad”.
Traducido al lenguaje empresarial, con datos una organización puede monitorizar su recuperación, sosteniendo una eficiencia crítica en un periodo de escasez de liquidez y recursos generalizados. No por nada el Big Data ya venía registrando un crecimiento imparable durante los años previos a la crisis.
Claro que, para replicar la efectividad de los gobiernos asiáticos en las organizaciones, es imperativo “tener información de calidad y hacer una buena gestión de los datos”. Desde Powedata aseguran que sin esta condición base, y sin una cultura organizacional que la sostenga, se complican los posteriores desarrollos de Big Data.
Por eso la información “debe ser precisa, normalizada, compatible con otras informaciones, orientada al usuario, oportuna, relevante, accesible y comprensible”. Algo imposible si no se trabaja la filosofía de empresa, y si no se cuentan con los recursos tanto tangibles como intangibles necesarios.
Aunque de las instituciones se puede aprender, lo cierto es que existe cuantiosa literatura al respecto de la gestión de crisis dentro de las empresas. Estas, acostumbradas a afrontar situaciones complejas, se han dedicado en las últimas décadas a estudiar el Big Data para implementarlo en los planes de viabilidad y los procesos internos. De esta manera nace un conocimiento que permite cruzar la tecnología con el ciclo de vida de toda crisis: pre, durante, y post.
“No es lo mismo disponer de datos a cierre de mes o a dos días pasados, que disponer de datos en tiempo real, lo que permite evaluar antes el resultado de las acciones tomadas y, por tanto, permite aplicar correcciones también antes”, apostilla Roger Agustín, CEO de Prenomics.
Cuando los datos no son capaces de detectar el peligro antes de que este ya haya provocado el daño, la información debe ser puesta al servicio de la coordinación para “ajustar y supervisar la ayuda que garantice la rendición de cuentas y el envío efectivo de recursos”.
Tal y como explican los autores de “Crisis Analytics: big data-driven crisis response”, tras esta fase de control el cerco sobre los riesgos debe proseguir y traducirse en la presentación de informes, la auditoría y la evaluación de la respuesta de la plantilla. Es decir, “examinar la respuesta a la crisis de una manera más completa, analítica y perspicaz para que se desarrollen conocimientos ante crisis futuras”.
En términos prácticos, la gestión de una crisis con datos no difiere de la gestión de una crisis convencional. El Big Data comenzó su penetración vertiginosa en las empresas siempre cumpliendo un papel de refuerzo.
Que algunos negocios tuvieran que reconstruirse para aprovechar esta tecnología, no quiere decir que los datos alberguen un espíritu reformador. Por eso no aporta valor indagar en el propio proceso de gestión de crisis, sino en los matices intrínsecos a la analítica y la clasificación de información en cada contexto.
Las empresas han tenido más de dos décadas para aproximarse al campo de los datos, y observar su evolución. En 2001 la consultora Gartner ya anticipaba que el crecimiento constante de datos era “una oportunidad y un reto para investigar el volumen, la velocidad y la variedad” de los mismos.
El enfoque de estudio se basaba en métricas ya conocidas para otros ámbitos, que resultaban prácticas para esta tecnología. Habían nacido las 3 V’s del Big Data, y durante los años posteriores se adjuntarían otras tantas, hasta hacer un total de 7.
En la actualidad son consideradas pilares de toda aplicación basada en la analítica, y por supuesto, también son cruciales en la gestión de una situación de riesgo. Los datos han dejado de ser una consecuencia para ser un objetivo en base a estos parámetros.
En la recogida de datos del análisis clásico, “el proceso pasaba por plantear unas preguntas y realizar una recogida y análisis para responder a las cuestiones presentadas”, recoge el informe “Big Data: crisis y nuevos planteamientos en los flujos de comunicación de la cuarta revolución industrial”, de Ediciones Complutense.
En cambio, los macrodatos, el llamado Big Data, “recoge todo tipo de información, enormes cantidades de datos estructurados, semi-estructurados y no estructurados, en tiempo real”, añade. “Lo que lleva a realizar nuevas preguntas diferentes a las iniciales, y a poder explorar otros campos.” Es la visión holística de este campo lo que permitió a las empresas comenzar a explorarlo de cara a reforzar todas y cada una de sus ramas productivas y de negocio.
A finales de este 2020 IDC pronostica que se moverán en todo el mundo 40 zettabytes. La cantidad de datos en una crisis es fundamental para lograr una optimización deseada. Y es que, aunque la lógica invita a pensar en el más, el flujo de inputs siempre ha de estar ligado con las capacidades propias. De nada sirve poseer la clave para salir del atolladero si esta no se puede asimilar para adoptar una respuesta adecuada.
En origen hace referencia a la velocidad de los datos en movimiento, a la rapidez en la que son creados, almacenados y procesados en tiempo real. Para una organización en situación de inestabilidad, este parámetro simboliza la capacidad de reacción. Es decir, el uso adecuado de los datos y de los recursos, para actuar en el menor tiempo posible, pensando que cada minuto que pasa implica pérdidas cuantiosas.
Los analistas estiman que el 90% de los datos generados cada año lo hacen de manera desestructurada. Esto supone un inmenso reto para aquellas empresas que trabajan a muy largo plazo, y fuerza a seguir perfeccionando las herramientas de procesamiento ya disponibles. En una crisis se revalorizan todas las fuentes de datos, y es importante saber redistribuir las prioridades para no descuidar a ningún stakeholder.
Las cuatro variables añadidas a las originales venían a servir para contemplar otras dimensiones derivadas del uso masivo de los datos que comenzaron a protagonizar las firmas tecnológicas más importantes del mundo.
Veracidad y variabilidad indican el “cómo” se interpreta la información, si es la indicada o no, y el nivel de fiabilidad que de ella se deriva. La visualización y el valor, en cambio, dibujan la disposición del conocimiento obtenido de los mismos datos; la forma en la que se presentan, y así sirven a un propósito.
Ni siquiera una crisis con efectos tan homogéneos como la que ha provocado el coronavirus permite predicar con normas universales frente a la inestabilidad empresarial. Cada negocio se encuentra inmerso en su propio contexto, con sus propias necesidades, socios y objetivos.
Hablar de Big Data, por tanto, siempre se hará desde una dimensión teórica. Para bajar a la realidad es necesario acudir a determinadas técnicas y herramientas con efectos probados, que ya se manejan en instituciones y empresas que reniegan del riesgo en el viaje de la Transformación Digital.
Para resolver o predecir un problema, se puede o bien acudir a expertos, o bien a máquinas, o bien a la muchedumbre. Lo primero acarrea asumir el sesgo y los prejuicios que estos profesionales puedan albergar, lo segundo depende de la cantidad de recursos manejados para obtener los algoritmos de Machine Learning más ventajosos, y puede ser contraproducente si se convierte en una meta en sí mismo.
Acudir a la muchedumbre, es decir, a los empleados, los clientes, los proveedores, el propio mercado, proporciona un conocimiento transversal de la crisis más valioso que ninguno otro generado desde supuestos, especulaciones y deseos.
En el campo sociológico está creciendo el uso de técnicas como el crowdsourcing, crowdcomputing, crowdsearching o el llamado microtasking. Las organizaciones, pese a no contar con enfoques tan amplios como las instituciones públicas, pueden atender tanto a los experimentos de seguimiento que ha propiciado la pandemia, como al interés por los ciudadanos de los organismos, para reorientar sus esfuerzos de Big Data hacia la mejora de los ecosistemas en los que operan.
“Sin una cosa no se entiende la otra”, explica José Gómez, responsable de Joselito. “Lo mejor es unir tradición y disrupción”.
Los datos seguirán creciendo y transformando la forma de ver el mundo, pero su instrumentalización nunca debería perder de vista la realidad a la que refieren. Caer en modas o replicar casos de éxito sin valorar el entorno propio siempre conllevará a la desilusión y el fracaso.
Si de acuerdo con un estudio de la consultora BTS, un 84% de las iniciativas de Transformación Digital fracasan por falta de consenso, es porque asimilar los sacrificios que conlleva salir de una crisis mediante el Big Data, en muchas ocasiones supera a los propios derivados de la inestabilidad.
Las barreras de acceso a estas tecnologías son cada vez menores, y en la próxima década habrá que estrechar la vigilancia sobre los peligros de sus usos. Ni siquiera las empresas más experimentadas estarán a salvo de los errores. El Big Data está en constante evolución, y para convertirlo en una herramienta capaz de solventar crisis en el futuro mundo digital requerirá de una cultura muy exigente.
En Yoigo Negocios seguiremos a la zaga de este porvenir, y si tú no quieres quedarte atrás con tu empresa, puedes visitar nuestra web o llamar al 900 676 535 para informarte.