Aunque hace dos décadas el término siquiera existía, y en los últimos años los únicos avances que se han materializado provienen de la Inteligencia Artificial débil o Narrow, el sueño de materializar artificialmente un cerebro humano ostentado por Allen Newell y Herbert Simon se terminará alcanzando en algún momento.
No es cuestión de saber cuándo, sino de entender cuál será el camino tomado por la ciencia y la ingeniería para llegar hasta ahí. Y en ese proceso gradual, del que John Searle ya teorizaba en la década los 80, participa transversalmente el Machine Learning; un campo de aplicaciones y mejoras autónomas para las organizaciones.
Según recoge KPMG en un estudio, el 47% de las empresas españolas ya dedican más de 8 millones de euros a proyectos relacionados con la Inteligencia Artificial y el aprendizaje automático. El 25% de estas organizaciones asegura destinar hasta 44 millones de euros en reorientar todo el modelo de negocio hacia los algoritmos y la automatización de procesos.
En otro informe Grand View Research estima que para 2025 el mercado del Machine Learning ya valdrá casi 100.000 millones de dólares a nivel mundial. Lo que implica que consolidaría un crecimiento porcentual en volumen de negocio de más de cuatro dígitos. Para ello solo necesitaría un lustro de esfuerzo sostenido por fondos de inversión, corporaciones e instituciones.
Gartner cree que a finales de 2020 más del 40% de las aplicaciones obtenidas a través de los datos ya estarán automatizadas, y el IMF Business School calcula que en tan solo dos años 1 de cada 5 profesiones estará relacionada de alguna forma con la Inteligencia Artificial, en constatación de un aumento del 92% de la demanda laboral nacional en el campo.
La plataforma Cloudera sitúa en el 35% las grandes compañías de España, Francia Alemania y Reino Unido con una integración avanzada de Machine Learning, y en el 31% las que están en todavía en proceso. Además, un 47% de las empresas ya estarían invirtiendo y otro 40% esperaría hacerlo en los próximos dos años.
Mire donde se mire solo es posible encontrar expectativas, inversiones multimillonarias, investigaciones publicitadas con barroquismo, y muy poco pragmatismo. Es innegable que la Transformación Digital ayudó a consolidar fantasías de la ciencia ficción, y a romper las líneas de resistencia que presentaba el modelo de mercado imperante durante la segunda mitad del siglo XX.
Sin embargo, lo que desprende optimismo es también una espada de doble filo. Y es que, si el contexto en el que afloran los avances tecnológicos está rodeado de idealismo, y cada logro refuerza sesgos e ideas preconcebidas, el espacio para la crítica y la reflexión desaparece.
El Machine Learning, cuyo despegue data de 2002 o 2003, está sumergido en esta zanja de pronósticos bombásticos participada por las consultoras y las grandes corporaciones.
Las primeras volcadas en el optimismo que genera más interés, retroalimenta la demanda y reparte beneficios; las segundas déspotas en su manejo de la imagen pedagógica que predican al publicitar éxitos y esconder fracasos.
“No se han desarrollado máquinas con objetivos e intenciones autosuficientes a largo plazo, ni es probable que se haga en un futuro próximo”. Esas son las templadas conclusiones de la Universidad de Standford en el trabajo “Artificial Intelligence and Life in 2030".
¿De dónde salen entonces los pronósticos y las florituras? El auge del Machine Learning ha provenido y está surgiendo en la actualidad de pequeñas implementaciones derivadas del abaratamiento de equipos para procesar los datos necesarios.
El tótem de explotación es la Deep Neural Network, una red de algoritmos compuesta por funciones lineales muy sencillas muy profundas, pero con gran cantidad de variables.
Este conjunto de códigos permite programar tareas automatizadas en base a predicciones fácticas de patrones causales conocidos. Ahora bien, esta definición encaja con la Neural Network. La introducción de nodos dota de profundidad a la red y le da herramientas para predecir soluciones ante una tarea y sacar conclusiones utilizando la experiencia previa.
“La red neuronal necesita aprender constantemente para ir cualificando las resoluciones, o incluso utilizar varios métodos para proporcionar un mejor resultado”, explica Anastasia Kyrykovych de Listlink. “Cuando recibe nueva información en el sistema, aprende a actuar de acuerdo a una nueva situación”.
El método se viste de profundidad cuando las tareas a resolver se van haciendo más complejas. “La red neuronal profunda representa el tipo de aprendizaje cuando el sistema utiliza muchas capas de nodos para derivar funciones de alto nivel a partir de la información de entrada.”
Por eso esta tecnología ni responde a utopías húmedas ni proporciona saltos abruptos en términos de procesos para las empresas. Su propio funcionamiento empuja a pensar en soluciones a pequeña escala y respuestas prácticas a necesidades ya presentes.
La ACEC apunta que “la adopción del Machine Learning en ningún caso implica romper con el pasado y empezar de cero, sino que combina toda la experiencia y el conocimiento previo del negocio con los nuevos datos recogidos para que, una vez tratados con los procedimientos adecuados, aporten nueva información más completa y útil.”
De tal forma que el perfeccionamiento de la tecnología depende de la capacidad de procesamiento de información. Y esta es limitada.
“Hay que ser realistas. De lo que somos capaces hoy en día es de dar un conjunto de casos de entrenamiento, y de encontrar otro similar al ofrecido”, relata el ingeniero de Google Israel Olalla.
“Me enseñan una foto de un sitio, y soy capaz de reconocer el sitio. Soy capaz de establecer relaciones entre cosas. Pero ya está”.
A ese discernimiento entre deseos y realidad también se acoge Ralph Herbrich, director de Machine Learning de Amazon. “Es cierto que hay unas expectativas que no siempre son realistas”, opina. “Todas las decisiones que toman los algoritmos se basan en la recogida de datos durante años”.
La restricción, según él, vendría por la eficiencia energética, sin la cual no se podrá avanzar mucho más. “La inteligencia artificial general [fuerte] es una construcción teórica bonita, pero poco más”.
Los directivos y gerentes que son conscientes de este hecho son los que representan a las empresas mejor posicionadas para liderar la competitividad obtenida con algoritmos. Los ejemplos no son escasos, y de ellos pueden aprender otros emprendedores para no caer en estrategias tendenciosas.
Al margen de relatos académicos o técnicos, y de contenidos patrocinados con lenguaje sesgado, la mejor forma que tienen los responsables tecnológicos y digitales de las organizaciones pasa por estudiar con calma qué es lo que están haciendo algunas compañías.
El rey del e-commerce no solo es conocido por los escarceos mediáticos y laborales de su máximo ejecutivo, los drones de reparto o la agresiva política de internacionalización.
Amazon es una de las multinacionales con más interés en el Machine Learning, y es fácil percibirlo en las palabras de sus propios trabajadores.
“El uso masivo de algoritmos y métodos matemáticos para analizar y digitalizar la información es clave para vender de forma más fácil y barata”, apostilla Herbrich, quien desde 2012 lleva trabajando para mejorar el servicio que ofrece la tienda tanto a anunciantes como compradores.
En 2020 el gigante del comercio ha abierto una universidad (MLU) para atraer el talento interesado en este tipo de tecnología algorítmica, maneja a millones de clientes a través de la herramienta de gestión Amazon Web Service (AWS), y se ha lanzado a sustituir todos sus departamentos de Atención al Cliente anteponiendo inteligencias adaptadas al clásico diagrama de flujos.
“Hemos empezado a introducir agentes automatizados que usan redes neuronales en lugar de reglas”, recogían en una nota de prensa. “Estos pueden manejar un rango más amplio de interacciones con mejores resultados, permitiendo a nuestros representantes de ATC centrarse en tareas que dependen más del juicio humano”.
Esta suerte de chatbots todavía tienen que demostrar su eficiencia, pero la medida ya es de por sí ejemplo de la importancia que tienen las ecuaciones en el Plan de Negocio de la marca.
“Es la tecnología que nos permite escalar los procesos existentes para ofrecer más valor al cliente” añade Herbrich. “Los primeros libros del catálogo de Amazon fueron registrados manualmente. Había gente que se los tenía que leer y luego organizar por temática, autor, etc. Ahora, más del 90% de ese proceso lo realizan algoritmos”.
“También hay casos en los que la IA literalmente posibilita la existencia de productos. Alexa sería imposible sin un sistema de reconocimiento de voz apoyado en machine learning”.
La estrategia de la compañía pasó por reestructurar un mercado ya ampliamente asentado en decenas de países, para así poder ir optimizando áreas de negocio con pequeñas soluciones tecnológicas. Lo mismo que recomiendan hacer los expertos a empresas con menos recursos, pero escalado a una dimensión nunca vista.
A partir de ahí trabajaron a nivel de imagen para potenciar la publicidad de proyectos y avances, atrayendo con ello al posible talento originado en torno al Machine Learning.
Los ejecutivos se olvidan de ser los primeros o ser los más punteros, y se centran en crear un ecosistema cerrado capaz de asegurar el dinamismo de la organización en el futuro dinámico que le espera a la IA.
“Formamos a nuestros propios ingenieros y a los socios de Amazon y los exponemos a tecnología puntera”, presume Swami Sivasubramanian, vicepresidente de AWS. “Ahora, estamos replicando esto de forma gratuita como parte de los programas de formación y certificación”.
Todo ese refuerzo a nivel laboral permite a la empresa contar con profesionales capaces de asimilar rápidamente las últimas innovaciones tecnológicas y desarrollar productos y servicios de gran calidad.
Al mismo tiempo los esfuerzos por crear un estándar de trabajo controlado, se allanaba el camino para que desarrolladores y otros socios operaran con Inteligencia Artificial empleando herramientas Amazon.
“Las organizaciones que quieran utilizar machine learning con asiduidad pueden apostar por SageMaker, un servicio totalmente automatizado que elimina el trabajo más tedioso, la complejidad y las conjeturas de cada paso del proceso, permitiendo a ingenieros y científicos utilizar con éxito esta tecnología”, describe el vicepresidente.
Y la cosa no termina ahí. El último frente de acción lo representan los propios clientes. En 2018 el proyecto de Jeff Bezos sorprendía al mundo con Amazon Go, la primera tienda del mundo sin cajeros y sin empleados; únicamente gestionada por robots operados mediante el aprendizaje profundo y el Machine Learning.
Conocedores de las críticas que suscitaría tal decisión, y conscientes del valor humano de su cuidado equipo, en 2019 invertían 700 millones de dólares para formar y reciclar a los trabajadores.
Al igual que Amazon se ha visto consolidada frente a la competencia gracias a la IA durante la pandemia, su prima Google ha ganado impulso en el campo con una novedad que ni siquiera los profesionales más cercanos al gigante tecnológico esperaban: AutoML.
En 2020 no habría espacio para una nueva edición del I/O, el famoso evento donde se presentó la voz modular Duplex —capaz de imitar el tono del usuario a la perfección—, o la última versión remozada y cualificada de las Google Lens.
Pero eso no ha impedido que en primavera liberaran los resultados y las especificaciones del trabajo de investigación detrás de un complemento revolucionario para los programas existentes de Machine Learning.
AutoML es la declaración de intenciones más explícita de una compañía que lleva toda una década tratando de abandonar su imagen como “Buscador de Internet”, para ganarse de forma genuina la etiqueta de “empresa de Inteligencia Artificial”. Y es que, esta IA propia promete ser capaz de mejorar y entrenar otras inteligencias identificando patrones de forma automática.
Vendría a ser como la IA de las IAs; una suerte de Gran Hermano robotizado capaz de operar por sí mismo. Al eliminar el componente humano del proceso, AutoML acaba con el temido sesgo propiciado por la mano de los ingenieros, e invita a pensar en un futuro de máxima eficiencia y posibilidades casi infinitas.
“Formulando componentes funcionales y utilizando únicamente funciones matemáticas básicas desde cero, optimizamos y mejoramos la Neural Network, el descenso de gradientes, las interacciones multiplicativas, la ponderación de peso, el normalizado de gradientes, y similares”, recoge el paper.
Entre tanto tecnicismo no se esconde más que una respuesta horizontal a una limitación técnica que nada tiene que ver con Skynet y las consignas alarmistas de los luditas.
Traducido a una mayor literalidad, AutoML emplea un algoritmo genético para crear redes neuronales de dos capas; espacios de mayor efectividad que las redes Deep Learning compuestas por cientos de capas.
En una búsqueda de la estandarización en el sector similar a la perseguida por Bezos, Google estaría postrada al deseo de crear un protocolo universal de control privado que le de posición de referencia en el sector. Eso sí, la multinaicional de Mountain View no se dedica en exclusiva a la investigación.
Smartphones, gadgets, servicios integrados. Google ha dedicado la última década al desarrollo de productos tecnológicos alimentados por los algoritmos del Machine Learning, ya la creación de una gran plataforma autónoma y especializada para empresas y profesionales.
Es a lo que han llamado Google Cloud; espacio formado por el repositorio de componentes plug-and-play AI Hub, por el entorno de desarrollo para science data AI Platform, y por otros tantos recursos de fácil acceso para interesados por la experimentación y aplicación del aprendizaje automático en soluciones generadoras de valor económico, académico y social.
“Día a día, la IA está facilitando a la gente hacer tareas, ya sea buscar fotos de sus seres queridos, romper las barreras del idioma en Google Translate, escribir e-mails en movimiento, o hacer cosas con el Asistente de Google”, recogen como alegato corporativo.
“La IA también proporciona nuevas formas de ver los problemas existentes, desde replantear la asistencia sanitaria hasta avanzar en los descubrimientos científicos”. Esta misión de carácter social diferencia a Google de otras empresas competidoras, y la lleva a profesar una responsabilidad plasmada en determinados principios de máximo cumplimiento.
Pese a que los medios y el público entienden el Machine Learning y la Inteligencia Artificial como un puñado de productos tecnológicos innovadores, lo cierto es que empresas y académicos todavía están lejos de abandonar la actitud curiosa de aquel que da sus primeros pasos por terreno desconocido.
¿Por qué solo Google y las grandes “techs” son las que se vanaglorian en este campo? David. A. Teich, de Forbes ya los explicaba hace dos años. "Las tecnologías y técnicas de IA y ML son todavía tan nuevas que los principales early adopters son las grandes empresas de software, capaces de contratar e invertir en el talento necesario"
Esto no quiere decir que cada vez más empresas estén detectando el beneficio y la rentabilidad de los algoritmos, pero sí que el fenómeno todavía es difícil de estudiar desde las políticas empresariales y los productos y servicios del mercado.
En 2020 el uso del Machine Learning es específico y limitado a cuestiones particulares; el ajuste de muros de pago en medios online, optimización en la fabricación de semiconductores para reducir los desechos, monitorización automática de procesos. Adam Carrigan, CEO de MindsDB expone algunos campos de interés:
Cadena de suministro y gestión de inventario: el Deep Learning permite anticiparse a la demanda de nuevos productos e identificar los posibles factores que podrían afectar a dicha demanda.
A ello se suma la posibilidad de reducir costes de gestión, ajustar niveles de inventario y aumentar la rotación de existencias. Destaca el sistema “Watson” de IMB, capaz de identificar containers dañados a través de patrones visuales.
Detección de fraudes: combinando el aprendizaje supervisado y el no supervisado se puede tanto aprender de prácticas habituales como encontrar patrones de datos que podrían haber alimentado las técnicas. Así es como MasterCard aplica un seguimiento de datos de compra, volumen de la transacción, ubicación y otras variables para prevenir el fraude con Machine Learning.
Mantenimiento predictivo: el principio de la monitorización ya es la anticipación de peligros y errores. Por eso no sorprende que algunas empresas ya estén implementando el aprendizaje automático en el análisis predictivo de procesos. Por ejemplo, la compañía ferroviaria belga Infrablel, empleado una herramienta que proporciona alertas optimizadas y automáticas cuando se produce alguna anomalía.
Control y conversión de Leads: la principal preocupación de las empresas e-commerce es la fidelización de los clientes. La saturación del mercado y la frugalidad con la que actúan las personas en la red convierte al abandono de carrito en una pesadilla. En este sentido, compañías como Adobe y su motor de optimización Adobe Target, están marcando la senda a seguir para aumentar las tasas de satisfacción mediante algoritmos.
Como en tantos otros campos de la Transformación Digital, la experimentación es un mínimo denominador común en todos los avances del aprendizaje automático y el Machine Learning.
En los próximos años los resultados y avances teóricos ayudarán a despejar la incertidumbre. Y aquellas empresas más informadas serán las mejor posicionadas para liderar los mercados del futuro. Llama al 900 676 535 o visita nuestra web si quieres realizar ese viaje junto a Yoigo Negocios.