¿Debemos desconfiar de los algoritmos de la Inteligencia Artificial?


A principios del siglo XIX media Europa combatía contra los avances de la Francia imperialista, y la otra media se desgajaba por la precarización y el abandono de sistemas de trabajo milenarios. Eran los ingredientes perfectos para el incremento de la tecnofobia, un sentimiento inherente al ser humano.

Basta con mirar hacia el pasado para descubrir cómo las sociedades de la época creían que viajar a 50 kilómetros por hora descomponía los cuerpos, o que los cableados eléctricos de las calles estrangularían a quien paseara por las aceras. Visto con perspectiva aquellas ínfulas parecen nada más que eso, locuras.

Pero el miedo al futuro siempre nos ha hecho desconfiar del progreso, de lo desconocido. “El Homo sapiens, el hombre sabio, ha convergido en la historia con el Homo faber, el hombre que crea o fabrica”, explica a La Vanguardia el catedrático de Psicología Industrial Jose María Prieto.

En la actualidad, quienes piensan como Homo sapiens utilizan el conocimiento como fuente de sabiduría, mientras que aquellos que razonan como Homo faber utilizan la tecnología como herramienta para solucionar problemas. Mientras el sapiens se angustia ante una nueva tecnología, el faber sabe que es una incógnita que tendrá que resolver”.

¿Cuál será la postura adoptada frente a la Inteligencia Artificial? En el pasado la respuesta pasó por una lucha dialéctica —y física— entre aquellos que temían por sus derechos y los que abogaban por el progreso a toda cosa.

La sombra del progreso tecnológico

A finales del XIX la revolución industrial estaba dando paso a un nuevo orden mundial en el que la aristocracia era sustituida por la burguesía. Es decir, aquellos que tenían la propiedad de los medios de producción. Esas máquinas que habían facilitado procesos, ahorrado tiempo y hasta evitado miles de muertes al día.

Los trabajadores, sin embargo, olvidados por unos y otros, veían cómo sus condiciones de vida no dejaban de empeorar ¿Cómo era posible?

La huida a las ciudades y al abandono de los trabajos agrarios había reducido enormemente los niveles de pobreza, la medicina avanzaba a pasos agigantados y los niveles de violencia habían disminuido como nunca antes en la Historia. Sin embargo, el desencanto general crecía.

Esto era especialmente palpable en las fábricas textiles, donde las diferencias entre los trabajadores y los gerentes en torno a los salarios, los programas de formación o los derechos laborales habían creado un clima de tensión insostenible.

En 1811 la olla a presión confluyó con los efectos arancelarios de la guerra con los galos terminó explotando y llevándose por delante a aquello que marcaba la frontera entre pasado y futuro: la tecnología.

El 11 de marzo de aquel año un grupo de obreros ingleses destruyó 63 telares como muestra de protesta, mientras elevaban el mito de Ned Ludd; una figura de inspiración para la clase que daría que en realidad nunca existió, pero que permitió extender el odio hacia el progreso. Habían nacido los luditas.

Pronto se extendieron por toda Inglaterra y durante años sembraron el caos entre los empresarios que abrazaban más la reducción de costes profesada por la revolución industrial. Para los trabajadores era casi como un medio de coerción para luchar contra el desempleo que traían las máquinas, pero siempre redundando en la misma fobia reactiva.

Hay quienes consideran el ludismo como un movimiento reaccionario contra el capitalismo, pero otros siguen apuntando hacia el miedo —o más bien la desconfianza—hacia la tecnología, hacia un análisis ético de la tecnología como intruso en la cohesión social. Este enfoque ha persistido hasta la actualidad, aunque ya alejado de sus postulados armados.

El legado histórico del movimiento ludita fue reformado a lo largo del siglo XIX para permitir a la sociedad victoriana enfrentarse a una cuestión más amplia y abstracta: ¿cuál es el papel adecuado de la maquinaria en la modernidad?”, explica James C. McKusick en alusión a Steven E. Johns y su obra “Against Technology: From the Luddites to Neo-Luddism”.

La ‘cuestión de la máquina’ de la época victoriana acabaría dando lugar a un dilema aún más amplio para la cultura del siglo XX: la cuestión de lo que constituye la ‘tecnología adecuada’ y el temor a que los humanos sean sustituidos por robots (o ciborgs)”. Un debate que, paradójicamente hoy abanderan algunos de los principales magnates de las gigantes tecnológicas.

Los Premios Luditas, organizados desde el pasado 2015 han tenido entre sus premiados a figuras como Stephen Hawking o Elon Musk y a empresas de la talla de Microsoft, Dell o Google.

Estos nuevos luditas pretenden “convencer a la sociedad y a los políticos de que la innovación tecnológica debe ser temida y contenida”, señalan desde ITIF. O lo que es lo mismo, quieren un mundo libre de innovación y de cambios incontrolados. ¿Están protegiendo su propio estatus?

Sea así o no, el dilema abierto por unos trabajadores británicos hace más de dos siglos, y traducido en el presente por el deseo de prohibir la robotización “asesina” o la resistencia frente a la tecnología de la economía colaborativa, rima con los ecos de reserva que empiezan a florecer hacia el veloz avance de la Inteligencia Artificial.

¿Dejarse llevar o nadar a contracorriente?

La pandemia de la COVID-19 no ha hecho sino acelerar los procesos de transformación y acortar los pronósticos. De acuerdo con un informe de PwC, en 2030 la Inteligencia Artificial ya podría tener un peso en la economía mundial de 15,7 billones de dólares (miles de millones, no el “bi” americano). Para ponerlo en contexto: el equivalente al PIB de China y al de India juntos.

De acuerdo con Peter Stone, participante del informe Inteligencia Artificial y vida en 2030 de la Universidad de Stansford, para entonces “las aplicaciones de IA serán más comunes y útiles. Mejorarán nuestra economía y nuestra vida”. Pero claro, esta tecnología no será del todo límpida.

Al igual que sucedió con los avances de la revolución industrial, también rodeados de idealismo y promesas, los algoritmos traerán consigo efectos nocivos importantes para las economías. Afectará “a empleos, ingresos y a otros asuntos que deberíamos comenzar a abordar ahora para asegurarnos de que sus beneficios son ampliamente compartidos”, continúa Stone.

Cuando los drones de reparto sean comunes, los vehículos autónomos pueblen las carreteras y los robots se encarguen hasta de la seguridad y la limpieza de los hogares ¿cómo se podrá convencer a las personas de que la Inteligencia Artificial es completamente segura? Para los expertos del panel la respuesta pasa por la transparencia y la comunicación.

Y es que hasta hace unos pocos años esta tecnología no pasaba de protagonizar unas cuantas películas y libros de ciencia ficción al año. Antes de que Tesla hablara de la conducción autónoma, de que Google afilara su buscador con un ente pensante propio o de que incluso el Gobierno español aprobara la inversión de 600 millones de euros hasta 2023, los ciudadanos ya tenían una imagen definida de la IA.

"Metrópolis", "Blade Runner" o incluso "Una odisea en el espacio" han definido durante todo un siglo los límites de esta tecnología. El problema es que el proceso se ha sustentado sobre la ficción, y por tanto, la libertad creativa de cada autor.

Ahora, cuando la Inteligencia Artificial llega a la realidad en forma de soluciones domóticas y no robots asesinos, la desconfianza resulta difícil de eliminar.

De acuerdo con una encuesta a casi 1.000 expertos del Pew Research Center, en una década la IA habrá amplificado la efectividad humana, pero también estará amenazando “la autonomía, la capacidad y el poder del ser humano”. Los algoritmos terminarán superándonos y en el proceso nos expondrán ante nuestra propia evolución como especie dominante.

Los ordenadores podrían igualar o incluso superar la inteligencia y las capacidades humanas en tareas como la toma de decisiones complejas, el razonamiento y el aprendizaje, el análisis sofisticado y el reconocimiento de patrones, la agudeza visual, el reconocimiento del habla y la traducción de idiomas”.

Así pues, el potencial de la Inteligencia Artificial deberá ser moldeado de forma responsable. No hay que olvidar que avances como los del Procesamiento de Lenguaje Natural (PNL) o los de simplemente el Machine Learning, avocan a un futuro en el que los algoritmos serán autónomos y podrán tomar decisiones importantes por sí mismos.

Por eso sumergirse en el mundo de la Inteligencia Artificial no es simplemente comprar una nueva máquina o suscribir un servicio digital especializado. Detrás de estas decisiones radican importantes debates éticos, históricos y claro, mercantiles.

La firma de la empresa en el algoritmo: el sesgo

Los algoritmos no son malos per se; lo son quienes los crean. El sesgo está presente en toda creación humana, y la Inteligencia Artificial está compuesta de softwares programados por especialistas con sus propios valores, creencias y formas de ver el mundo. Analizar esta tecnología como un ente supremo y omnisciente es un completo error.

Y para muestra un botón. En 2016 la organización ProPublica realizó un exhaustivo análisis de COMPAS, el sistema judicial de Estados Unidos que identifica a los sospechosos haciendo uso de una gran base de datos automatizada. ¿Qué descubrió?

Si bien el algoritmo era preciso en su cometido, cuando fallaba siempre lo hacía en la misma dirección: criminalizando el doble de veces a los negros sobre los blancos.

“Los algoritmos en sí mismos son casi perfectos, pero el riesgo radica en el error de los datos. Ahí es donde está el sesgo, porque vienen de personas y las personas, todas, están sesgadas de distintas maneras”, apunta Blaise Agüera y Arcas, responsable de Inteligencia Artificial en Google. Para controlarlo, las proveedoras están construyendo importantes departamentos de ética.

Son profesionales expertos en las consecuencias sociales que puede tener la tecnología sobre los derechos de las personas. En esa línea iniciativas como Algo-care for policing o FATML defienden una declaración de impacto social que permita dirimir el alcance de cualquier algoritmo:

  • Responsabilidad: que haya a quién dirigirse cuando funcione mal.
  • Explicable: a las partes interesadas en términos no técnicos.
  • Precisión: para identificar las fuentes de error e incertidumbre.
  • Auditoría: para permitir que terceras partes comprueben y critiquen.
  • Imparcialidad: para los diferentes grupos demográficos.

Todos estos son factores importantes para las empresas que generan los algoritmos, para sus consumidores y también para las organizaciones que implementan soluciones IA en procesos.

Resulta, de hecho, vital que estos softwares estén alineados éticamente con las líneas de comunicación RSC de las compañías. Más allá incluso de si el recurso genera o no valor.

En las grandes empresas lo que más se utiliza en lo que algoritmos laborales se refiere son los llamados de screening”, relata a El País Gemma Galdón, fundadora de Eticas Research Consulting. “Las que gestionan un gran volumen de currículums lo que hacen es que el algoritmo determina qué currículums superan el umbral mínimo de requisitos”.

Este es solo uno de los muchos ejemplos que podemos encontrar hoy sobre la presencia de IA en la actividad empresarial, pero sirve igualmente para entender la responsabilidad asociada a los códigos cuando de ellos dependen los intereses no solo de las organizaciones, sino también de todos sus stakeholders.

¿No hay solución alguna? La ciencia ha estudiado durante décadas fórmulas para reducir el sesgo computacional sin mucho éxito. Xabi Uribe-Etxebarria, ceo de Serpa-ai, reconoce la presencia del anglicismo “bias” en los algoritmos, pero también pregona que “tienen muchísimos menos sesgos que un humano”.

Más que una justificación es una ventana para la esperanza. La Inteligencia Artificial siempre será imperfecta, pero las empresas irán aprendiendo con el tiempo cómo hacer un uso moralmente responsable de sus algoritmos, para alcanzar esos beneficios defendidos por sus acérrimos. Las que no lo hagan terminarán cayendo en desgracia.

El camino de confianza hacia los algoritmos y el castigo hacia los que se quedan en casa

Aunque todavía no existe un marco judicial claro, algunas sentencias ya están marcando el trayecto a seguir por los tribunales en el futuro. Hablamos de la responsabilidad legal frente a los posibles daños generados por un algoritmo. No es una cuestión baladí si tenemos en cuenta que estos regirán gran parte de la sociedad en el futuro.

Y por el momento la respuesta no es nada positiva para las empresas. El pasado enero un tribunal italiano sentenció contra Deliveroo por el funcionamiento pernicioso de un algoritmo utilizado por la compañía de repartos para premiar o penalizar a los trabajadores. Si el rider cancelaba un pedido, el programa castigaba automáticamente al empleado con independencia del motivo.

El juez consideró en este caso que la culpa era de la compañía, pese a que el software lo utilizaran sus encargados. Es decir, que el peso penal siempre recaerá sobre el autor de los códigos, y no sobre quien los utiliza, pese a ser este último el artífice manifiesto del perjurio sobre terceros.

Para prevenir este tipo de situaciones, se encomienda a las organizaciones que revisen cuidadosamente sus soluciones de Inteligencia Artificial antes de ponerlas en marcha. Es tan sencillo como:

  1. Revisar cómo recopila información el algoritmo: ¿transgrede alguna ley? ¿se excede sobre los mínimos que impone el RGPD? Este funcionamiento está en las mismas líneas de código del software.
  2. Realizar un análisis de impacto: o lo que es lo mismo, calcular y visualizar el alcance del algoritmo para prever qué grupos de interés podrían salir dañados si este funciona de forma incorrecta.
  3. Analizar cómo interacciona el algoritmo con el usuario: estudiar qué tipo de respuestas ofrece la IA al individuo en caso de que este tenga que actuar manualmente con la información previamente ofrecida por parte del programa.

Principalmente, los errores están en los inputs de datos”, sostiene Galdón. Atacar sobre ese frente suele ayudar a prevenir otros muchos problemas futuros. El problema está cuando la empresa no es autora del código y aún así quiere defender su imagen en caso de polémica por alguno de los algoritmos contratados.

Para eso, la filósofa Onora O’Neil aconseja abandonar la pasividad tradicional de las organizaciones en materia de prestigio. No es hacer y esperar a que confíen en ti, sino “aspirar a demostrar credibilidad, lo que requiere honestidad, competencia y fiabilidad”. Y esto, hablando de la Inteligencia Artificial, pasa por identificar mensajes claros:

  • Sobre el sistema: lo que dicen los desarrolladores que puede hacer el algoritmo y cómo se ha llegado hasta esas conclusiones (su evaluación).
  • Por parte del sistema: cómo responde el algoritmo en un caso específico. Se puede evaluar lanzando preguntas sobre la pertinencia de la resolución, la cadena de razonamiento para llegar hasta ella o la suposición contrafactual. Es decir, qué hubiera pasado si los datos fuesen diferentes.

Eso sí, para poder dar respuesta a todo esto el algoritmo debe ser transparente. Para O’Neil eso significa que el software tenga unas características concretas: accesible (fácil de encontrar), inteligible (o comprensible), utilizable (capaz de responder a tus necesidades) y evaluable (disponible a reclamaciones si lo necesitas).

Un algoritmo fiable debe ser capaz de mostrar su funcionamiento a quienes quieran entender cómo ha llegado a sus conclusiones”, zanja David Spiegelhalter en el papel “¿Deberíamos confiar en los algoritmos?”. Buen título para una cuestión de solución quimérica.

En Yoigo Negocios no tenemos respuesta a estas grandes preguntas de la tecnología pero sí contamos con los recursos necesarios para tratar de resolverlas. Llama al 900 676 535 o entra en nuestra web si además de subirte a la ola digital, también quieres ser competitivo entendiendo en qué consiste.