El hombre superado por el hombre. Bajo esta premisa la ciencia ficción ha ido creciendo durante los últimos dos siglos. De acuerdo con un informe de la consultora Mckinsey Global Institute, para el año 2030 los robots ya habrán eliminado entre 400 y 800 millones de empleos en todo el mundo. La automatización del mercado laboral es imparable, y la Inteligencia Artificial es la principal responsable de esta revolución.
Los algoritmos evolucionan superando cada vez tareas más complejas, y los países intentan adaptarse con normativas y leyes que no terminan de asociarse al dinamismo de la transformación digital. En este contexto, surgen voces que abanderan la roboética como principal herramienta de control y protección. Como las reglas preponderantes para un mundo compartido por humanos y robots.
En menos de una década, entre 75 y 375 millones de personas tendrán que reorientar sus carreras laborales para adquirir nuevas competencias. Sus antiguos empleos no desaparecerán, sino que serán ocupados por un cúmulo de componentes tecnológicos, que en la actualidad solo son capaces de procesar inputs concretos, pero que en el futuro podrían alcanzar la autonomía absoluta. Esto impondrá un nuevo eje de vencedores y vencidos.
Los países con mayores avances tecnológicos liderarán la economía, mientras que los más rezagados quedarán al servicio de máquinas que no terminan de comprender. “Esa visión de la tecnología como una panacea para las desigualdades en el mundo siempre ha sido algo así como un espejismo melancólico, pero en la era de la IA podría convertirse en algo mucho más peligroso”, explica el empresario taiwanés Kai-Fu-Lee.
El conocido como “Elon Musk asiático”, cree que, si no se controlan estos avances, la Inteligencia Artificial terminará por agudizar de forma importante la desigualdad. “Abrirá una brecha entre las superpotencias de la IA y el resto del mundo”, añade. “Puede separar a la sociedad por motivos de clase con líneas divisorias que imiten la distópica ciencia-ficción de Hao Jingfang”.
La mención de la novelista china no es baladí, pues en la literatura se han tejido distopías que representan el potencial caos detrás de un mundo regido por robots. Si el capital es el actual responsable de la redistribución de la riqueza actual, las máquinas, sin pensar en ellas como seres pensantes, levantarían la frontera entre el nuevo eje norte-sur. Ahora bien, no se trata de asociar una naturaleza perversa a la tecnología.
Es el uso que se haga de los avances lo que medirá el ritmo con el que la IA gravita hacia la formación de monopolios. Al nacer en el sistema capitalista, y nutrirse de este, la dependencia de los datos (Big Data) para adquirir ventajas competitivas entre las empresas, perfilará un círculo vicioso.
“Mejores productos llevan a más usuarios, estos usuarios dan lugar a más datos y esos datos conducen a productos aún mejores, y por tanto a más usuarios y datos”, argumenta. “Una vez que una compañía da un salto y se pone en cabeza, esta clase de ciclo repetitivo puede convertir ese liderazgo en una barrera infranqueable para otras empresas”. ¿Cómo prevenirlo? Una vez más, para predecir el futuro hay que acudir a la ciencia ficción.
Entre expertos predominan los temores conscientes, aquellos que tienen más probabilidad de materializarse. Pero la roboética va mucho más allá de los efectos socioeconómicos que generará la conquista robótica. Sin caer en catastrofismos propios de Harlan Ellison, el ser humano está cada vez más cerca de convertirse en creador, y dar vida a la primera máquina con conciencia propia.
Es decir, con la capacidad de pensar por sí misma, de sentir, y de operar de forma autónoma en base a experiencias y sentimientos humanos. Casi ocho décadas después, el sueño de Alan Turing y John Von Neumann por crear una máquina que imitara al cerebro humano es más real que nunca.
Hace tres años, la revista Science publicaba un artículo en el que reafirmaba los sueños más utópicos. Según sus autores, Stanislas Dehaene, Hakwan Lau, y Sid Kouider, el desarrollo del Deep Learning y los refinamientos en el aprendizaje de las máquinas, inspirados por la neurobiología, han permitido crear redes neuronales artificiales que se equiparan, en incluso llegan a superar —en cierta forma— a la mente humana.
“Aunque estas redes no imitan las propiedades biofísicas de los cerebros reales, su diseño se ha beneficiado de varios conocimientos neurobiológicos, entre los que destacan las funciones no lineales de entrada y salida, las capas con proyecciones convergentes, y los pesos sinápticos modificables”, recoge.
Para evaluar la capacidad consciente de los últimos algoritmos, los científicos exponen una serie de categorías, que sitúan más o menos cerca a las creaciones de la mente pensante absoluta: el nivel 0 (C0), el nivel 1 (C1), y el nivel 2 (C2). El primero hace referencia a lo que comúnmente se conoce como subconsciente.
O lo que es lo mismo, a las operaciones que realizamos sin pensar activamente. Por ejemplo, conducir del trabajo a casa, o hacernos el desayuno por la mañana. Para las computadoras, esta categoría queda cubierta gracias a la conducción autónoma que empresas como Nissan o Tesla tanto han perfeccionado en los últimos años. También se engloban en el C0 la tecnología de reconocimiento facial y el reconocimiento del habla.
Por su parte, la categoría C1es la relativa a “la relación entre un sistema cognitivo y un objeto específico de pensamiento”. Los autores lo ejemplifican con el piloto del combustible que llevan los coches. La información seleccionada pasa posteriormente a ser procesada, y transmitida a través de informes verbales y no verbales. Es decir, que el input pasa a estar a disposición de todo el organismo.
Para realizar el mencionado filtrado de los datos que llegan del entorno, es necesario contar con una serie de sistemas receptores muy avanzados, que en las máquinas se han resuelto con infinidad de sensores. El ser humano percibe olores, ruidos y otros estímulos para así poder actuar en consecuencia; los robots harían lo mismo.
Cuando el sistema ya tiene la información, ha reaccionado, y sabe lo que debe hacer a continuación, se entra en el rango de la categoría C2. Es lo que se conoce como “autoconsciencia”, y lo que nos permite ser conscientes de dónde estamos, lo que somos, y que hacemos.
“Este sentido de la conciencia corresponde a lo que comúnmente se llama introspección, o lo que los psicólogos llaman ‘meta-cognición’; la capacidad de concebir y hacer uso de las representaciones internas de los propios conocimientos y habilidades”, añaden. Es, en definitiva, el nivel al que ningún otro ser vivo ha llegado, al menos por el momento. Y es que, si se cumplen las tres categorías, una máquina podría llegar a pensar por sí misma, siendo consciente de lo que es y del mundo que la rodea.
¿Estamos cerca o lejos del universo mostrado por “Yo, Robot”? Aunque se han producido importantes avances en la última década, lo cierto es que todavía parece una meta lejana. Hace cinco años, el profesor Selmer Bringsjord llevó a cabo un experimento en el laboratorio de Inteligencia Artificial Rensselaer con resultados sorprendentes: a tres robots Nao —los modelos humanoides—, se le presentó un enigma que resolver. Al grupo se le hace creer que dos de ellos han recibido una pastilla para perder el habla (en realidad solo se les ha desactivado a través de un botón). El investigador les preguntaba al respecto, y uno de ellos respondía: “no lo sé”.
Las propias palabras de este le hicieron darse cuenta de que no estaba silenciado. “Puedo demostrar que no me han dado la pastilla”, expresaba. Este procesamiento interno representaba el mayor acercamiento jamás visto de una máquina hacia el intelecto humano.
Tal y como recogía entonces New Scientist, era el claro ejemplo de que, si se siguen los caminos correctos, los robots podrán adentrarse en la autoconsciencia, derribando los límites marcados por las categorías de la misma. Ahora bien, de acuerdo con el propio Bringsjord, las carencias en la categoría 1 hacen imposible la conformación de un automatismo íntegro.
“Una de las razones por las que los robots no pueden tener una conciencia más amplia es que no pueden procesar suficientes datos”, explicaba. “Aunque las cámaras pueden capturar más datos sobre una escena que el ojo humano, los robots no saben cómo unir toda esa información para construir una imagen cohesiva del mundo”.
Lo mismo le sucedía a Nico, otro robot creado por la Universidad de Yale, que era capaz de reconocer su propia mano en un espejo, y lo mismo le ocurre a Q.bo; casual robot español reconocimiento facial que es capaz de identificarse a sí mismo. Ambos se sostienen en el foco porque pueden superar la llamada “prueba del espejo”. Eso sí, claro, sin la conformación de lo que Sigmund Freud entendía como el “yo”.
Que no existan pruebas empíricas no significa que no se pueda comenzar a trabajar ya en medidas de regulación para el futuro. En cifras del Informe de Desarrollo de la Industria de Robótica, firmado por el Instituto Chino de Electrónica, el mercado del país destinado a estos productos facturó en la región un total acumulado de 4.250 millones de dólares en solo la primera mitad de 2019. Esta tendencia se replica a nivel mundial, y refleja una realidad que ya afecta a miles de trabajadores, y que empieza a poner en cuestión la defensa de la privacidad, y de otros derechos reconocidos tradicionalmente.
En 1942 el archiconocido escritor de ciencia ficción Isaac Asimov puso las bases de lo que unos cuantos años más tarde se convertirían en su obra magna: “la trilogía de la Fundación”. Entrando el relato “Círculo Vicioso” (“The Caves of Steel”), sin embargo, ya hablaba de cómo habrían de ser las relaciones entre el ser humano y las máquinas más inteligentes y autónomas.
Ahí, de la misma pluma de la que nacerían conceptos como el de positrónico, psicohistoria, o incluso la misma “robótica”, surgían los retazos de las Tres Leyes de la Robótica; un conjunto de normas que circunscriben a las máquinas en las tareas para las que fueron creadas.
En el universo del autor ruso-americano, las leyes son “formulaciones matemáticas impresas en los senderos psicotrónicos del cerebro”. Hablando conciso, hacía refería a una suerte de líneas de código en los programas que regulan el cumplimiento de las leyes para estas creaciones.
¿Qué enunciaban? Primero, que un robot jamás podría hacer daño a un ser humano, ni dejar que hicieran daño a uno por inacción; segundo, que un robot debía cumplir las órdenes dadas por los seres humanos, salvo que sobrescribiera la primera ley; y tercero, que un robot habría de proteger su propia existencia sin contradecir las anteriores dos leyes.
Quizás suene demasiado distante, pero los primeros pasos a nivel legal que ya han comenzado a dar forma las instituciones circunscriben la protección socioeconómica (que no física) del individuo frente a la máquina. Pese a que la llegada de los llamados “agentes éticos explícitos” —aquellas máquinas capaces de seguir el conjunto de reglas éticas de la sociedad, y de ser consecuente con sus actos— todavía queda fuera del alcance, el monopolio de la visión utilitarista ha generado suficientes incentivos para que los políticos lleguen a consensos. Instituciones como la IEE Standards Association, la Standards Institution, o incluso el mismo Parlamento Europeo, han comenzado a elaborar normativas para conducir a los diseñadores, programadores, y consumidores de robots.
Puesto que las máquinas son seres inertes, estos organismos entienden que el posible perjurio deriva del sesgo que portan los creadores y manipuladores de estas. Por eso hacen especial hincapié en la vía educativa, a través de textos para estudiantes de todos los cursos, de publicación de artículos académicos, así como de libros especializados. La Asociation for Computing Machinery (AMC) posee ya, en sus planes de estudio para carreras de ingeniería e informática, una asignatura de ética aplicada a la tecnología. Y, claro, su temario incluye la propia roboética.
Tanto este curso, como el resto de iniciativas se están centrando en tres ramas principales de resolución: alinear la ética humana con la robótica, insertar un código moral consensuado en las propias máquinas, y teorizar sobre un posible futuro en el que las premisas de Asimov no sean ciencia ficción. Con cada avance tecnológico se aviva un poco más el debate en torno a los sectores donde los robots suscitan más preocupaciones.
Por un lado, el militar, donde los drones han cambiado por completo el concepto de la guerra, y el médico, donde cada instrumento soporta gran responsabilidad respecto a la salud de los pacientes.
A penas sorprende que, de acuerdo con un estudio de las consultoras SAS, Accenture, y de Intel, el interés por la roboética también haya llegado hasta las empresas. De hecho, el 92% de las organizaciones tienen entre sus prioridades la dotación de ética a las tecnologías empleadas, y el 62% cuenta con comités especializados y centrados en realizar auditorías para vigilar el uso de las mismas. 7 de cada 10 negocios forma a sus empleados especialistas en Inteligencia Artificial, vislumbrando un porvenir que la crisis del coronavirus está acelerando a pasos agigantados.
"Las organizaciones necesitan ir más allá de los códigos éticos direccionales de la IA. Aquellos que están en el espíritu del juramento hipocrático de 'no hacer daño'”, sostiene Rumman Chowdhury, responsable de Inteligencia Aplicada en Accenture. “Es necesario que proporcionen directrices prescriptivas, específicas y técnicas para desarrollar sistemas de IA que sean seguros, transparentes, justificables y responsables, a fin de evitar consecuencias imprevistas y problemas de cumplimiento que pueden ser perjudiciales para las personas, las empresas y la sociedad".
Ahora solo es cuestión de tiempo que las máquinas cobren vida por sí mismas, y para entonces deberemos estar preparados. En Yoigo Negocios creemos en el progreso responsable, y por eso no le perdemos la pista a la conquista silenciosa pero segura de los robots. Si quieres unirte a este mismo espíritu con tu empresa, entra en nuestra web o llama al 900 676 535 para informarte.