En manos del algoritmo

Las máquinas capaces de tomar decisiones por sí mismas van a tener cada vez más fuerza en nuestras vidas, en cuestiones tan cotidianas como seleccionar personas para un trabajo, analizar si un reo tiene probabilidades de reincidir o en qué instante de una canción ponemos el estribillo. Cada vez está más claro que a la inteligencia artificial la vamos a sentir junto a nosotros, a escuchar y, en ocasiones, a temer. La incógnita pendiente es si sabremos comprender qué está haciendo o distinguir cuándo hay que hacerle caso y cuándo no.

El miedo a que estas máquinas nos impulsen a cometer errores, injusticias o incluso provoquen una catástrofe se ha extendido entre los propios expertos en este campo. Una encuesta publicada el pasado mes de septiembre reveló que más de un tercio (36%) de especialistas en procesamiento del lenguaje natural, una rama de la inteligencia artificial, consideran que esta tecnología podría causar un desastre de la magnitud de una guerra nuclear a lo largo de este siglo XXI. Entre las mujeres participantes, además, la cifra aumentaba hasta casi la mitad (46%).

El trabajo, realizado desde el Centro de Ciencia de Datos de la Universidad de Nueva York, no deja lugar a dudas: quienes trabajan en esta especialidad están seguros de que veremos grandes cambios en los próximos años, aunque quizá no sean todos buenos. De hecho, el porcentaje de investigadores que teme un desastre grave, sin llegar a la hecatombe tipo nuclear, debería ser aún mayor, según admiten los autores de la encuesta y ha recogido la revista New Scientist.

Algunos de los más importantes avances en inteligencia artificial, como el aprendizaje profundo (deep learning), acarrean el llamado problema de la caja negra: funcionan, pero no vemos cómo. La máquina trabaja sola a partir de un conjunto inmenso de datos, aprende a resolver una tarea y alcanza resultados a velocidades inimaginables. Sin embargo, no está claro cómo lo ha hecho. Si acierta, no sabemos por qué. Si falla, no podemos arreglarla.

Expertos de todo el mundo, desde el Pentágono de EEUU hasta las grandes tecnológicas, como Google o IBM, están buscando ahora el modo de que estas tecnologías sean más explicables y, por tanto, más confiables. Así lo demandan también las directrices de la Unión Europea. El objetivo está claro, aunque el camino para lograrlo no tanto.

Un estudio realizado en el hospital Monte Sinaí de Nueva York ilustró a la perfección el problema: se desarrolló un algoritmo de aprendizaje profundo para detectar neumonías en imágenes de resonancia magnética, el cual acertaba el 93% de las veces en los pacientes del propio hospital. Sin embargo, cuando se usaba en otros centros, la eficacia caía por debajo del 80%. ¿Qué estaba pasando?

Según publicó Plos Medicine en 2018, el programa aprendió a reconocer neumonías con criterios muy poco científicos: escudriñaba datos del paciente, la marca del escáner o el ángulo de la imagen. Todo ello le permitía acertar casi todas las veces porque, por ejemplo, el Monte Sinaí usa una máquina portátil para tomar resonancias a los pacientes graves. En hospitales con distintos protocolos, el truco ya no funcionaba y la efectividad se desplomaba. Desde un punto de vista médico, nunca supo lo que estaba haciendo.

Una forma de definir el problema de la caja negra es que, sencillamente, el modo en que siempre hemos dado por hecho que funciona un ordenador no tiene nada que ver con las últimas técnicas en inteligencia artificial: «El modelo estándar de la computación asume que especificamos un objetivo para la máquina y la máquina averigua cómo lograrlo y actúa en consecuencia», describe desde EEUU Stuart J. Russell, catedrático de computación en la Universidad de California en Berkeley y uno de los expertos en inteligencia artificial más reconocidos del mundo.

«El modelo funciona con problemas simples y bien definidos, como jugar al ajedrez. Pero, en el mundo real no podemos especificar objetivos completa y correctamente. Típicamente, nos dejaremos algo fuera que en realidad nos importa. Por ejemplo, podríamos pedir a la máquina que busque un modo de desacidificar los océanos, lo cual suena razonable, y lo haga, pero con el efecto secundario de consumir todo el oxígeno de la atmósfera», comenta Russell.

El escenario generaría una catástrofe global, pero no tiene nada que ver con lo que suele plantear la ciencia ficción. Las máquinas de Matrix o Terminator deciden conscientemente aniquilar a la especie humana, pero nuestras actuales cajas negras no pueden hacer eso. Russell pone un ejemplo mejor, traído de la mitología griega: «El Rey Midas especificó el objetivo de que todo lo que tocara se convirtiera en oro, y obtuvo exactamente lo que pidió; pero, claro, eso incluía su comida, bebida y familia, así que cayó en el hambre y la miseria. Nuestra visión tradicional de la computación comete el mismo error, ya que asume que los objetivos declarados son el verdadero objetivo, y que tendrán en cuenta todo lo que nos importará en el futuro».

Otro buen ejemplo, que avanzó Norbert Wiener en la revista Science en 1960 es el del aprendiz de brujo: el joven incauto ordena a la escoba que lleve agua al pozo, y el objeto inanimado cumple tan bien su función que acaba inundándolo todo.

Una de las propuestas mejor posicionadas para intentar salvar estos obstáculos es la llamada inteligencia artificial explicable. Su objetivo es abrir la caja negra y no tener que fiarnos a ciegas de lo que diga. «La inteligencia artificial explicable es importante porque los programas de inteligencia artificial son bastante complejos y difíciles de entender, incluso para los expertos», indica Tim Miller, codirector del Centro para la Inteligencia Artificial y Ética Digital de la Universidad de Melbourne y autor de importantes trabajos en este campo. «Normalmente nadie se fiará del consejo de una máquina si no puede entender por qué le ha dado ese consejo. Eso es especialmente cierto si el juicio de la persona es diferente al juicio del programa de inteligencia artificial; por ejemplo, si obtienen un diagnóstico distinto».

Normalmente nadie se fiará del consejo de una máquina si no puede entender por qué le ha dado ese consejo. Además, nadie querrá ser legalmente responsable de los errores que cometa un sistema: «Los reguladores encargados de revisar los programas de inteligencia artificial están especialmente interesados en saber que cualquier programa tomará decisiones por los motivos correctos», advierte Miller.

Pero, junto a los problemas técnicos y legales, hay algo intrínsecamente incómodo en dejar decisiones vitales en manos de mecanismos incapaces de razonar. «Las explicaciones son el modo en que las personas evaluamos si debemos creer y confiar en algo», expone Michael Ridley, bibliotecario emérito en la ciudad canadiense de Guelph, que investiga estos problemas desde el punto de vista de las Humanidades. «Incluso si alguien dice que está 100% seguro de algo, la primera reacción de mucha gente será preguntar: ‘¿Por qué? ¡Explícate!’. Con la inteligencia artificial ocurre lo mismo».

No es lo mismo, continúa Ridley, un algoritmo para recomendar películas que otro para diagnosticar un cáncer. El segundo necesita un nivel mayor de «precisión», pero también de «justificación»; no sólo debería funcionar mejor, sino también ser más comprensible para el usuario.

Encontramos otro ejemplo en la avalancha de bulos que plaga las redes sociales. «La epidemia de desinformación demuestra por qué la explicación es tan importante», señala Ridley. «Mucha gente acepta lo que ve en sistemas impulsados por inteligencia artificial, como Facebook, TikTok y otros sin preguntarse algo tan sencillo como: ‘¿Por qué estoy viendo esto?’. Estos sistemas no aportan casi ninguna información para responder a esa cuestión, aunque podrían hacerlo».

Las redes sociales, en las que todos estamos ya en contacto con la inteligencia artificial, muestran la importancia de la educación para evitar las trampas de los algoritmos, entre los que hay algunos tan perniciosos como los ya famosos bots de Putin. Sin embargo, Miller considera que el público «no es en absoluto» consciente de las posibilidades y los límites de estas tecnologías. «De hecho, diría que tampoco hay suficiente conciencia entre la comunidad profesional», añade.

Es más, ni siquiera está claro que la explicación, por sí misma, solucione el problema de la caja negra. Dejar que una máquina aprenda a su aire para después intentar entenderla no es lo mismo que haberla construido desde el principio para que actúe de acuerdo a una lógica. «¡Es muy difícil verificar un sistema que no ha sido diseñado!», avisa Russell.

«Los sistemas modernos de aprendizaje profundo pueden funcionar correctamente o no, pero no tenemos forma de saber que funcionan ni comprendemos por qué funcionan, si es que lo hacen, porque no los hemos diseñado. La mayoría del trabajo para ‘explicar’ lo que hacen no genera explicaciones precisas de lo que realmente ha ocurrido», aclara. Su propuesta, en contraste, es apostar por tecnologías basadas en «razonamientos matemáticamente consistentes», que puedan explicarse «de forma fácil y precisa». De este modo, avanza, daremos «un paso importante» hacia una inteligencia artificial «validable y beneficiosa».

Los sistemas modernos de aprendizaje profundo pueden funcionar correctamente o no, pero no tenemos forma de saberlo

El ritmo al que están avanzando los sistemas impulsados por datos es frenético. Sólo en los últimos días, se han conocido dos nuevos hitos: Science ha publicado que, por primera vez, una máquina ha logrado escribir código informático con el nivel de un programador experto. Mientras, el robot de conversación ChatGPT, de la compañía OpenAI, ha acaparado la atención de millones de usuarios por sus ingeniosas respuestas, y es capaz de realizar tareas como escribir un poema o redactar una información. En ambos casos, se trata de labores hasta ahora reservadas a los humanos.

Un influyente informe liderado por Emily Bender, de la Universidad de Washington, bautizó en 2020 a las versiones primigenias de ChatGPT y sistemas similares como «loros estocásticos [aleatorios]», que procesan inmensas colecciones de lenguaje sin distinguir lo cierto de lo falso o lo adecuado de lo improcedente. Simplemente, «digieren cuanto hay en la web». La fascinación que provoca el robot de conversación en millones de usuarios, que unas veces imaginan hallarse ante un ser inteligente y otras se topan con respuestas manifiestamente absurdas, refleja esta forma de operar.

Más de seis décadas después, la metáfora del aprendiz de brujo sigue siendo válida. De hecho, Science incidía hace unos días en estas ideas, en un análisis firmado por Zico Kolter, catedrático de Computación en la Universidad Carnegie Mellon. La tecnología cambia por momentos, pero el problema de saber controlarla para que no nos controle a nosotros no se ha resuelto: «Veremos muchos avances en sistemas puramente impulsados por datos en las próximas décadas», asegura este experto. La certeza viene de que el camino para mejorar estos sistemas está ya claro: serán cada vez más grandes y poderosos.

Veremos muchos avances en sistemas puramente impulsados por datos en las próximas décadas

Por el contrario, construir alternativas programables, que no sean sólo cajas negras, será complicado: «Dependerá en gran medida de si pueden desarrollarse o no nuevas técnicas que muestren de forma inequívoca la ventaja de esos métodos», prevé Kolter. «La sensación es que los beneficios deberían estar ahí, y a menudo pueden demostrarse en sistemas a pequeña escala», sopesa. Sin embargo, que puedan competir a gran escala con los modelos impulsados por datos «es aún, sinceramente, una cuestión abierta». Entretanto, la inteligencia artificial, explicable o no, seguirá transformando rápidamente nuestras vidas.

Pero si no entendemos por qué una máquina nos expulsa de un proceso de selección o nos deniega una tarjeta de crédito, argumenta Ridley, «perdemos nuestra habilidad de juzgar y renunciamos a nuestra autonomía». Y hay otro escenario aún más inquietante: ¿podrían usarse algoritmos para apoyar una resolución sobre un ataque atómico? Así lo planteaba un artículo publicado por RAND Corporation en 2018: «No son los robots asesinos de Hollywood los que deben preocuparnos; es cómo las computadoras podrían desafiar las reglas básicas de la disuasión nuclear y conducir a los humanos a tomar decisiones devastadoras».

Aunque la decisión última de un ataque nuclear siempre quedará -suponemos- en manos de personas, la inteligencia artificial podría malinterpretar o conceder demasiado peso a determinados movimientos del enemigo, precipitando así una posible escalada. Ni siquiera haría falta esta vez que los aprendices de brujo se quedaran dormidos, como ocurre en el cuento de Goethe. Las máquinas actúan en fracciones de segundo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *