El pasado 15 de septiembre, el conversador artificial Mitsuku se proclamó ganador del premio Loebner por cuarto año consecutivo en un concurso celebrado en la Universidad de Swansea en Gales. Hasta aquí la noticia. Hablamos de chatbots, pero ¿de qué hablamos cuando hablamos de chatbots? Ángel Marín ofrece algunas pistas en este texto y hace la gran pregunta: ¿que puedan responder significa que puedan pensar?
Por Ángel Marín, doctor en matemáticas y filosofía
Mucha gente prefiere llamar así, por su nombre en inglés, a estos aparejos charlatanes de respuesta flexible. Quizá eso aclare un poco más el tema, aunque nos pasemos al inglés. Es verdad que, al hacerlo así, el trasto puede resultar un poco más difícil de reconocer y apreciar, pero en estos casos, aun sin saber bien del todo de qué se trata, la palabra nueva, aquí chatbot, actúa como un reclamo enigmático que parece prestigiar a quien la emplea.
Incluso los menos fascinados o los más reticentes a estos chatbots se preguntarán qué es lo que hizo Mitsuku para ganar el premio. Querrán saber, por ejemplo, qué clase de conversaciones es capaz de mantener ese artefacto portentoso, a qué preguntas puede darnos respuesta, qué problemas tienen para él solución verbal y en qué lenguas sabe comunicárnoslas. Son las preguntas lógicas de quien no sabe bien a qué se enfrenta. Y también una forma sencilla de intentar calibrar qué grado de competencia tiene ese interlocutor de pega.
Hay otros que tampoco lo han visto operar y que, sin embargo, prescinden de hacer preguntas o a lo sumo quieren saber dónde lo venden o cuánto vale, lo que viene a ser otra forma de valorar. Pero no es que toda esa gente no haya oído nunca hablar de estos conversadores. Los conocen vagamente y de lo que se dice por ahí suelen deducir que esos trastos son, como mínimo, una solución «técnica» a la soledad. Entienden que con ellos ha llegado al mercado un asistente discreto, servicial y palabrero, conectable además a la red. Desde luego que palabras no le van a faltar al comprador, pero en lo demás puede que se equivoquen, porque el servicio que ofrece es cualquier cosa menos discreto. En muchos hogares conocen ya dos de los conversadores más populares, Siri de Apple y Alexa de Amazon. Por lo que sabemos, las conversaciones las almacenan en la «nube», un lugar que hoy por hoy no parece precisamente discreto, como muchos buscones informáticos se han encargado de demostrar.
Con los chatbots ha llegado al mercado un asistente discreto, servicial y palabrero, conectable además a la red. Bueno, lo de discreto es muy cuestionable
No obstante, como remedio para la soledad, poco hay que objetar. En este sentido dichos artefactos pueden ser indudablemente útiles. De entrada está su asombrosa capacidad para crear una atmósfera de inesperada complicidad, sobre todo cuando el interlocutor humano está necesitado de compañía. El cine plasmó esto en aquella película, Her, en que Joaquín Phoenix establecía una entrañable relación conversacional con el sistema operativo de su ordenador. Puede que allí se rebasaran los límites de lo que una máquina de este tipo es capaz de hacer, pero tampoco deberíamos de subestimarlas. Al final son solo chismes, es cierto, pero aun así han planteado problemas, bien porque no se desenvuelven con soltura en materias especializadas, bien porque presentan sesgos en su tratamiento del género o bien porque quedan perplejos cuando nos dirigimos a ellas soltándoles insultos, órdenes o insinuaciones más o menos soeces. En cualquier caso, para un usuario crítico esa máquina, en tanto que caja negra cuyo mecanismo interior se desconoce, constituye por encima de todo una especie de reto.
El reto, sin duda algo malvado, es intentar hacerla descarrilar o simplemente ridiculizarla. A uno le vienen ganas de demostrar que está por encima, que tiene preguntas para las que un artefacto, por muy entrenado que esté, no dispone de respuesta. Hay quien espera que a las preguntas más comprometidas la máquina dé respuestas ilógicas, disparatadas o cómicas. Y no es así. Es mucho más común que empiece a encadenar una larga serie de evasivas, que solo probarán que el contexto le es absolutamente extraño y que el lenguaje natural tiene implicaciones que le desbordan. Como se le dota de un repertorio de evasivas amplio y sofisticado, y sus combinaciones son innumerables, uno cree intuir en el aparato cierta dosis de creatividad. Por eso no es de extrañar que alguna de esas respuestas acabe incluso por encajar y nos deje tan satisfechos como si hubiéramos obtenido una respuesta válida.
Quien espere del chatbot respuestas ilógicas o disparatadas ante preguntas comprometidas, no las oirá: es mucho más común que encadene evasivas
¿Son instrumentos creados entonces para engañar? En cierto modo sí, porque el engaño, o mejor la simulación, está en la base de los programas con los que se equipa. Evidentemente no estamos ante humanos que responden desde una conexión remota, sino ante sistemas provistos de programas autónomos de inteligencia artificial. Son estos programas justamente los que les permiten reconocer lo enunciado en lenguaje natural y emitir en consecuencia una respuesta razonable. Digamos que la respuesta se dará por razonable si es aceptada tácitamente por un interlocutor humano, algo que se comprueba cuando este continúa formulándole preguntas como si estuviera de verdad ante alguien de su misma condición, o sea ante un humano. El éxito del programa es tanto mayor cuanto mejor pasa por humano. En la misma medida en que el simulacro tiene éxito el artefacto vale.
El antecedente del test de Turing

A la hora de desenmascarar falsarios, todo el mundo recuerda la prueba del pato: Si grazna como un pato, camina como un pato y se comporta como un pato, entonces, ¡seguramente es un pato! De parecida intención es el test de Turing en el que se valora la inteligencia de un artefacto encerrándolo en una habitación y poniéndolo en contacto por teletipo con un humano al que se le pide estimar a base de preguntas si su interlocutor es semejante a él. Según este criterio, si el artefacto responde como un humano, debería de ser un humano. Basta abrir la puerta de la habitación para ver que en muchos casos no lo es, lo que obliga a rectificar el principio y a proponer otro: si responde como un humano, entonces piensa como un humano, aunque aparentemente no lo sea. Pues bien, en este principio se sustenta la idea de que quizá las máquinas pueden pensar, una idea que Turing formuló explícitamente al inicio de un famoso artículo, allá por 1950, cuando se preguntaba retóricamente ¿Pueden las máquinas pensar? Desde entonces el debate ha sido permanente y está lejos de concluir.
Pero si he contado todo esto es simplemente para hacer ver que es ya vieja la tendencia a asociar esa capacidad para responder y conversar, mediante un uso diestro del lenguaje, con la capacidad de pensamiento. Siguiendo por esa vía, tendemos también a considerar que un artefacto electrónico es inteligente por el hecho de que responde con cierto criterio, o sin grandes desaciertos, a nuestras preguntas.

Los conversadores flexibles, máquinas expertas en analizar preguntas y formular respuestas en lenguaje natural, representaron una de las áreas inicialmente más activas de la inteligencia artificial. Baste con decir que uno de los entonces llamados sistemas expertos, Eliza, era un conversador tan flexible que pretendía pasar por psicoterapeuta rogeriano. El papel de psicoterapeuta era, al decir de su creador Joseph Weizenbaum, «relativamente fácil de imitar porque gran parte de su técnica consiste en obtener información del paciente devolviéndole sus propios testimonios». La reacción entusiasta del público le sorprendió enormemente y le llevó a considerar que «las decisiones del público, en general, con respecto a las tecnologías que surgen, dependen mucho más de lo que ese público les atribuye que de lo que puedan o no llevar a cabo». De algún modo la ilusión tecnológica amplía las expectativas y genera cierta ceguera. Uno de los efectos más comunes es la antropomorfización de la máquina, que pasa a ser incorporada en muchos casos a la intimidad personal y más cuando su misión es precisamente conversar.
«Las decisiones del público, en general, con respecto a las tecnologías que surgen, dependen mucho más de lo que ese público les atribuye que de lo que puedan o no llevar a cabo». Joseph Weizenbaum
Que el debate sigue vivo es fácil de comprobar con una búsqueda por Internet. Solo un ejemplo destacado: la prestigiosa página web edge.org eligió en 2015 como pregunta del año What to think about machines that think?, ¿Qué pensar sobre las máquinas que piensan? A la misma responderían con breves respuestas unos 150 especialistas en inteligencia artificial, conformando en aquel momento un completo estado de esta cuestión.
Que la tecnología no se ha detenido lo prueban los conversadores presentados al concurso en la Universidad de Swansea. Del mismo modo que prueban que sigue de actualidad la pregunta formulada en su día por Turing. Desde entonces las preguntas a la comunidad científica no han cesado, mientras que las respuestas son todavía demasiado variadas como para permitir una conclusión. Algunas de las preguntas son verdaderamente intensas, por no decir molestas. Son muchos los que se preguntan, por ejemplo, si podrán estas máquinas sustituir en su día a recepcionistas, a conferenciantes, a profesores, a miembros de un consejo de administración o incluso a quienes amamos.
Máquinas que contestan, máquinas que piensan (o lo parecen)… ¿Podrán sustituir a recepcionistas, profesores, a miembros de un consejo de administración o incluso a quienes amamos?
Desconocemos la respuesta. De momento lo que tenemos desde hace unos años son eventos como el premio Loebner. No es casualidad que en él lo que se valore fundamentalmente sea la competencia mostrada por los conversadores artificiales para pasar el test de Turing. Es probable que, a medida que el test se vaya refinando, estos artefactos vayan ganando en competencia y hagan tantos méritos que acaben por emularnos en ciertos aspectos. Ahora bien, si me dieran la oportunidad de poner a prueba a la próxima generación de Mitsukus, yo introduciría en el test la siguiente pregunta: ¿cuándo serás por fin capaz de pensar? No pretendo ser capcioso ni espero que la respuesta sea breve. Como además estos interlocutores no conocen la sinceridad, tampoco espero que sea verdadera. Puestos a imaginar, lo único que espero de él es una réplica técnica y farragosa, probablemente destinada a convencerme de que debo mejorar mi propia forma de pensar, sin ceder a emociones intempestivas, sin dudar.
Sobre el autor
Nacido en Lodosa (Navarra) en 1950, Ángel Marín se licenció en Ciencias Exactas en la Universidad de Zaragoza. Fue profesor en el área de Computación e Inteligencia Artificial en la Universidad Pública de Navarra (UPNA) desde su fundación en 1989 hasta 2013, cuando se jubiló, pero afirma que donde se licenció realmente como profesor fue en los institutos públicos: «Ahí es donde se gana cintura». Doctor en Matemáticas (1994) por la UPNA y en Filosofía (2004) por la Universidad del País Vasco, se encuadra por voluntad propia en la Tercera Cultura: ni de ciencias ni de letras, sino de ambas. Ha publicado diversos trabajos y libros en Didáctica de las Matemáticas, Algorítmica, Lógica borrosa, Historia de las Matemáticas y Filosofía de la Ciencia, además de un par de novelas.
Deja un comentario