La inteligencia artificial ocupa un lugar cada vez más prominente en el debate público desde hace unos años debido al impacto en nuestras vidas. Ya sea por cómo interactuamos con la información y con nuestro entorno, o por el análisis de nuestros sentimientos, o por cómo tomamos las microdecisiones diarias, existe una influencia de la inteligencia artificial muchas veces invisible y a la que nos hemos acostumbrado.
Por todo ello, la inteligencia artificial despierta cada vez mayor interés. Nos preguntamos hasta qué punto influye en nuestras vidas, quién decidió que podía hacerlo y cómo podemos responder ante esta nueva situación.
¿Quién tiene que rendir cuentas de las acciones de la inteligencia artificial? ¿Qué futuro espera al ser humano en un mundo donde la inteligencia artificial vaya tomando peso? ¿Viviremos subyugados por Skynet (el nombre que recibe la inteligencia artificial que lidera al ejército de las máquinas en la saga de películas Terminator) o, en cambio, viviremos en armonía con un nuevo tipo de ser?
En el campo de la filosofía, el debate sobre la inteligencia artificial tiene un amplio recorrido y actualmente, en el ámbito de la ética, hay varias cuestiones clave, como el estatus moral de la inteligencia artificial, si puede o no discriminar a personas según su raza, género… También se debate quién es responsable de las acciones de la inteligencia artificial y cómo hacer que las acciones de esta sean transparentes, justas y comprensibles para la mayoría de la población.
Estas cuestiones —a veces entrecruzadas entre sí— plantean una serie de problemáticas que se encuadran en otros debates que van más allá de lo puramente técnico (como qué condiciones exigimos para tener estatus moral y por qué eso puede llevar a una crisis de lo que entendemos por humano). Debates extensos que no han sido cerrados por los expertos y que no podremos tampoco resolver en este texto, pero que son interesantes de plantear para comprender el estado del debate ético de la inteligencia artificial.
Pero antes de embarcarnos en los diferentes retos que la inteligencia artificial plantea a la filosofía contemporánea, expongamos una definición de a qué nos referimos cuando hablamos de inteligencia artificial a fin de estar todos en la misma línea antes de complicar el asunto.
En el ámbito de la ética, hay varias cuestiones clave, como el estatus moral de la inteligencia artificial, si puede o no discriminar a personas según su raza, género…
¿Qué es la inteligencia artificial?
Mark Coeckelbergh, uno de los referentes actuales sobre estos temas, la define en su libro Ética de la inteligencia artificial como una inteligencia desplegada o simulada por un código (algoritmo) o por máquinas.
La base de la inteligencia de una inteligencia artificial es el software. El software podría ser tanto un algoritmo como una combinación de algoritmos. Por algoritmo entendemos un conjunto y secuencia de instrucciones, que le dice a la máquina qué hacer. En otras palabras, un algoritmo conduce a un resultado (output) particular basándose en la información disponible (input). En este sentido, los algoritmos se utilizan para resolver problemas. Podríamos comparar un algoritmo con una receta de cocina, que le va indicando a la máquina qué debe hacer paso a paso.
Otro criterio de clasificación posible sería dividir entre aquellas inteligencias artificiales desarrolladas bajo el paradigma de investigación simbólico o de redes neuronales, siendo este segundo el que realmente tiene impacto y genera debate actualmente.
Las inteligencias artificiales desarrolladas a partir de redes neuronales no buscan representar simbólicamente funciones cognitivas superiores (como ocurre con aquellas creadas bajo el paradigma simbólico), sino construir redes interconectadas basadas en unidades simples (a semejanza de cómo funciona, por ejemplo, nuestro cerebro). Es este paradigma el que genera las inteligencias artificiales de aprendizaje automático (machine learning) y las de deep learning (cuya diferencia radica en el número de capas neuronales).
Finalmente, definamos en qué consiste una inteligencia artificial de aprendizaje automático, puesto que son las que han propiciado el debate actual. Se trata de un software que «aprende» gracias a la estadística. Los algoritmos identifican patrones o reglas observando conjuntos de datos y utilizan estos patrones o reglas para explicarlos y hacer predicciones.
Esto se consigue autónomamente, es decir, ocurre sin instrucciones ni reglas directas dadas por los programadores. En otras palabras, este algoritmo encuentra reglas o patrones no dados por el programador. El software recibe una tarea y se adapta para cumplirla. El punto de partida son los datos, que pasan de ser «pasivos» a ser «activos», ya que son los datos los que definen lo que hacer a continuación.
El algoritmo, por tanto, debe entrenarse alimentándole con bases de datos existentes para que pueda aprender a predecir resultados a partir de nuevos datos. Dicho aprendizaje puede estar supervisado, lo que significa que se centra en una variable particular designada como blanco para la predicción, o puede no estarlo, y, entonces, la inteligencia artificial buscará patrones por su cuenta.
En este caso, el entrenamiento se puede dar por refuerzo, es decir, a la inteligencia artificial se le da feedback positivo o negativo según los outputs que genera. Por ejemplo, un grupo de investigadores trató de educar a la inteligencia artificial de los coches que se conducen solos a través de experimentos que parecían un juego online, donde los usuarios deben decidir a quién salva y a quién atropella la inteligencia artificial en caso de tener que elegir entre dos grupos de sujetos.
Una vez tenemos esta definición básica, podemos hacer un recorrido introductorio por los debates actuales que atraviesan el campo de la inteligencia artificial y la filosofía. Antes de comenzar, cabe recomendar el libro Ethics of Artificial Intelligence editado por los profesores Francisco Lara (Universidad de Granada) y Jan Deckers (Newcastle University), para quien desee sumergirse a fondo en estas cuestiones.
La inteligencia artificial de aprendizaje automático es un software que «aprende» gracias a la estadística. Los algoritmos identifican patrones o reglas observando conjuntos de datos y utilizan estos patrones o reglas para explicarlos y hacer predicciones
¿Puede una IA discriminar a las personas? ¿Quién es el responsable de todo esto?
¿Puede ser racista una inteligencia artificial? En Estados Unidos, a las personas perjudicadas por el funcionamiento del algoritmo COMPAS —sistema utilizado para calcular si una persona debe ir a la cárcel según el riesgo de reincidir en actos criminales— les debía parecer que sí, ya que dicho sistema presentó durante años un número considerable de falsos positivos, lo que llevó a la cárcel a una gran cantidad de personas racializadas sin motivo alguno. Los jueces escuchaban las recomendaciones de lo que entendían como un ente neutral a la hora de tomar su decisión.
Sin embargo, como señala el investigador Jorge Casillas en su artículo «Bias and Discrimination in Machine Decision-Making System» (publicado en Ethics of Artificial Intelligence), pensar que la inteligencia artificial es neutral y que siempre mejora el proceso de toma de decisiones es un prejuicio.
Considerar que son más fiables, que tienen menos posibilidades de error y que sus juicios son más legítimos porque manejan una mayor cantidad de datos es olvidar que la inteligencia artificial es un producto humano y, por tanto, está influenciado por este último —para bien o para mal—. Casillas cree que existe un problema adicional que provoca que el error de la inteligencia artificial sea aún más perjudicial para las personas, y esto es debido a tres factores: su aparente invisibilidad, su falta de responsabilidad y la escala de sus decisiones.
Una inteligencia artificial puede tomar millones de decisiones por segundo, influenciando potencialmente la vida de cientos de miles o millones de individuos. Por este motivo, todo el daño que pudiera causar un solo ser humano en un puesto de poder se ve ampliado por esta enorme capacidad de estar en más procesos de toma de decisiones.
Además, este poder normalmente no se percibe (y esto es su aparente invisibilidad) porque muchas veces no sabemos que la inteligencia artificial está detrás de la toma de decisiones. Por poner algunos ejemplos, es quien decide cada vez más si los bancos dan créditos a sus clientes sin explicar a estos cómo se decide.
Pero no solo es importante su invisibilidad, también es importante señalar que no se puede responsabilizar a la inteligencia artificial de sus actos. Es más, como veremos más adelante, se debate sobre si en algunos casos es siquiera posible responsabilizar a los creadores de un determinado algoritmo debido a la complejidad que estos alcanzan.
En estos casos, se suele incidir en la responsabilidad humana detrás de la inteligencia artificial, como explica el filósofo belga Mark Coeckelbergh. Y es que alguien ha tomado la decisión de alimentar a la inteligencia artificial con una base de datos específica o ha diseñado el entrenamiento siguiendo alguna lógica, incluso aunque ese individuo no fuese consciente del perjuicio que se pudiera generar a partir de sus actos.
Una de las formas, por tanto, de afrontar este debate es negar la neutralidad de la tecnología y señalar que la inteligencia artificial —al igual que cualquier otro artefacto— responde a una serie de condiciones históricas y socioeconómicas concretas que explican su origen, sus usos y sus objetivos. Si quien entrena a la maquina actúa bajo algún prejuicio consciente o inconsciente, esto se verá reflejado en el resultado del algoritmo.
Desde este punto de vista es el ser humano detrás de la inteligencia artificial quien propicia una posible discriminación. En el caso anterior de COMPAS, la forma de entrenar al algoritmo no tuvo en cuenta que los distintos criterios que asociaba con un peligro de reincidencia se originaban (o tendían a estar más presentes) en grupos que sufren mayor desigualdad.
Es decir, el algoritmo no comprende los motivos de fondo de corte socioeconómico o político que pueden llevar a una mayor tasa de criminalidad en grupos desfavorecidos porque dicha información no formó parte de su entrenamiento o este no había sido diseñado correctamente para tenerlo en cuenta. Por su parte, quienes seguían el consejo de COMPAS, tampoco reflexionaron sobre esta posibilidad.
Una inteligencia artificial puede tomar millones de decisiones por segundo, influenciando potencialmente la vida de cientos de miles o millones de individuos. Por este motivo, todo el daño que pudiera causar un solo ser humano en un puesto de poder se ve ampliado por esta enorme capacidad de estar en más procesos de toma de decisiones
Por otra parte, Casillas no reduce a la malicia o a la incompetencia humana la posibilidad de la discriminación (aunque tampoco la descarta), ya que también reflexiona sobre las dificultades de un diseño de inteligencia artificial que no caiga por error en estas problemáticas.
Cómo se diseñan las muestras de datos, el tamaño del modelo, el tipo de variables seleccionadas para representar distintos grupos (y que pueden no ser suficiente o correctamente representativos)…, todos estos son detalles estrictamente técnicos que influyen en que una inteligencia artificial acabe discriminando a un colectivo.
Una segunda dificultad es qué ocurre cuando los modelos de inteligencia artificial son tan complejos que ni sus creadores están seguros de qué operaciones realiza el algoritmo para llegar a determinadas conclusiones. Es el caso de los modelos black box, en los que es muy difícil o imposible que un ser humano comprenda qué ha hecho el algoritmo debido a las complejas transformaciones matemáticas y las distintas capas neuronales que procesan los datos.
Este tipo de modelos son muy comunes en las inteligencias artificiales de aprendizaje automático, tanto las que no están supervisadas como las que reciben refuerzo positivo o negativo en el entrenamiento. En el caso de estas últimas, es difícil saber cómo, a base de ensayo y error, el algoritmo aprendió algo inesperado para sus creadores. Pensemos, por ejemplo, en Tay, la inteligencia artificial de Microsoft y que al interactuar con usuarios jóvenes en redes sociales se volvió racista y nazi en menos de 24 horas (siendo desactivada por la compañía debido a los mensajes que lanzaba en X, antes Twitter).
Esto ha motivado el surgimiento de un campo de investigación llamado «Inteligencia artificial comprensible» (explainable artificial intelligence o XAI) que busca desarrollar modelos de aprendizaje automático que sean transparentes, interpretables y comprensibles.
La idea del XAI es facilitar que las personas podamos comprender los modelos de aprendizaje automático y sus decisiones, así como la posibilidad de identificar errores, posibles discriminaciones o problemas éticos, como explica el investigador Alberto Fernández.
Aunque no podemos extendernos demasiado en esto debido al desarrollo técnico que requeriría, sí cabe destacar que es un campo que trata de casar la ética con la creación de inteligencias artificiales que sigan siendo eficientes y cuyos principios se guíen en gran parte por los propios debates legislativos de la Unión Europea.
A veces, los modelos de inteligencia artificial son tan complejos que ni sus creadores están seguros de qué operaciones realiza el algoritmo para llegar a determinadas conclusiones
Inteligencia artificial y moral: agencia moral y paciencia moral
Finalmente, y en relación con la cuestión de la responsabilidad, podemos introducir el debate sobre el estatus moral de la inteligencia artificial. Antes de desarrollar esta cuestión, definamos brevemente una serie de términos.
En primer lugar, el estatus moral (o rango moral) se refiere a las propiedades que algo debe tener para que pueda ser considerado moral. Para ello, podemos preguntarnos, por un lado, si se puede considerar que ese algo tiene agencia moral. Por otro, nos podemos preguntar si tiene «paciencia moral».
Inicialmente, solo se le presupone al ser humano dicho estatus, porque cumple las condiciones necesarias. Sin embargo, en tiempos más recientes, se ha concedido a los animales no humanos el atributo de la paciencia moral, ya que se entiende que son seres conscientes y que pueden ser heridos, por lo que tienen una serie de derechos morales que deben ser respetados (si bien ellos mismos no puedan actuar como agentes morales). Es una ampliación del círculo de responsabilidad moral que abre toda una serie de debates sobre nuestra relación con la naturaleza.
¿Pero qué ocurre si aparece una entidad no biológica capaz de tomar y actuar de forma racional (y quizás ética), y que quizá lo haga mejor que un ser humano (al menos, así lo es para algunos)? Entonces, la primera propiedad del estatus moral que mencionábamos —la agencia moral— no es exclusivamente humana.
Poseer agencia moral, en términos simples, es tener la capacidad racional e intelectual para deliberar moralmente y, por tanto, de actuar con base en una serie de principios. En principio, esto es una característica humana porque requiere poseer emociones, libre albedrío, estados mentales y una serie de funciones cognitivas superiores que permiten la deliberación.
No obstante, como explica el investigador Joan Llorca, la aparición de la inteligencia artificial supone una crisis antropológica para algunos autores, especialmente para aquellos cuya concepción del estatus moral (y, por tanto, de la condición humana) queda trastocada. Y es que una nueva entidad podría —potencialmente— poseer aquellas propiedades que eran a priori exclusivamente humanas. De ahí que nos tengamos que plantear qué es ser una persona, si es que podemos seguir definiéndolo.
¿Qué ocurre si aparece una entidad no biológica (como la inteligencia artificial) capaz de tomar y actuar de forma racional (y quizá ética)? ¿Qué pasa si lo hace mejor que un ser humano (al menos, así lo es para algunos)?
En un muy interesante y detallado artículo publicado en Philosophy & Technology, Llorca hace una exploración de este debate desde la historia de la filosofía de la tecnología. Llorca discute, por un lado, que esta crisis antropológica no es tal, ya que el estatus moral no debería estar basado únicamente en una serie de propiedades. A través de una serie de modelos antropológicos que exploran la relación entre el ser humano y la tecnología como un modelo más cercano a lo relacional, Llorca propone que las propiedades que otorgan el estatus moral deben ser reformuladas teóricamente.
Además, propone un modelo híbrido que discute con aquellos autores, como por ejemplo Coeckelbergh, que han protagonizado un giro hacia una propuesta relacional del estatus moral y que negarían la importancia de las propiedades para definir el estatus moral.
El modelo híbrido propuesto por Llorca, que busca dar peso tanto a las propiedades como a las relaciones, se puede resumir en dos propuestas que da el autor: que hay propiedades intrínsecas que son condición de posibilidad de relaciones valorables o que hay relaciones que son condición de posibilidad para propiedades disposicionales valorables.
El debate del estatus moral de la IA se encuentra profundamente ligado al de la responsabilidad. A fin de cuentas, ¿cómo se puede considerar a la IA responsable de sus actos si no se la considera capaz de tener agencia moral? Esto genera un vacío de responsabilidad en el que la IA no puede rendir cuentas sobre el daño moral que supone sus acciones, puesto que se entiende que no es capaz como entidad de comprender lo que hace, sino que se limita a cumplir lo programado.
Una IA no puede ser responsable moral porque no tiene la capacidad de llevar a cabo acciones morales y justificar el porqué las hace. No se la puede tampoco castigar, porque no tiene la conciencia necesaria para comprender lo que sería un castigo.
Por otro lado, tampoco es posible siempre relacionar al humano con las acciones de la IA porque la complejidad de estas últimas lleva a que sus propios programadores muchas veces sean incapaces de explicar lo que ocurre o de estar atentos a evitar daños producidos por el algoritmo.
¿Cómo se puede considerar a la IA responsable de sus actos si no se la considera capaz de tener agencia moral? Esto genera un vacío de responsabilidad en el que la IA no puede rendir cuentas sobre el daño moral que supone sus acciones, puesto que se entiende que no es capaz como entidad de comprender lo que hace, sino que se limita a cumplir lo programado
Por tanto, se produce un vacío de responsabilidad en el que nadie puede ser castigado ni relacionado con lo que haga una inteligencia artificial y, sin embargo, estas continúan actuando sin un proceso de rendición de cuentas efectivo que permita evaluar sus acciones y los posibles perjuicios que generen.
Por último, el potencial evolutivo de las IA no descarta que en el futuro puedan poseer conciencia y, por tanto, tengan paciencia moral, es decir, que puedan adquirir derechos. No de una forma similar a como se debate actualmente con los animales no humanos, sino que se trata de una entidad que tendría una capacidad racional similar a la humana. Esto abre todo un debate sobre qué tipos de derechos legales y morales podría obtener la inteligencia artificial en un futuro y cómo eso puede hacer evolucionar el debate. ¿Qué intereses se asume que tendría la IA y que merecerían ser defendidos desde el punto de vista moral?
Deja un comentario