La ciencia y la tecnología son dos pilares fundamentales de la sociedad occidental, al menos, desde los inicios de la modernidad a finales del siglo XVI y principios del XVII. Los desarrollos científico-tecnológicos suelen ser considerados signos inequívocos de progreso y fueron un elemento central para la constitución del capitalismo, la sociedad industrial y, más recientemente, la sociedad digital y la economía del dato.
La tecnología es una realidad omnipresente que condiciona y media en prácticamente todos los aspectos de nuestra vida. Nuestro mundo y nuestra forma de habitarlo pasada, presente y futura no pueden entenderse sin la tecnología y, sin embargo, si analizamos la historia de la filosofía y la ética occidental nos daremos cuenta de que, salvo contadas excepciones, la tecnología no sido considerada un objeto de estudio propio de estas disciplinas hasta hace pocas décadas.
Tecnologías políticas
Para describir este vacío o, en otras palabras, el estado según el cual observamos de manera irreflexiva y pasiva cómo las tecnologías contemporáneas transforman profunda y radicalmente las condiciones de nuestra propia existencia, el filósofo de la tecnología Langdon Winner acuñó el término «sonambulismo tecnológico» en La ballena y el reactor: una búsqueda de los límites en la era de la alta tecnología.
Y, ¿cuáles serían las causas de este estado de sonambulismo, es decir, de nuestra inacción y falta de reflexión crítica sobre la tecnología? Para el filósofo norteamericano habría, principalmente, dos motivos que explicarían este fenómeno tan llamativo: primero, la asociación, casi de equivalencia, entre la tecnología y el progreso; y, segundo, la creencia en la neutralidad de la tecnología.
Por un lado, la asociación entre la tecnología y el progreso lleva forjándose desde hace siglos en Occidente y, en la actualidad, se traduce en la creencia de que el progreso social, político, económico e incluso moral dependen estrechamente de la tecnología.
Pensemos, por un momento, en cómo, por ejemplo, las tecnologías de inteligencia artificial (IA) se presentan en muchos casos no solo como una oportunidad para dinamizar y hacer nuestras economías más competitivas y productivas, sino también como una gran aliada para combatir el cambio climático, tomar (supuestamente) decisiones más neutrales que los seres humanos en ámbitos tan sensibles como la justicia, el control de fronteras o la educación, mejorar el diagnóstico médico y la prescripción de medicamentos, optimizar diversas tareas y procesos, etc.
Esta vinculación entre la tecnología y el progreso ha sido en parte responsable de que en Occidente creamos, acríticamente y casi por defecto, que los beneficios de la tecnología y, concretamente, de la IA sobrepasarán sistemáticamente a sus posibles daños, lo que se conoce como tecnooptimismo.
Por otro lado, nuestro estado de sonambulismo tecnológico se sostiene sobre la creencia de que la tecnología es neutral. Cuántas veces habremos escuchado afirmaciones del estilo: «La tecnología no es ni buena ni mala, depende del uso que le demos». Esta afirmación es completamente falsa si hablamos de tecnologías contemporáneas como la IA.
La vinculación entre la tecnología y el progreso ha sido en parte responsable de que en Occidente creamos, acríticamente y casi por defecto, que los beneficios de la tecnología y, concretamente, de la IA sobrepasarán sistemáticamente a sus posibles daños, lo que se conoce como tecnooptimismo
Las tecnologías de IA, lejos de ser neutrales, son artefactos profundamente políticos. Pero ¿en qué sentido un montón de circuitos, baterías y chips podrían tener política? Cuando decimos que la IA y otras tecnologías son políticas nos referimos a que su diseño, desarrollo y funcionamiento solo pueden entenderse dentro de un entramada sociopolítico y económico determinado. Por ejemplo, como veremos más adelante al hablar sobre justicia ecosocial, uno de los motivos por los que decimos que la IA es política es porque la forma en la que funciona, el ritmo de su desarrollo y la escala de su uso hoy día solo es posible dentro de un sistema capitalista y colonial.
Reconocer la naturaleza política de tecnologías como la IA tiene muchas implicaciones, pero quizás una de las más importantes sea la siguiente: cuando elegimos un proyecto o innovación tecnológicos nos estamos comprometiendo con un modelo de sociedad determinado. ¿Qué significa esto? Que si, por ejemplo, elegimos sistemáticamente el modelo actual de IA, entonces, como veremos a lo largo de este texto, difícilmente sería factible construir una sociedad justa e igualitaria.
La dificultad de reconocer este hecho radica en lo que hemos mencionado anteriormente: nuestra identificación entre la tecnología y el progreso, por un lado, y la creencia de que la tecnología es neutral, por el otro, nos hace creer que podemos dar luz verde de manera continuada y casi sin revisión a cualquier proyecto tecnológico porque estos no están políticamente significados y, además, eventualmente, sus beneficios sobrepasaran a sus posibles males.
Sin embargo, esto no es verdad. Si elegimos tecnologías que necesitan de la existencia de una sistema colonial y desigual a nivel global basado en la extracción masiva de recursos, diseñado y pensado por y para los grupos de personas que tradicionalmente han ostentado las mayores cuotas de poder, entonces ¿hacia qué tipo de sociedad nos encaminamos?
Pensar la tecnología y, concretamente, la IA, desde la ética y la política y romper con el estado de sonambulismo implicaría terminar con esta adopción acrítica y masiva de tecnologías. Invertir el orden en la toma de decisiones, es decir, primero pensar qué tipo de sociedad queremos y después, a través de un análisis crítico, determinar qué tecnologías nos pueden ayudar a construir ese modelo social. Desde este marco de análisis propongo abordar los problemas éticos de la IA, a saber: su impacto ecosocial, los sesgos de género y la discriminación, la pérdida de autonomía y libertad.
SI TE ESTÁ GUSTAND0 ESTE ARTÍCULO, TAMBIÉN TE PUEDE INTERESAR…
Por desgracia, estos nos son los únicos problemas éticos que existen vinculados a la IA. Sabemos que la adopción de tecnologías de IA genera otro tipo de dificultades como, por ejemplo, la pérdida y/o violación de la privacidad, la creación de mecanismos que permitan garantizar la rendición de cuentas en aquellos procesos y decisiones donde haya sistemas de IA involucrados, la necesidad de transparencia y explicabilidad acerca de los datos y los algoritmos, el reto de la generación de deepfakes vinculado al empeoramiento de la desinformación, los problemas de derechos de autor y propiedad intelectual que se derivan del uso de IA para la creación de libros, obras de artes, etc.
Es decir, que existen numerosísimos problemas éticos muy relevantes vinculados a la IA. Si en este texto nos centramos en los que he mencionado primero y no en estos otros es, principalmente, por dos motivos. El primero es que los problemas éticos que forman parte del segundo bloque ya están siendo abordados, en gran medida, dentro de las comunidades especializadas en la materia, es decir, que, en general, acaparan mucha más atención que los que aquí tratamos.
Segundo, y este es el motivo realmente importante, que los problemas del segundo grupo están muy vinculados a los usos de la IA, esto es, solo son relevantes en aquellos lugares donde las tecnologías de IA están, más o menos, extendidas. Esto significa que estos problemas, en gran medida, solo nos interesan a los habitantes de países ricos, normalmente occidentales. Sin embargo, los problemas que aquí vamos a abordar son centrales a la hora de pensar la IA desde la ética y la política.
Se trata de problemas centrales, e incluso medulares, en la medida que buscan problematizar sobre las propias condiciones de posibilidad de estas tecnologías y analizar los presupuestos y fundamentos morales sobre los que se sostiene no solo el uso de la IA, sino su diseño y desarrollo.
En este sentido, considero que esta introducción a la cuestión ético-filosófica de la tecnología no solo es relevante porque es el primer paso para acercar al lector hacia nuevas y más completas visiones de la tecnología, sino porque, al contrario que en otros textos sobre ética de la IA, el análisis ético-político que aquí se expone busca romper con el estado de sonambulismo y sobrepasar la ya manida discusión sobre sus usos.
Así, los problemas éticos que aquí expongo trascienden los debates sobre los supuestos buenos y malos usos de la IA y se explican en relación y dependientes de su realidad política, económica y social. En este sentido, no se trata de enumerar una lista de problemas éticos aislados que apenas guardan relación unos con otros, sino de problematizar crítica y sistemáticamente los problemas ético-políticos de la IA entendida como un grupo de tecnologías políticas cuyo diseño, desarrollo y funcionamiento no pueden entenderse de manera independiente del sistema socio-económico y político actual.
Desde mi punto de vista, pensar la tecnología y, concretamente, la IA de este modo es un acto revolucionario, no solo para el pensamiento, sino también para la práctica. Pensar la IA desde estas lentes, reconociendo su naturaleza política y moral, es la única vía para democratizar estas tecnologías y ponerlas realmente al servicio del bien común.
Cuando elegimos un proyecto o innovación tecnológica nos estamos comprometiendo con un modelo de sociedad determinado
Justicia ecosocial para la inteligencia artificial
Probablemente, uno de los problemas éticos más relevantes y, sin embargo, menos tratados en relación con la IA es de la justicia ecosocial. La idea de justicia ecológico-social alude a la necesidad de repartir de manera igualitaria los bienes y los males ecológicos y sociales derivados, en este caso, de la IA, entre todos los seres vivos humanos y no humanos, nacidos y aún por nacer, de la Tierra. Esta idea de justicia es ambiciosa porque en ella se aúnan tres principios de justicia que han ido ganando cada vez más relevancia en las discusiones morales contemporáneas: la justicia global, la justicia interespecífica y la justicia intergeneracional.
Estas tres ideas de justicia son relativamente recientes en los debates contemporáneos sobre la justicia porque de una forma u otra rompen con varias de las premisas de lo que tradicionalmente ha constituido la comunidad moral.
Por un lado, la justicia global quiebra lo que se conoce como moral de proximidad, que nos llevaría a sentirnos moralmente responsables de aquellas personas a las que conocemos y que, de una forma u otra, queremos y valoramos, además de otras con las que, por formar parte de nuestra misma comunidad política —región, país, etc.—, podemos empatizar, más o menos, fácilmente y cuyas formas de vida, proyectos vitales, ideas, valores, etc., nos resultan familiares y, en parte, compartidos.
Así, la idea de justicia global busca ampliar las fronteras de la comunidad moral expandiendo nuestra responsabilidad más allá de los límites de nuestros afectos personales y políticos para incluir a todas las personas que habitan la Tierra. Esto sucede en un contexto globalizado en el que se entiende que el poder de nuestras acciones cotidianas y, concretamente, nuestras formas de vida occidentales no pueden entenderse sin una profunda dependencia y conexión con las realidad de otros seres humanos en diversos lugares del mundo. Veremos cómo esto es un problema ético central en la IA.
La justicia global quiebra lo que se conoce como moral de proximidad, que nos llevaría a sentirnos moralmente responsables de aquellas personas a las que conocemos y que, de una forma u otra, queremos y valoramos
Por otro lado, la justicia interespecífica quiebra la idea de comunidad moral tradicional al buscar incluir en ella al resto de seres vivos no humanos. De entre las tres ideas de justicia que aquí discutimos quizás esta sea la que, probablemente, genere más controversia.
Aquellos que rechazan la inclusión de otras especies en nuestros cálculos morales sostienen que los animales no pueden formar parte de nuestra comunidad moral al no poder ser considerados como agentes morales, es decir, no tienen la capacidad de realizar acciones con una intencionalidad moral definida y, por tanto, no se les puede exigir responsabilidad moral.
A su vez, esta falta de agencia moral se vincula a lo que se considera como una inteligencia inferior, menores niveles de desarrollo intelectual, etc.[1] A este respecto cabe hacer una precisión: dentro de una comunidad moral no todos sus miembros son agentes morales, también hay pacientes morales. No solo los animales o las plantas, también los niños, las personas con ciertas condiciones psíquicas o psicológicas, etc., se consideran menos, o nada, responsables moralmente de sus acciones por motivos similares.
Ahora bien, como sostiene la filósofa Carmen Madorrán en Necesidades ante la crisis ecosocial. Pensar la vida buena en el Antropoceno, esta diferencia en el grado de responsabilidad moral no debería implicar su exclusión de nuestra comunidad moral, tan solo el reconocimiento de una asimetría dentro de la comunidad. De hecho, los seres humanos mencionados se incluyen en ella. ¿Por qué, entonces, no debería suceder lo mismo con el resto de los seres vivos no humanos? Que no sean agentes morales no implica que sus intereses no deban ser tenidos en cuenta y que nosotros no tengamos deberes hacia ellos.
Además, en el caso de los seres vivos no humanos, que son los que generan controversia, deberíamos ser conscientes de que incluir sus intereses y participación en la comunidad moral no solo debería suceder por una cuestión vinculada a su valía intrínseca en tanto que seres vivos, sino que, en un sentido egoísta, los necesitamos para nuestra propia subsistencia.
Aquellos que rechazan la inclusión de otras especies en nuestros cálculos morales sostienen que los animales y otras especies no pueden formar parte de nuestra comunidad moral al no poder ser considerados como agentes morales
Finalmente, la justicia intergeneracional nos remite al «deber no recíproco de responsabilidad por las generaciones futuras», como destaca el investigador Lecaros Urzúa en La ética medio ambiental: principios y valores para una ciudadanía responsable en la sociedad global.
Actualmente, nuestras formas de vida insostenibles son incompatibles con la justicia intergeneracional en la medida que los intereses de las personas que aún no han nacido no son tenidos en cuenta de la misma forma que los de aquellos que estamos vivos y, de este modo, impedimos que los primeros disfruten de un medioambiente y unas condiciones de vida, al menos, iguales a las nuestras.
Desde el marco de la justicia intergeneracional se denuncia cómo las decisiones cortoplacistas de las generaciones presentes condenan y condicionan negativamente y de manera casi irreversible a las generaciones futuras. A este fenómeno también se le conoce como dominación intergeneracional. La pregunta que deberíamos hacernos a este respecto es: ¿qué derecho tenemos las personas que habitamos actualmente la Tierra a deteriorar las condiciones de vida de las generaciones futuras?
Como argumenta el filósofo australiano Roman Krznaric, igual que nosotros reprochamos y agradecemos a nuestros antepasados su legado, por un lado, nos disgusta que no hayan terminado con el racismo, la homofobia y otras desigualdades, pero, por otro lado, valoramos el increíble legado que nos han dejado: carreteras, grandes obras de alcantarillado, obras artísticas y literarias, sistemas de salud pública, igualdad de derechos entre hombres y mujeres, etc.
Nosotros deberíamos preguntarnos: ¿qué clase de antepasados queremos ser? ¿Cómo deseamos que nos recuerden las generaciones futuras? ¿Como aquellos que tuvieron la oportunidad de salvar el planeta y mejorar la vida en la Tierra y lo hicieron? ¿O como personas que nunca fueron capaz de pensar más allá del corto plazo y solo miraron por sus propios intereses?
Aunque en este punto todavía no quede claro de qué modo estas ideas que estamos discutiendo son relevantes para hablar de IA, la realidad es que son cuestiones centrales si atendemos a aquello que es sistemáticamente opacado y omitido en los debates sobre IA: su materialidad.
En Occidente, cuando, raramente, pensamos en las tecnologías de IA y su relación con la naturaleza solemos hacerlo en términos positivos; pensamos en cómo estos sistemas permitirán desarrollar modelos más precisos sobre el cambio climático, optimizar los sistemas de regadío y uso del agua en ciudades y campos de cultivo, detectar fugas de agua en tiempo real, etc.
Además, solemos atribuir a estas tecnologías una naturaleza casi etérea, creemos que son transparentes, limpias, en definitiva, poco contaminantes al carecer casi por completo de un sustrato material. Por eso planteamos su uso de manera casi ilimitada.
Esta forma de pensar en la tecnología y, concretamente, en las tecnologías digitales y basadas en datos, como es el caso de la IA, no solo se debe a una serie de cuestiones filosóficas de larga data en las que ahora no podemos ahondar, sino también a estrategias deliberadas por parte de instituciones y empresas tecnológicas que buscan reforzar este relato: que la IA es ecológicamente sostenible. Para ello hacen uso de herramientas discursivas, metáforas ecológicas, recursos visuales, estrategias de marketing, etc.
Nuestras formas de vida son incompatibles con la justicia intergeneracional en la medida que los intereses de las personas que aún no han nacido no son tenidos en cuenta de la misma forma que los de aquellos que estamos vivos
Detengámonos, por un momento, en la cuestión de las metáforas. En el ámbito de la IA se utiliza la palabra «nube», que alude inmediatamente al fenómeno atmosférico, para referirse al modelo de almacenamiento de datos. Es decir, que lo que realmente es un complejo material, un centro de datos que, además, como veremos a continuación, demanda importantes cantidades de energía y agua, se camufla con el nombre de algo que normalmente identificamos como natural, poco pesado y etéreo.
También hablamos de «montañas de datos», de «granjas de datos», usamos el término de redes «neuronales», incluso la propia palabra «inteligencia» artificial busca reforzar la idea de que todo lo que es la IA es natural, sostenible, ligero, limpio, etc. A esta estrategia metafórica se suma la asociación entre colores que fomenta la industria tecnológica.
Mientras que los colores que se nos vienen a la cabeza cuando pensamos en la tecnología y la sociedad industrial son, en su gran mayoría, negros, marrones, grises o rojos que nos recuerdan a la suciedad, la contaminación, etc., los colores de la digitalización, la IA y la sociedad del dato son el azul, el verde, materiales transparentes, el gris metalizado, que evocan limpieza, pulcritud, sostenibilidad, etc.
Sin embargo, la relación entre la IA y la naturaleza es una muy distinta a la que se nos suele presentar desde estas instancias. Si atendemos a la materialidad de estas tecnologías, lo que se hace visible es una megainfraestructura altamente contaminante que se extiende por todo el mundo sostenida por trabajadores invisibilizados, principalmente, del sur global, bajo el mando de unos cada vez más escasos centros de poder.
Es decir, lo que se evidencia cuando rastreamos la realidad material de la industria de la IA es una cadena de suministro colonial que hace imposible compatibilizar la IA con la justicia ecosocial. A continuación, desglosaré, de manera simplificada, dicha cadena de suministro en tres etapas, para mostrar tanto su impacto ecológico como social.
SI TE ESTÁ GUSTAND0 ESTE ARTÍCULO, TAMBIÉN TE PUEDE INTERESAR…
La primera etapa de la cadena de suministro colonial de la IA sería aquella que abarca desde la extracción de las materias primas destinadas a la fabricación de los dispositivos electrónicos que dan soporte a los sistemas de IA hasta la manufacturación de los mismos. En esta primera fase el impacto ecológico de la IA procede de muy distintas fuentes.
En primer lugar, sabemos que el impacto ecológico de la minería es muy importante; la extracción de materias primas como el litio, el cobalto, el oro o las tierras raras, entre otras, que son necesarias para fabricar nuestros sistemas de IA, así como el posterior procesamiento de las mismas produce erosión, pérdida de biodiversidad, devastación de la vegetación cercana, vertido de residuos y contaminación de aguas cercanas, etc.
Estos problemas medioambientales no solo producen un importante impacto ecológico, sino también social, debido a las consecuencias que provocan en la salud de las personas. Distintos estudios han demostrado cómo estas formas de contaminación afectan gravemente la salud y, especialmente, la de los menores y mujeres embarazadas. En el caso de los primeros, pudiendo afectar seriamente en su desarrollo y causando enfermedades crónicas; en las segundas, no solo deteriorando su propia salud, sino la de los fetos.
Por desgracia, el impacto social de la minería, que es el primer y necesario paso en la cadena de suministro de la IA, no solo está restringido a los impactos en la salud mencionados. También es necesario llamar la atención sobre las condiciones laborales en las que se produce una parte importante de la actividad minera, principalmente, en las minas ilegales de, por ejemplo, tierras raras en Myanmar o de cobalto en la República Democráticas del Congo (RDC), etc.
En ellas trabajan personas, y a veces menores de edad, en condiciones de semiesclavitud, con jornadas laborales extenuantes, en condiciones deplorables, por salarios irrisorios. En esta primera etapa, al impacto ecológico-social derivado de la minería, hay que añadirle el que producen el transporte de mercancías y la manufacturación de los dispositivos electrónicos.
El litio que se suele extraer en Chile o Argentina, el cobalto de la RDC, las tierras raras de Myanmar, etc. requieren transporte de miles de kilómetros, normalmente, hasta el sudeste asiático para ser manufacturados. El transporte de materiales y mercancías suele llevarse a cabo mediante barcos mercantes.
El impacto ecológico de esta actividad es altísimo debido al grandísimo volumen de mercancías que se transporta anualmente y en el que la industria tecnológica cada vez tiene un peso mayor. Concretamente, en el año 2017, el transporte a través de barcos mercantes fue responsable del 3,1 % de las emisiones globales de CO2, lo que supera, por ejemplo, las emisiones totales producidas por un país como Alemania ese mismo año.
Estos datos se han mantenido constantes, al menos, hasta 2022. Se estima que tan solo uno de estos navíos contamina tanto como cincuenta millones de coches y son los causantes indirectos de más de 60 000 muertes al año.
La extracción de materias primas son necesarias para fabricar nuestros sistemas de IA, así como el posterior procesamiento de las mismas produce erosión, pérdida de biodiversidad, devastación de la vegetación cercana, vertido de residuos y contaminación de aguas cercanas, etc.
A pesar de que no hay tanta información al respecto, sabemos que, al igual que sucede en la minería, las condiciones laborales de las personas que trabajan en este sector tampoco suelen ser muy buenas. Los marineros de estos barcos suelen enfrentar largas jornadas de trabajo bajo condiciones extremas, a menudo aislados durante meses en alta mar y con acceso limitado a servicios básicos o comunicación con sus familias. La mayoría proviene de países del tercer mundo o en vías de desarrollo y son remunerados con sueldos bajos, que a veces se retrasan o incluso se les niegan.
Finalmente, en esta primera etapa, también debemos incluir el impacto ecosocial de la industria manufacturera. En términos generales, según datos de la Agencia Internacional de la Energía (AIE), durante el año 2022 el sector de la manufacturación fue responsable del 25 % de las emisiones de CO2 a escala global, o lo que es lo mismo, emitió 9 Gt de CO2 a la atmósfera.
Si nos centramos en sector tecnológico, se estima que, ese mismo año, las once principales empresas manufactureras de productos tecnológicos consumieron 111 000 GWh de energía eléctrica, es decir, más que el total del consumo de este tipo de energía por parte de un país como Chile (Jang et al. 2023).
Por su parte, Foxconn, el mayor fabricante de productos electrónicos a nivel mundial, también en 2022, produjo más emisiones que países como Islandia. A estos daños ecológicos hay que sumarle, entre otros, la contaminación de las aguas y el suelo que se produce por el vertido de residuos y la pérdida de biodiversidad que de ello se deriva.
Del lado del impacto social, es de sobra conocido que las condiciones laborales de las personas que trabajan en este sector suelen ser pésimas. Uno de los casos más conocidos en los que se evidencia cómo la industria tecnológica mantenía a sus trabajadores en condiciones extremadamente deterioradas es el de la planta de Longhua en Shenzhen, China, operada por Foxconn, un importante proveedor de Apple.
Esta planta, donde se fabrican productos emblemáticos como el iPhone, ha sido objeto de controversias desde hace más de una década debido a las precarias condiciones de trabajo y violaciones de derechos laborales que allí se han reportado. En esta fábrica los trabajadores enfrentaban jornadas que a menudo excedían las sesenta horas semanales.
Los salarios, aunque cumplían con el mínimo legal, eran insuficientes para cubrir las necesidades básicas, obligando a los empleados a trabajar horas extras. Además, el ambiente laboral estaba marcado por una presión constante para cumplir con altas cuotas de producción, lo que generaba un impacto negativo en la salud mental y física de los empleados.
El punto más alarmante se produjo en 2010, cuando al menos catorce trabajadores se quitaron la vida. A esta parte del impacto social hay que añadirle aquella que afecta al deterioro de la salud de las personas producida por la contaminación derivada de esta industria y que ya hemos mencionados.
Del lado del impacto social, es de sobra conocido que las condiciones laborales de las personas que trabajan en este sector suelen ser pésimas
Esta primera etapa de la cadena de suministro de la IA evidencia lo que también veremos en las dos siguientes: el enorme impacto ecosocial de la IA. Además, es importante señalar que los trabajos de los que hemos hablado en esta etapa, aunque son imprescindibles para que nosotros los occidentales podamos usar IA, contrastan de manera importante con la visión de los trabajos tecnológicos o vinculados al sector que tenemos en Occidente.
Para el norte, estos trabajos son visibles, prestigiosos y suelen estar bien remunerados. Sin embargo, obviamos el hecho de que buena parte de los empleos que son necesarios para disponer de IA en la cantidad, escala y ritmo que lo hacemos hoy en día y que deseamos seguir haciendo en el futuro, se dan en condiciones laborales pésimas, son invisibles, poco prestigiosos y están muy mal remunerados.
La desigualdad entre unos y otros es tan grande que «un niño que trabaje en una mina del Congo necesitaría más de 700 000 años de trabajo ininterrumpido para ganar lo mismo que un solo día de ingresos de Bezos [CEO de Amazon]», tal como sostienen los investigadores Kate Crawford y Vladan Jole en un estudio de 2018.
La segunda etapa de la cadena de suministro colonial de la IA sería la que está vinculada al uso de estas tecnologías y que suele tener lugar en los países ricos. En este caso, el impacto ecológico procede, principalmente, del consumo energético y de agua de los centros de datos («la nube») en los que estos se almacenan y procesan.
Los centros de datos son amplios recintos, con un aspecto similar a los grandes emplazamiento de almacenamiento industrial clásicos que solemos encontrar en el extrarradio de muchos ciudades. En ellos se acumula una inmensa cantidad de cables, computadoras y dispositivos electrónicos que tienen que mantenerse operativos las veinticuatro horas del día, los siete días de la semana.
Esto provoca que su consumo de energía sea muy elevado. Según datos de la AIE, en el año 2023, el consumo de energía eléctrica por parte de los centros de datos representaba entre el 2 y el 3 % del consumo mundial. Se estima que, en el año 2028, los centros de datos de Estados Unidos consumirán una cantidad de energía eléctrica equivalente a la que necesitan países como España o Italia en todo un año.
De hecho, la demanda es tan grande que en el país norteamericano ya se han empezado a reabrir centrales nucleares como Three Mile Island, responsable del mayor accidente nuclear de la historia del país, para abastecer energéticamente a los centros de datos de Microsoft.
Además de energía eléctrica, los centros de datos consumen grandísimas cantidades de agua destinadas, principalmente, a la refrigeración de los diferentes dispositivos electrónicos que en él se albergan. Pensemos en cómo se calientan nuestros ordenadores después de unas pocas horas de uso. Pues ahora imaginémonos las temperaturas que pueden alcanzar cientos de dispositivos operando en todo momento.
Para evitar que la temperatura aumente demasiado y dañe los dispositivos, lo que podría provocar un fallo en los servicios prestados e incluso un incendio en el centro, se utilizan grandes cantidades de agua. Aunque la industria tecnológica no es muy transparente a la hora de aportar datos, se estima que, por ejemplo, en España, concretamente en Talavera de la Reina (Toledo), el megacentro de datos que pretende construir Meta consumirá quinientos cinco millones de litros de agua anualmente.
Según cálculos de la asociación Ecologistas en Acción, esto equivaldría al consumo del 10 % del agua de abastecimiento disponible en un territorio habitado por unas 70 000 personas. En febrero de 2024, Microsoft anunció su intención de ampliar los tres centros de datos que tiene en Madrid y construir tres más en Aragón. De manera muy parecida, se estima que, en el año 2021, en la ciudad estadounidense de The Dalles, el centro de datos de Google consumió el 29 % del agua de la zona ese año, lo que equivaldría a 1 300 millones de litros de agua.
La segunda etapa de la cadena de suministro colonial de la IA es la vinculada al uso de las tecnologías y suele tener lugar en los países ricos. El impacto ecológico procede, principalmente, del consumo energético y de agua de los centros de datos en los que estos se almacenan y procesan
En esta fase de la cadena de suministro, al consumo por parte de los centros de datos hay que sumarle el que se produce durante el entrenamiento de los sistemas de IA. En 2019, se estimaba que entrenar un gran modelo de lenguaje, tipo ChatGPT, produce una huella de carbono de entre 284 y 300 toneladas de CO2, lo que equivaldría a ciento veinticinco viajes de ida y vuelta entre Nueva York y Pekín o a dos mil ochocientos vuelos entre Madrid y Barcelona.
Estas emisiones también serían equiparables a la huella de carbono de cuarenta y cinco vuelos europeos medios durante un año. El problema de estos datos es que se han realizado con modelos de IA que ya han quedado en el pasado. Los actuales superan por muchos los billones de parámetros de los antiguos modelos y, por tanto, su consumo es mucho mayor.
Por ejemplo, se piensa que entrenar a ChatGPT-2 produjo unos 284 000 kg de CO2, mientras que en el caso de ChatGPT-3 la cantidad de CO2 alcanzó los 500 000 kg. Además, el propio uso de la IA también tiene un coste ecológico significativo. Se estima que hacerle entre cinco y cincuenta preguntas a ChatGPT consume 0,5 litros de agua y que crear una imagen con una IA generativa cuesta aproximadamente un litro de agua.
Estos datos evidencian el importante impacto ecológico que conlleva la IA y que, en muchos casos, lo que para nosotros no es más que un entretenimiento, por ejemplo, cuando generamos imágenes con IA simplemente para divertirnos o consultamos a ChatGPT sobre cuestiones cuyas respuestas podríamos obtener por otros medios (incluido el propio buscador de Google), realmente esconde un importante gasto energético y de agua del que no deberíamos desentendernos si queremos comportarnos de manera ética y responsable.
La misma conciencia ecológica que hemos empezado a desarrollar respecto al consumo de agua y energía en actividades cotidianas o en la forma de consumir, por ejemplo, moda deberíamos aplicarla al caso de la tecnología y, muy concretamente, al de la IA.
Respecto al impacto social de la IA durante la fase de uso, es importante señalar que este es muy amplio y diverso. Algunos de los problemas que se producen en esta etapa los abordo en las siguientes de este dosier, concretamente, los problemas de sesgos, discriminación y justicia, así como las cuestiones vinculadas al deterioro de la autonomía humana y la pérdida de libertad.
Sin embargo, como he explicado al inicio de este texto, también hay otros problemas éticos y sociales relevantes que aquí no se abordan. Algunos de ellos están relacionados con la rendición de cuentas, la transparencia, la privacidad, la desinformación, la propiedad intelectual, la generación de contenido artístico, etc.
La misma conciencia ecológica que hemos empezado a desarrollar respecto al consumo de agua y energía en actividades cotidianas o en la forma de consumir moda, por ejemplo, deberíamos aplicarla al caso de la tecnología y, muy concretamente, al de la IA
Lo que sí tenemos que señalar desde el enfoque con el que aquí abordamos el estudio ético de la IA es, nuevamente, la cuestión de la división desigual del trabajo internacional y que ya se ha puesto de manifiesto en la etapa anterior de la cadena de suministro. En el caso de esta segunda fase, los trabajos invisibles, mal remunerados y en pésimas condiciones los encontramos principalmente vinculados al entrenamiento de los algoritmos.
En muchos casos, las empresas tecnológicas subcontratan a otras en las que se emplean a personas, principalmente de países pobres, para clasificar y moderar contenido. Estos trabajadores, conocidos como microtrabajadores o trabajadores fantasma, se ven expuestos a contenido altamente sensible, con, entre otras cosas, violencia extrema, violaciones, torturas, maltrato, etc., lo que produce importantes problemas de salud mental.
Además, se estima que en algunos casos los salarios que reciben oscilan, entre 1,32 y 1,44 dólares por hora después de descontar impuestos. Esta situación evidencia de nuevo, las diferencias laborales y sociales entre los trabajos tecnológicos del norte y del sur globales.
Finalmente, la tercera fase de la cadena de suministro colonial de la IA se correspondería con la etapa de desecho, es decir, con todo aquello que sucede cuando no queremos o podemos seguir haciendo uso de nuestros dispositivos electrónicos. En 2023, la Organización Mundial de la Salud (OMS) advirtió que los desechos electrónicos eran los residuos sólidos que más rápido estaban creciendo en el mundo.
Esto no resulta extraño si atendemos, principalmente, a los planes de digitalización y la tecnologización de nuestras vidas en el Norte global. También es importante notar que la vida media de los dispositivos electrónicos cada vez es más corta. Esto ha provocado que, por ejemplo, en la UE, cada ciudadano produzca de media 11 kg de desechos electrónicos al año. Sin embargo, en el año 2021, en este mismo lugar, la Unión Europea, no se reciclaba ni siquiera el 40 % de los desechos electrónicos.
La mayor parte de los desechos electrónicos suelen acabar en países como Ghana o Pakistán, donde son acumulados en montañas de residuos que, en ocasiones, son, además, quemadas. Estas prácticas son terriblemente nocivas en términos ecológicos al provocar filtraciones de residuos tóxicos en la tierra, contaminación del suelo, deterioro de la cadena alimenticia de diversas especies, etc.
Además, en los casos en los que las montañas de residuos son quemadas, se emiten gases tóxicos, que no solo afectan a los seres vivos, humanos y no humanos, que habitan cerca de estos lugares, sino a otros a distancias más lejanas debido al desplazamiento de los contaminantes.
En muchos casos las empresas tecnológicas subcontratan a otras en las que se emplean a personas, principalmente de países pobres, para clasificar y moderar contenido. Estos trabajadores se ven expuestos a contenido altamente sensible
Este tipo de prácticas también tiene un impacto social importante similar al que se produce en las otras dos fases de la cadena de suministro. Además de los problemas de salud que provoca la contaminación, el reciclaje de estos desechos se produce en malas condiciones (seguridad, económicas, etc.) y, en muchos casos, se ven involucrados menores de edad debido a que el tamaño de sus manos resulta más «apropiado» para manipular las pequeñas componentes de los dispositivos electrónicos.
En el año 2020, dieciséis millones y medio de niños y niñas en todo el mundo fueron obligados a trabajar en el sector industrial, del cual el reciclaje informal es una parte cada vez mayor. El impacto ecosocial de todas las etapas de la cadena de suministro colonial de la IA evidencia que las prácticas ecológicas y sociales sobre las que se sostiene son insostenibles y contrarias a la justicia ecosocial.
A pesar de los beneficios indirectos que la IA podría generar en términos ecológicos (optimización del regadío, mejora de los modelos climáticos, alertas contra la pérdida de biodiversidad, ganancias en eficiencia energética, etc.), lo que sabemos es que actualmente el desarrollo y funcionamiento de la IA necesita de una cadena de suministro que lleva codificado en su ADN la desigualdad entre especies, entre generaciones y seres humanos. Cambiar estas dinámicas implicaría cambiar la propia IA por completo. Cambiar la IA implicaría soñar con otro modelo de sociedad ecológica y socialmente justo.
Notas
[1] La cuestión de qué es la inteligencia y, más concretamente, la inteligencia humana, la inteligencia animal y la inteligencia vegetal es un tema extremadamente complejo que aquí es imposible de abordar. Simplemente, vale la pena señalar que nuestra idea de inteligencia está social y culturalmente sesgada y que, por tanto, la jerarquización del intelecto y el ejercicio del poder que de ello se deriva es una cuestión que no está exenta de complejos y necesarios debates que trascienden la cuestión animal.
Lucía Ortiz de Zárate Alcarazo es doctora en Filosofía y Ciencias del Lenguaje y profesora de Filosofía Moral en el Departamento de Filosofía de la Universidad Autónoma de Madrid. Es graduada en Física y Filosofía por la Universidad Complutense de Madrid y ha sido visiting fellow del programa en Ciencia, Tecnología y Sociedad de la Universidad de Harvard. Sus principales intereses investigadores se centran en la ética y la filosofía de la tecnología y, muy concretamente, de la inteligencia artificial.
Deja un comentario