Estudios de Deusto

Revista de Derecho Público

ISSN 0423-4847 (Print)

ISSN 2386-9062 (Online)

DOI: http://dx.doi.org/10.18543/ed

Vol. 73/2, julio-diciembre 2025

DOI: http://dx.doi.org/10.18543/ed7322025

Monográfico

SOSTENIBILIDAD ECOLÓGICA Y DEMOCRÁTICA DE LA INTELIGENCIA ARTIFICIAL: RETOS PARA EL DERECHO PÚBLICO EUROPEO

Ecological and democratic sustainability of artificial intelligence: challenges for European Public Law

Covadonga Torres Assiego[1]

Profesora Ayudante Doctora del Área Historia del Derecho y las Instituciones

Universidad Rey Juan Carlos, Madrid. España

https://orcid.org/0000-0001-7378-6022

https://doi.org/10.18543/ed.3453

Fecha de recepción: 23.09.2025

Fecha de aprobación: 16.12.2025

Fecha de publicación en línea: diciembre 2025

Resumen

La inteligencia artificial se ha consolidado como un pilar decisivo en la configuración del orden contemporáneo, convirtiéndose en la promesa de la innovación social y, en última instancia, un instrumento geopolítico. En las entrañas del orden social, destaca el uso de la IA en dos aspectos: la ecológica y la democrática. La huella ambiental en el uso de la IA comienza a ser motivo de concienciación social y jurídica. Al mismo tiempo, la opacidad algorítmica y la captura masiva de datos personales alimentan un capitalismo de vigilancia que erosiona la deliberación pública occidental, haciendo mella en la conciencia ciudadana.

Palabras clave

Inteligencia artificial, sostenibilidad, capitalismo de vigilancia, soberanía digital, derecho público

Abstract

Artificial intelligence has consolidated itself as a decisive pillar in shaping the contemporary order, becoming both the promise of social innovation and, ultimately, a geopolitical instrument. Within the fabric of social order, two critical dimensions stand out: the ecological and the democratic. The environmental footprint of AI is increasingly raising social and legal awareness. At the same time, algorithmic opacity and the massive capture of personal data feed a surveillance capitalism that undermines Western public deliberation, leaving a profound mark on civic consciousness.

Keywords

Artificial intelligence, sustainability, surveillance capitalism, digital sovereignty, public law

Sumario: I. Introducción. II. Sostenibilidad ecológica de la inteligencia artificial. 1. El metabolismo energético de la IA. 2. La huella de carbono de la inteligencia artificial. 3. Hacia una regulación lejos del humo digital. 4. Centros de datos como “embajadas digitales”. 5. Normativa climática y silencios regulatorios. 6. Trazabilidad, auditorías climáticas y contratación pública verde. III. La insostenibilidad democrática. 1. Sesgo, opacidad y erosión del interés general. 2. Opacidad algorítmica y la exigencia de explicabilidad. 3. Mecanismos de control: auditorías, jurisdicción y participación. IV. Conclusiones. V. Referencias.

I. INTRODUCCIÓN

La inteligencia artificial ha adquirido un protagonismo central en los últimos cinco años destacando especialmente en la esfera laboral, social y productiva. Dentro del tejido empresarial y de las diferentes instituciones europeas, su despliegue ha generado polémica por los riesgos que puede entrañar en lo referido a la dignidad humana y a los derechos humanos. Las posibilidades que nos brinda esta tecnología pueden verse eclipsadas, según algunos críticos europeos, por las asimetrías de poder, los sesgos algorítmicos, la manipulación algorítmica o la dependencia. Entre las contingencias que nos ocupan, destacan dos en particular; la sostenibilidad ecológica y la sostenibilidad democrática.

En lo referido al plano ecológico, las IA de gran escala se erigen sobre un metabolismo energético que tiende a la proliferación (Lannelongue, Grealey e Inouye, 2021). La demanda eléctrica, las redes de entrenamiento e inferencia, los centros de datos sumados a las embajadas de datos, se verían duplicadas en 2030 (IEA 2025). Justo a esa demanda sistémica se añaden otros factores, como los gastos de entrenamiento e implantación del lenguaje natural (Strubell, Ganesh y McCallum, 2019: 3645–50).

Se han medido los costes energéticos y de carbono de las arquitecturas de vanguardia (Strubell, Ganesh y McCallum, 2019) incluyendo evaluaciones más recientes del ciclo de vida (Luccioni, Viguier y Ligozat, 2023) en lo que respecta a la inferencia de modelos fundacionales. Estos modelos muestran la dificultad, pero también la urgencia, de mediciones transparentes y metodológicamente sólidas (Luccioni, Viguier y Ligozat, 2023). La cuestión ecológica no se agota en el dato de consumo si nos atenemos a la Ley 7/2021, de 20 de mayo, de Cambio Climático y Transición Energética. En su artículo 3, se reclaman una serie de objetivos que exigen estándares de trazabilidad energética, criterios de contratación pública verde, incentivos a la eficiencia computacional y, en definitiva, instrumentos jurídicos para gobernar el coste ambiental de la IA sin sofocar su potencia innovadora (UNESCO, 2021: 6-8).

En lo que respecta al impacto democrático, la primera contingencia que observamos son los sesgos seguidos de la opacidad, acrecentando la falta de transparencia (Pasquale, 2016: 33). La administración pública en contextos sociales y tributarios podría operar sin seguir el principio de igualdad, tomando decisiones jurídicas o administrativas arbitrarias por el algoritmo (Selbst et al., 2019: 59-60). Las investigaciones actuales vierten luz sobre algunos escenarios, advirtiendo de los riesgos que entraña delegar categorías decisorias a pipelines algorítmicos (Noble, 2018). Desde la Unión Europea se reclaman garantías de transparencia y control de los sistemas de IA de alto riesgo (EDPB–EDPS, 2021). La mayor preocupación que se percibe en una lectura del Reglamento [UE] 2024/1689, es el tratamiento de los datos personales y la opacidad, advirtiendo el legislador de una necesidad de coherencia y explicabilidad[2] suficiente, supervisión humana, auditorías, agentes y mecanismos de impugnación.

Ha sido el reglamento europeo la respuesta a estos riesgos mediante la IA Act, la cual ha enfocado el riesgo de la IA en diferentes niveles mediante un régimen de supervisión exhaustivo. La IA Act se ha diseminado, siendo aplicable de forma escalonada para otorgar tiempo a las empresas e instituciones de implantar las nuevas exigencias. Esto ha sido duramente criticado por las pequeñas empresas, las cuales argumentan la falta de recursos o información para adaptarse a esta nueva normativa europea. También se contemplan fisuras que muestran un reglamento con aspectos que pulir, como contemplar evaluaciones de conformidad sin esclarecer o considerar el impacto ecológico. El legislador ensalza su gestión del riesgo, generando nuevas interrogantes en la finalidad pública y en la proporcionalidad de actos administrativos. En ese claroscuro reside la urgencia de una teoría jurídica que piense la IA como infraestructura pública (aunque sea de titularidad privada), sometida a los principios de interés general, sostenibilidad y control democrático.

El salto de la soberanía a la soberanía digital respetando el interés general, es una de las grandes problemáticas que trata la Unión Europea de contener. De esta manera se intentaría abordar una arquitectura de gobierno capaz de domesticar en primera instancia los posibles efectos colaterales de esta tecnología. Entre estos efectos o riesgos destacan dos principales para el derecho público que son eclipsados por la preocupación generalizada hacia los derechos humanos: la cuestión ecológica y la democrática. Obviamente, los derechos humanos contienen esas dos preocupaciones, pero conviene diseminarlo para otorgarles la atención que merecen.

La irrupción de la inteligencia artificial no debe contemplarse solo como un avance técnico, sino como una alteración del propio horizonte político y jurídico en el que se inscribe la vida en sociedad. Antiguamente el poder se ejercía mediante códigos escritos o decisiones visibles, hoy se filtra por arquitecturas invisibles de datos y algoritmos. Esta mutación exige que el Derecho Público, en lugar de limitarse a un papel reactivo, recupere su vocación originaria de guía y contención frente a innovaciones que, aunque promesas de eficacia, pueden erosionar silenciosamente las bases del interés general.

Y como añadido, pensar la soberanía digital no significa encerrarse en un proteccionismo anacrónico, sino recuperar la capacidad de las instituciones públicas para orientar el rumbo tecnológico. La globalización digital ha instalado la idea de que los Estados solo pueden adaptarse a dinámicas que les desbordan, como si lo digital fuera un destino inevitable. Frente a esta resignación, el Derecho Público puede erigirse en garante de una soberanía no aislacionista, sino orientada a que los beneficios de la inteligencia artificial se distribuyan equitativamente, sin que unos pocos actores privados acumulen el poder de moldear el futuro de todos.

II. SOSTENIBILIDAD ECOLÓGICA DE LA INTELIGENCIA ARTIFICIAL

1. El metabolismo energético de la IA

Hay que comprender que existe una sede física mediante la cual las arquitecturas de entrenamiento de la inteligencia artificial pueden operar. Este proceso necesita de ingentes cantidades de energía (Garcerán Rojas, 2025). Los centros de datos serían el cuerpo físico desde el cual opera la IA, las redes eléctricas serían el sistema nervioso y las reservas hídricas serían la sangre de este cuerpo tecnológico. La creación de este pequeño Prometeo requiere de fuentes de energía en un espacio físico con una demanda que van in crescendo. Las reservas hídricas sirven para la refrigeración líquida, destinadas a atemperar el calor de una computación intensiva.

El entrenamiento y la operación de los modelos de lenguaje de gran escala conllevan un consumo significativo de recursos hídricos y energéticos. El uso intensivo de agua en los sistemas de refrigeración líquida de los centros de datos ilustra hasta qué punto la inteligencia artificial se sostiene sobre infraestructuras materiales de gran demanda. Aunque las estimaciones concretas varían según el modelo y el escenario de despliegue, lo cierto es que la huella hídrica de la IA no es anecdótica, ya que se trata de volúmenes de agua suficientes para equipararse, en la literatura reciente, a miles de piscinas domésticas o incluso a decenas de piscinas olímpicas cada día de operación intensiva.

La OCDE y la Agencia Europea de Medio Ambiente han advertido que la demanda energética de los centros de datos y de la IA avanza en curva ascendente, con previsiones que podrían equipararse al consumo anual de varios Estados miembros si no se adoptan medidas de eficiencia (OECD, 2023; EEA, 2022). Conviene esclarecer que esto depende mucho del tipo de IA y de su modelo:

El consumo no es homogéneo y depende de las exigencias y la capacidad del modelo de inteligencia artificial. Un modelo fundacional de gran escala puede equivaler al consumo anual de una ciudad de tamaño medio, proyecta una huella de carbono considerable. Esto ha generado una vertiente de detractores en relación con el coste-beneficio de la IA a medio plazo. Los beneficios a largo plazo son menos dilemáticos, sobrentendiéndose que esta tecnología podría emplearse estudiando métodos menos invasivos (IEA, 2025) Al encontramos en una fase prematura, la curva de consumo es exponencial, por lo que se exigen medidas urgentes para emplear métricas transparentes junto a metodologías con menor impacto ecológico (IEA, 2025).

Sin embargo, el impacto no es en absoluto simétrico si analizamos el sur y el norte global. La IA ya dispone de geografía y de un mapa geoestratégico encabezado por China, Estados Unidos, India y Europa. Ya existen evidencias en países como Irlanda, Países Bajos o España que muestran tensiones en sus redes eléctricas por la concentración de centros de datos, algunos apodados como “embajadas digitales”. La responsabilidad pública tiene un compromiso ecológico que requiere diferentes actuaciones clave: trazabilidad, auditorías de impacto climático o clausulas sostenibles de contratación pública.

Las embajadas de datos también han sido calificadas como “colonialismo energético”, (Couldry y Mejias, 2019: 45) al tratarse de enclaves tecnológicos que gozan de un poder que se asemeja al de al de una representación extranjera. Se diseminan en diferentes territorios, siendo piezas clave en el entramado geopolítico actual (Couldry y Mejias, 2019: 112). El consumo hídrico y eléctrico es considerable y largoplacista, ya que estos centros tienen una proyección de proliferación progresiva. Otra cuestión comprometida es la jurisdicción de estas “embajadas”, ya que el mismo Estado se encuentra en dificultades en lo referido a la política de corporaciones globales de altísima influencia (Li et al., 2023).

2. La huella de carbono de la Inteligencia artificial

Absorber energía tiene consecuencias para el medioambiente, la huella de carbono es uno de los frentes ecológicos que más inquietan a los propulsores y defensores de la legislación medioambiental europea. Las toneladas de CO2 provenientes de los centros de datos requieren de un control moderado por parte de las autoridades competentes y siguiendo las directrices en consonancia con lo establecido en cumbres internacionales y europeas (Lannelongue, Grealey e Inouye, 2021).

El crecimiento exponencial de la inteligencia artificial no puede desligarse de una suerte de “fisiología de la máquina”, que requiere ingentes cantidades de energía y materiales para sostener su despliegue. A diferencia de otras revoluciones industriales, que hicieron visibles sus humos y sus fábricas, la revolución digital encubre sus costes bajo la apariencia etérea de la nube. Pero esa nube no flota en el vacío, se arraiga en territorios concretos, consume ríos, altera ecosistemas y compite con otras necesidades sociales en la asignación de recursos energéticos. Así, lo que se presenta como inmaterial se revela, al escrutinio jurídico, como un hecho eminentemente material.

Desde 2019, diferentes investigaciones han aportado luz sobre esta cuestión. Se ha puesto en evidencia que entrenar modelos punteros de procesamiento de lenguaje natural conlleva a una huella ambiental más que notoria. Sin ir más lejos, se ha estimado que el entrenamiento de un modelo de procesamiento del lenguaje natural de gran escala puede generar emisiones de centenares de toneladas de CO2, un nivel comparable al ciclo de vida completo de varios automóviles (Patterson et al., 2021). En lo referido a las embajadas de datos, la huella de carbono dependerá de los recursos del país. La energía dependerá de si se extrae la energía mediante el gas, el carbón o utiliza energías renovables.

El tipo de modelo de lenguaje resulta decisivo para medir la necesidad energética. Los modelos grandes requieren de unas 493 toneladas CO2, sin contar con los 2,7 millones de litros de agua equivalente a 24,5 años de consumo de agua por una persona a los Estados Unidos (Patterson et al., 2021). De hecho, la ciudadanía ni siquiera es consciente centros de datos de AWS en Aragón, cuyos consumos de agua superan ampliamente las previsiones, pero permanecen envueltos en acuerdos de confidencialidad (El País, 2023).

En España, contamos con la Ley 7/2021, de Cambio Climático y Transición Energética, la cual establece como horizonte la neutralidad climática para 2050 y exige la medición de la huella de carbono a ciertas empresas, así como la elaboración de planes de reducción de emisiones como indica en su artículo 3. A su vez, el Gobierno ha puesto el foco en los centros de datos, los cuales no están exentos de polémica. En fase de consulta pública del decreto que transpone la Directiva (UE) 2023/1791, se impone a estos centros de datos reportes obligatorios de consumo energético, de agua, indicadores de eficiencia, uso de energías renovables y planes de aprovechamiento térmico, especialmente para centros superiores a 1 MW, obligados a estar entre el 15 % más eficientes del sector (El País, 2023).

Sin embargo, estas herramientas regulatorias aún no han integrado de modo explícito las emisiones derivadas del cómputo intensivo o del entrenamiento de modelos de IA. Ni la Ley 7/2021, ni el PNIEC 2021-2030, ni la Estrategia Nacional de Inteligencia Artificial (ENIA, 2020) contemplan métricas diferenciadas o herramientas para la huella carbónica de la IA a gran escala. Este silencio refuerza la opacidad de un proceso que, aunque intangible, es parte de la anatomía climática del siglo XXI.

3. Hacia una regulación lejos del humo digital

El Derecho Público español se encuentra ante una encrucijada ecológica. Para ello, se proponen los sucesivos instrumentos normativos:

1. Auditorías climáticas obligatorias para centros de datos cuya actividad se relacione con IA avanzada, equivalentes a las evaluaciones de impacto ambiental exigidas a instalaciones energéticas;

2.Incorporación de la huella de carbono en los criterios de contratación pública verde, conforme al artículo 145 de la Ley de Contratos del Sector Público, evitando que el Estado financie IA con balance climático insostenible;

3.Alineación con la taxonomía europea de finanzas sostenibles, condicionando la calificación como “inversiones verdes” al cumplimiento de umbrales de eficiencia energética y bajas emisiones verificados;

4.Articulación de cláusulas de trazabilidad climática en el marco del AI Act europeo, exigiendo reportes específicos de CO2 por entrenamiento, actuaciones de refrigeración, reciclaje de calor, etc.

4. Centros de datos como “embajadas digitales”

El despliegue de la IA requiere de un ancla física donde utilizar estas fuentes de energía como se contempla en la Directiva (UE) 2023/1791 (Unión Europea, 2023). Estas naves son el templo de los datos con cantidades millonarias de información y conocimiento de todo tipo, marcando nuevos tiempos de soberanía en las infraestructuras de poder (Ortiz Freuler, 2025) Se les bautizó como embajadas por su semejanza con las embajadas físicas reconocidas en el Derecho Internacional y en el Derecho Público (Pohle y Thiel, 2020). Lejos de ser esto una nominación sobrestimada, los datos personales y la información se han convertido en la mayor moneda de cambio, teniendo más valor que el mismo petróleo. Sin ir más lejos, Dinamarca encabeza una cruzada de la privacidad, anunciado que los rostros de los daneses podrían tener derechos de autor según la enmienda presentada en julio de 2025 (Bryant, 2025).

Algunas semejanzas y diferencias con las embajadas clásicas: (Sierzputowski, 2019: 225-42).

Aspecto

Embajada diplomática (Estado extranjero)

“Embajada digital” (centro de datos corporativo)

Titularidad

Estado extranjero soberano

Corporación tecnológica multinacional (Amazon, Google, Microsoft…)

Extraterritorialidad

Inmunidad diplomática; las leyes locales apenas se aplican

Extraterritorialidad de facto: exenciones fiscales, opacidad, regulaciones mínimas

Función principal

Representación política y consular

Procesamiento y almacenamiento de datos; sostén de servicios digitales críticos

Norma aplicable

Derecho internacional (Convención de Viena 1961) + acuerdos bilaterales

Derecho privado contractual + normativa local fragmentaria (fiscal, urbanística, ambiental)

Protección estatal

El Estado anfitrión garantiza inviolabilidad y seguridad

Alta protección política y económica: incentivos, seguridad física, infraestructuras

Relación con soberanía

Supone presencia de soberanía extranjera en suelo nacional

Supone cesión de soberanía digital y dependencia tecnológica en territorio nacional

Beneficios

Diplomacia, cooperación internacional, comercio

Empleo local, atracción de inversión, disponibilidad de servicios digitales

Costes para el anfitrión

Tensiones diplomáticas, posibles conflictos

Consumo energético e hídrico elevado, huella de carbono, opacidad en gobernanza

Metáfora política

Isla de soberanía extranjera

Isla de soberanía corporativa → “colonialismo energético/digital”

Fuente: elaboración propia

Podemos comprender el alcance y la dificultad jurídica para tratar las “embajadas de datos” (Robinson, Kask y Krimmer, 2019: 391-96). Desde una perspectiva del Derecho Público español, nos encontramos con una dicotomía: son infraestructuras privadas gracias a las cuales se sostienen servicios esenciales y, a su vez, sirven para las telecomunicaciones incluyendo la provisión de inteligencia artificial para la administración pública (Balaguer Callejón y Cotino Hueso, 2023). Ya existe normativa como la Ley 8/2011 de medidas para la protección de infraestructuras críticas, que reconoce estas sedes como estructuras que forman parte de las arterias del estado al nivel de plantas eléctricas, transporte o sanidad, incluyéndose dentro del catálogo sectorial.

Huelga decir que la seguridad de estas infraestructuras no se limita a su protección e integridad física frente a sabotajes, sino que alcanza también al control energético de su metabolismo ambiental. La Constitución Española en su artículo 128.1 declara que toda la riqueza del país, independientemente de su titularidad, está subordinada al interés general. Esta riqueza se identifica con los recursos, minas, la tierra y las riquezas que alberga. Elementos como el silicio resultan indispensables para un correcto funcionamiento de la inteligencia artificial. Algunos declaran que el apelativo “embajada” es una definición laxa, siendo una verdadera dependencia o suerte de “colonialismo” energético. Tenemos ejemplos como el de Irlanda que, tras colocar embajadas de Amazon, Microsoft y Google, se ha visto impedida a nivel energético, a tal punto que la Comisión de Energía irlandesa ha solicitado una moratoria para poner nuevas instalaciones (Public Policy, UCD, 2024).

En España, existen macroproyectos como los de Aragón y Castilla-La Mancha los cuales han suscitado debates sobre el consumo excesivo de agua en zonas agrícolas, donde la refrigeración de servidores compite con regadíos en territorios que ya de por sí se enfrentan a contingencias por la sequía (Junquera et al., 2024). Se advierte de esta manera una asimetría clásica: los beneficios fiscales y de empleo son difusos, mientras que los costes ecológicos recaen con crudeza sobre las comunidades locales.

Este “colonialismo” energético ha avivado la crítica académica, tachando este fenómeno como uno de los mayores retos ecológicos del siglo: enclaves de alto consumo insertos en territorios periféricos, cuya finalidad principal no es precisamente servir a la población local, sino alimentar servicios globales con interés geoestratégicos. El Derecho Público, guardián cuyo cometido es custodiar la justicia territorial de nuestro país, no puede desentenderse de estos desajustes cuyos estragos son previsibles (Sierzputowski, 2019: 230). Las competencias autonómicas en ordenación del territorio, gestión de recursos hídricos y planificación energética se convierten en espacios de tensión entre la lógica de la inversión extranjera y la defensa del medio ambiente.

5. Normativa climática y silencios regulatorios

España comenzó a dar tímidos pasos en materia regulatoria en lo que respecta el medioambiente. España ha comenzado a dar pasos regulatorios más concretos en esta materia. En 2025, el Ministerio para la Transición Ecológica y el Reto Demográfico sometió a consulta pública un proyecto de Real Decreto sobre eficiencia energética y sostenibilidad de centros de datos, que transpone la Directiva (UE) 2023/1791. El borrador prevé que los centros de datos con una potencia mínima de 500 kW deban reportar de manera obligatoria indicadores como consumo energético y su origen, consumo de agua, uso de refrigerantes, reutilización del calor residual e indicadores de eficiencia. Para los de mayor capacidad, la exigencia se eleva, imponiéndoles situarse entre el 15 % más eficiente del sector. Aunque supone un avance, este proyecto aún no ha sido aprobado de forma definitiva y persisten lagunas en aspectos críticos como las sanciones, los plazos de aplicación o la incorporación explícita de métricas sobre el cómputo intensivo ligado a la inteligencia artificial (MITECO, 2025; Unión Europea, 2023). La Ley 7/2021 de Cambio Climático y Transición Energética, fija actualmente los objetivos generales de descarbonización, pero sin establecer ni articular obligaciones concretas para estas instalaciones, lo que resulta confuso. Tampoco el Plan Nacional Integrado de Energía y Clima (PNIEC, 2021-2030) incorpora una planificación diferenciada para el cómputo intensivo, a pesar de su creciente peso en la balanza energética.

Todavía resulta más llamativa es la Estrategia Nacional de Inteligencia Artificial (ENIA, 2020), que invoca la sostenibilidad como principio rector, pero guarda silencio sobre la huella hídrica y carbónica de los data centers, limitándose a la promoción de hubs digitales sin condicionarlos a métricas de impacto. El resultado es un mosaico normativo en el que se vigila la seguridad física de estas infraestructuras, pero se ignora su metabolismo ambiental.

6. Trazabilidad, auditorías climáticas y contratación pública verde

El auge de la inteligencia artificial a gran escala interpela al Derecho Público en una esfera que no puede limitarse al ya conocido discurso retórico de la sostenibilidad, sino que exige la articulación de instrumentos jurídicos efectivos y concretos. El metabolismo energético y carbónico de la IA (Lannelongue, Grealey e Inouye, 2021: 2100707). Al igual que ocurre con los recursos hídricos que exigen los centros de datos, (Junquera et al., 2024) Se requieren análisis según estándares verificables, que puedan ser sometidos al escrutinio administrativo y abiertos a la opinión pública. Lo que hasta ahora ha permanecido como “polvo digital” debe adquirir consolidarse de forma jurídica, existiendo figuras para ello: informes, métricas, auditorías, cláusulas contractuales. Sin esta traslación, la apelación al interés general se convierte en un gesto yermo y sin ningún tipo de significado.

A. Herramientas necesarias:

La primera exigencia es la trazabilidad: que cada proyecto de inteligencia artificial de gran escala rinda cuentas sobre el origen de la energía que consume, el volumen de agua que disipa y las emisiones que genera (Blázquez Ruiz, 2022: 261-72). El precedente lo ofrece la Ley 7/2021 de Cambio Climático y Transición Energética, que ya obliga a ciertas empresas a calcular y registrar su huella de carbono. El Real Decreto 2025 sobre centros de datos ha dado un paso en esa dirección al imponer reportes obligatorios, pero su alcance es aún fragmentario, ya que se limita al plano energético y carece de una integración plena en la planificación hidrológica o climática nacional. El desafío es avanzar hacia un sistema de métricas estandarizadas, análogo al que en su día instauró la legislación ambiental para emisiones industriales o vertidos hídricos.

En este punto, España podría incorporar herramientas ya validadas en el ámbito académico, como el algoritmo Green Algorithms que permite calcular la huella de carbono del cómputo en función del hardware, la duración y la localización. Del mismo modo que se exige una Declaración de Impacto Ambiental (DIA) para proyectos urbanísticos o energéticos, cabría imaginar una Declaración de Impacto Algorítmico Climático, que condicione la autorización de grandes entrenamientos a la verificación de sus costes ambientales.

Auditorías climáticas y control público:

El segundo pilar es el de la auditoría climática independiente. No basta con el reporte voluntario de las corporaciones, se requieren mecanismos de verificación por entes públicos o por terceros acreditados (OECD, 2021; EEA, 2022). La Ley 26/2007 de Responsabilidad Medioambiental ofrece una base conceptual (el principio de “quien contamina, paga”) que debería extenderse al cómputo intensivo. Si el entrenamiento de un modelo genera cientos de toneladas de CO2, ese coste debe internalizarse en forma de tasas, obligaciones compensatorias o fondos de reparación climática. El Derecho Público español cuenta con experiencia en auditorías ambientales obligatorias (energéticas, forestales, industriales) que podrían trasladarse, mutatis mutandis, al ámbito de la inteligencia artificial.

Además, la lógica de la protección de infraestructuras críticas (Ley 8/2011) debe complementarse con la lógica de la protección ecológica: tan importante como garantizar la continuidad del servicio es asegurar que su operación no erosione el derecho constitucional al medio ambiente (art. 45 CE).

Contratación pública verde y poder del Estado como comprador:

Un tercer instrumento es la contratación pública verde (Prieto Pérez, 2025).[3]El Estado actúa no solo como regulador, sino como comprador estratégico. El artículo 145 de la Ley de Contratos del Sector Público (LCSP) ya permite introducir criterios medioambientales en la adjudicación (Sobrino-García, 2025). Aplicado a la IA, esto implica que ninguna administración debería contratar servicios algorítmicos que no certifiquen su huella ecológica y su compatibilidad con los objetivos climáticos nacionales. De este modo, la contratación pública se convierte en palanca para transformar el mercado, premiando la eficiencia y penalizando la opacidad.

Coordinación multinivel:

Finalmente, la cuestión reclama una coordinación multinivel. El AI Act ha establecido un régimen de obligaciones basado en el riesgo, pero no incorpora aún métricas de impacto ecológico (Unión Europea, 2024, art. 13–14). España podría liderar, en el Consejo y en la transposición práctica, la inclusión de una dimensión climática en las evaluaciones de conformidad previstas para sistemas de alto riesgo.

El Derecho Público tiene ante sí la tarea de inscribir esas brumas en registros verificables, de transformar esa opacidad en norma, de someter las catedrales de silicio a la lógica del interés general. Allí donde la técnica genera muros de carga, la ley debe levantar fronteras para disponer de una panorámica de control absoluta: auditorías, métricas, cláusulas contractuales, sanciones. Solo así podrá cumplirse el mandato constitucional de que toda riqueza (también la riqueza digital) quede subordinada al bien común (Balaguer Callejón y Cotino Hueso, 2023)

III. LA INSOSTENIBILIDAD DEMOCRÁTICA

1. La insostenibilidad democrática: sesgo, opacidad y erosión del interés general

La confianza pública es el recurso más difícil de obtener. El entramado social es mucho más complejo que cualquier consideración algorítmica (Blázquez Ruiz, 2022: 265). Algunos pueden considerar que las pocas virtudes sociales no se plasman en el tejido algorítmico cuando esto está muy lejos de la realidad (Blázquez Ruiz, 2022: 265) Los algoritmos son un pequeño Prometeo que ensalza nuestras proezas, pero también ensancha nuestros defectos en un efecto de eco digital. La imparcialidad administrativa es parte del Derecho público, siendo parte de su columna vertebral que sostiene las espaldas de la ciudadanía y los hombros de la administración pública. Sin embargo, el poder del ejecutivo se envuelve por primera vez con un reto histórico, asumir el reto de arquitecturas técnicas que pueden dar resultados catastróficos.

La democracia, al nutrirse de transparencia, deliberación y control, encuentra en la inteligencia artificial un desafío inédito y aparentemente indómito. No es tanto que las decisiones automatizadas sustituyan sin más a las humanas, sino que lo hacen con una lógica opaca, difícilmente rastreable para el ciudadano común. Donde la política se sustentaba en la palabra, la justificación y el debate, la IA introduce un lenguaje de probabilidades y correlaciones que desarma los mecanismos clásicos de rendición de cuentas. Si no se somete a límites claros, el riesgo es que la administración se transforme en un mero aparato de cálculo, donde lo público se reduzca a la fría aritmética de los datos y no cuente con voz ni rostro.

Los sesgos algorítmicos constituyen el núcleo de nuestra problemática. No son simples errores técnicos, magnifican prejuicios y sistemas de creencias que ensanchan diferencias sociales. La literatura científica más crítica ha ofrecido resultados recientes; el traslado acrítico al servicio de ciertas categorías sociales, a los denominados pipelines algorítmicos (Bower et al., 2017). Estos pipelines podrían obliterar las condiciones materiales en algunos casos específicos, dando como resultado un efecto bola de nieve, que perpetuaría o intensificaría una situación discriminatoria (Ferrante, 2021: 27–36). Algunos inciden en que el sesgo se produce con el resultado, siendo esto un error común de apreciación. El sesgo se produce en la recogida de datos o en el mal procesamiento de los mismos (Blázquez Ruiz, 2022: 265). Los procesos siguen una cadena que desemboca en un resultado final:

1.Recogida de los datos → qué datos son los que entran.

2.Preprocesamiento → cómo se limpian o transforman, lo que conocemos como data cleaning o data preprocessing.

3.Modelado → qué algoritmo se aplica en cada situación. El modelado es el paso en el que, una vez recopilados y preprocesados (o “limpiados/depurados”) los datos, se selecciona un algoritmo matemático o estadístico y se le entrena para que aprenda patrones.

4.Predicción/decisión → qué resultado se da (ej. aprobar un crédito, asignar una prestación, clasificar un rostro).

Fuente: elaboración propia

Son más conocidos los sesgos inocuos, aquellos que afectan a título particular. Sin embargo, sus consecuencias pueden ser demoledoras cuando hablamos a efectos de una contratación pública, prestaciones de la agencia tributaria, la asignación de un asilo, solicitud de residencia, educación, etc. En definitiva, se vulneraría el art.14 de la CE, sin percatarnos de que la eficiencia actúa con arbitrariedad.

Sumado al sesgo, encontramos la bautizada opacidad algorítmica. Si seguimos de cerca el discurso tecnócrata, la precisión y objetividad son garantes del estado de derecho. No obstante, la Ley de Inteligencia Artificial denomina “sistemas de alto riesgo” en sus artículos 6 y siguientes a aquellos tipos de IA que sean más propensos a la opacidad y discriminación en virtud de la importancia de los datos y procesos que gestionan. El legislador europeo ha probado mediante la clasificación de las IA, minimizar los daños algorítmicos. Ejemplo de ello lo encontramos en las obligaciones forzadas de transparencia, documentación y supervisión humana relevante en virtud de los art 13 y 14 de la IA Act (Unión Europea, 2024). Mediante la supervisión humana, las empresas e instituciones podrían controlar con mayor precisión los sesgos, eludiendo las palmarias decisiones automatizadas mediante un escrutinio exhaustivo. Con la explicabilidad, el legislador se remite a lo ya contemplado en el RGPD en su art. 22 (Unión Europea, 2016: art. 22):

Decisiones individuales automatizadas, incluida la elaboración de perfiles 1. Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar. 2. El apartado 1 no se aplicará si la decisión:

a)es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento;

b)está autorizada por el Derecho de la Unión o de los Estados miembros que se aplique al responsable del tratamiento y que establezca asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, o

c)se basa en el consentimiento explícito del interesado.

Esto, sumado a la doctrina del EDPB–EDPSEDPB–EDPS (2021) que reclamaba un encaje estricto entre protección de datos y regulación algorítmica.

Más allá de la protección del individuo, (Barocas y Selbst, 2016: 671-732), lo que el legislador europeo desea es velar por el interés general. El TJUE, contempla en sentencias como Rights Ireland (C-293/12) (TJUE 2014a) y Tele2/Watson (C-203/15 y C-698/15), donde ha reiterado que la recopilación masiva de datos sin ningún tipo de límite supone una injerencia que no obedece a la proporcionalidad (TJUE 2016) Siguiendo esta lógica, esta contemplación debe cubrir de igual manera al tratamiento algorítmico. Si en el proceso de extracción masiva de datos se requiere una proporcionalidad y ulterior control jurisdiccional, debería sobreentenderse el mismo control derivado de las decisiones del tratamiento de los datos. De no ser así, la administración pública podría correr el riesgo de no cumplir el principio de buena administración (art. 41 CDFUE) y, incurriría en el incumplimiento del deber constitucional de interdicción de la arbitrariedad (art. 9.3 CE).

La respuesta jurídica, aunque dividida y con falta de homogeneidad, se perfila entorno a estos temores. La IA Act establece auditorías de conformidad con obligaciones de trazabilidad documental según los art 16-18. Esto se asemeja a las evaluaciones de impacto de alto riesgo contemplados en el RGPD, evidenciando nuevamente las semejanzas con la AI ACT (Unión Europea, 2024, art. 13-14). Esto debería extenderse mediante una evaluación de impacto algorítmico democrático, donde podría incluirse métricas de sesgo y garantías de impugnación.

Es menester invocar el Protocolo n.26 (Unión Europea 2012) sobre servicios de interés general, que nos recuerda la prestación de los servicios públicos, los cuales no pueden reducirse solamente a parámetros de eficiencia técnica. Este debe responder a tres exigencias: al interés general, a la accesibilidad y la calidad. Imaginemos un algoritmo que funcionara dentro de la administración y que no contara con cláusulas de rendición de cuentas. Hablaríamos entonces de un inadecuado uso del interés general que no cumpliría con esos mínimos de eficiencia.

De igual manera, algunos señalan tanto al sesgo como a la opacidad como nuevas formas de colonialismo normativo y cultura. Autoras como Zuboff afirman que el capitalismo de vigilancia no se limita únicamente a recopilar datos; transforman esa extracción de datos en información empleadas en potestades del gobierno (Zuboff 2019). La administración y el Derecho público deben exigir, en nombre de la seguridad jurídica y ciudadana, la creación de registros, auditorías y cauces de impugnación por parte de afectados o interesados. El algoritmo no puede transformarse en un panóptico inapelable.

2. Opacidad algorítmica y la exigencia de explicabilidad

No es lo mismo sesgo que opacidad. El sesgo es la consecuencia de la recopilación de datos inexactos o prejuiciosos que dan como resultado desigualdades o injusticias. Existe Data Bias cuando el sesgo se produce en la elección de los datos (Barocas y Selbst, 2016). El sesgo que se produce en su racionalización se denomina sesgo de razonamiento del modelo o algorithmic bias (Friedman y Nissenbaum 1996, 330–47). Tras esta breve aclaración, conviene señalar los riesgos de la opacidad algorítmica y sus diferencias con los sesgos. Cuando nos referimos a la opacidad, entendemos la imposibilidad o dificultad de por qué una IA realizado una argumentación o análisis. Numerosas ocasiones se expone el ejemplo del ciudadano que, tras solicitar una hipoteca, no recibe respuesta por parte del banco cuando su petición ha sido denegada. No se entiende con claridad por qué el algoritmo tomó esa decisión La opacidad es más que un problema técnico, es una amenaza a la misma interdicción de la arbitrariedad contemplada en el art. 9.3 de la CE como al derecho a una buena administración (contemplada en el art. 41 de la Carta de Derechos Fundamentales de la UE).

La problemática radica cuando contemplamos modelos que son intrínsecamente opacos. En ocasiones, ni siquiera los creadores de ciertos modelos pueden predecir resultados cuya lógica escapa de lo preestablecido. La IA Act expone esta preocupación con la división de sistemas de IA en virtud del riesgo. Los sistemas de alto riesgo tienen mayores muros de contención como la supervisión humana, transparencia y documentación técnica. Sin embargo, los límites estructurales no pueden prevenir resultados que escapan de nuestras previsiones.

La tensión entre complejidad técnica y exigencia jurídica se ha manifestado en diferentes contextos concretos:

En la justicia predictiva, donde herramientas de evaluación de riesgo de posibles reincidencias han sido puestos en duda por producir juicios probabilísticos que condicionan resoluciones judiciales sin explicaciones verificables (Angwin et al., 2016) La justicia predictiva siempre juega con los límites éticos y cuentan con numerosas contingencias como el reduccionismo, sesgos, opacidad e impacto ético. Todo ello sin contar la “falacia de autoridad algorítmica”. Así he denominado al fenómeno en el cual se presume que los resultados aportados por el algoritmo son irrefutables, ya que son “autoridades” cuyos datos y análisis presumimos como perfectos, sin comprender que la máquina, al fin y al cabo, también comete errores como el ser humano.

En la fiscalidad, donde encontramos sistemas automatizados de detección de fraude que han llegado a realizar devoluciones tributarias sin motivación suficiente, en tensión con el derecho a la defensa y a la motivación de las resoluciones administrativas (art. 35 de la Ley 39/2015 de Procedimiento Administrativo Común).

En la seguridad pública, donde algoritmos de vigilancia biométrica y de policía predictiva introducen un círculo vicioso que da lugar a una paradoja informativa: más vigilancia en barrios previamente vigilados, reforzando sesgos y erosionando la confianza ciudadana, dan como resultados mayores datos que inducen a pensar en mayor criminalidad que en otras zonas, cuando realmente lo que ocurre es que no disponemos de datos tan exhaustivos (EDPB–EDPS, 2021).

El RGPD ya había previsto estas problemáticas. Invocando su artículo 22, se limitan las decisiones automatizadas que conlleven efectos jurídicos relevantes si no hay garantías adecuadas, mientras que su artículo 35 exige evaluaciones de impacto para tratamientos de alto riesgo. El AI Act, al establecer mecanismos de auditoría y trazabilidad documental (arts. 16-18), intenta estrechar esa brecha hasta cerrarla por completo. Pero en ambos casos late la misma lógica; el algoritmo, para ser compatible con el Derecho Público, debe dejar tras de sí una huella explicativa que permita la revisión judicial y la participación ciudadana.

El Tribunal de Justicia de la Unión Europea, en asuntos como Digital Rights Ireland (C-293/12) y Tele2/Watson (C-203/15 y C-698/15), estableció que la conservación generalizada e indiscriminada de datos constituye una injerencia grave en los derechos fundamentales. En ausencia de límites materiales y temporales estrictos, tales medidas resultan desproporcionadas y contrarias al marco europeo de protección de datos (TJUE 2014a; TJUE 2016). Mismo ejemplo sucedió en Italia en 2023, cuando el Garante di Protezione dei Dati (GPDP 2023) ordenó la suspensión de GPT al considerar este mismo ejemplo.

En última instancia, la opacidad algorítmica puede reformularse como un nuevo decisionismo técnico, un oráculo revestido de objetividad estadística pero hermético a la crítica democrática. Frente a esta sombra proyectada, el Derecho Público debe erigir sus instrumentos de transparencia: exigir explicabilidad suficiente, imponer auditorías independientes, garantizar la posibilidad de impugnación y asegurar que siempre exista un suelo mínimo de supervisión humana significativa.

3. Mecanismos de control: auditorías, jurisdicción y participación

El Derecho no puede limitarse a domesticar la inteligencia artificial con un catálogo de prohibiciones fragmentarias; necesita una gramática común que ordene su despliegue bajo los principios de sostenibilidad y de interés general. Esa gramática debe ser lo suficientemente flexible para adaptarse a la mutabilidad tecnológica, pero también lo bastante firme para que ninguna innovación pueda presentarse como excusa para vulnerar derechos o desplazar responsabilidades. En este horizonte, el Derecho Público se convierte no solo en límite, sino también en brújula: límite a los excesos de poder, brújula para orientar la innovación hacia fines colectivos. Existen remedios democráticos institucionales mediante el cual el Derecho público mitiga la opacidad y el sesgo algorítmico. Con la diseminación de la inteligencia artificial en nuestra vida pública y privada, el Estado de Derecho no puede abdicar en su función de custodio del interés general. En ese interés general la sostenibilidad, la ecología o el capitalismo de vigilancia son tareas pendientes que requieren ser encuadradas dentro de su rol como custodio. Mediante diferentes instrumentos, el interés general cuenta con una mayor seguridad jurídica.

Existe un pilar fundamental: las auditorías. Esto no tiene mayor discusión tras implementarse la obligación de las IA de alto riesgo a ser sometidas a procedimientos de evaluación de conformidad (Reglamento [UE] 2024/1689, arts. 16-18). En la práctica esto se traduce mediante la exigencia de una trazabilidad documental que sea verificable. El reto jurídico es la aplicabilidad efectiva de estas auditorías, que no pueden reducirse a meros rituales de cumplimiento (box-ticking) (Selbst et al., 2019, 59-68). Para alcanzar este objetivo, el Derecho Público debe reforzar el papel de las autoridades nacionales competentes y promover auditorías externas acreditadas, bajo un régimen análogo al que opera en el derecho ambiental con las evaluaciones de impacto (Ley 21/2013, de Evaluación Ambiental).

El segundo pilar es el control jurisdiccional. Ninguna decisión algorítmica debería privarse a la revisión del poder judicial. El RGPD en su art. 22, ya reconoce el derecho a una supervisión humana y a impugnar decisiones automatizadas, ya que sin apelación posible no cabe derecho a una tutela efectiva. En la jurisprudencia del TJUE, la exigencia de proporcionalidad y control aparece como un candil para esclarecer esta penumbra jurídica: en Schrems II (C-311/18), la ausencia de mecanismos efectivos de recurso frente al uso de datos personales en EE.UU, bastó para invalidar el Privacy Shield. La analogía es clara, un sistema algorítmico que no permite a los ciudadanos conocer, impugnar y revisar sus efectos erosiona la esencia misma del Estado de Derecho (TJUE, 2020).

El tercer pilar de este triunvirato es la participación ciudadana. El Protocolo nº 26 sobre servicios de interés general (Unión Europea, 2012) señala que la prestación de servicios públicos debe garantizar accesibilidad, calidad y derechos de los usuarios. Si la inteligencia artificial se convierte, en pasos agigantados, en infraestructura de servicios esenciales como la sanidad, educación, fiscalidad, seguridad, entonces su legitimidad no puede reposar únicamente en la pericia técnica e institucional, sino en la deliberación democrática activa. De ahí que se propongan instrumentos como evaluaciones de impacto algorítmico con participación pública, consultas abiertas sobre despliegue de sistemas de IA en ámbitos sensibles, e incluso la creación de observatorios ciudadanos para la supervisión de algoritmos en la administración.

IV. CONCLUSIONES

La inteligencia artificial, más que un artefacto tecnológico, es ya una infraestructura normativa que ha erosionado nuestro sistema de creencias jurídico. Allí donde se inserta en la administración pública o en la gestión de lo común, despliega no sólo cálculos, sino también categorías, juicios y exclusiones propias del prejuicio humano. Esta constatación obliga al Derecho Público a mirar más allá del fulgor innovador y reconocer en la inteligencia artificial un fenómeno con dos caras de una misma moneda: promesa de eficiencia y el progreso, pero también amenaza de opacidad y sesgo.

En el análisis precedente hemos distinguido tres dimensiones principales. La primera es el sesgo algorítmico, que no es un accidente aislado, sino un producto necesario de la interacción entre datos históricos y técnicas de modelado. En su aparente neutralidad, los algoritmos sedimentan y amplifican desigualdades preexistentes y las proyectan hacia el futuro. Como ya advertimos, la abstracción técnica puede obliterar las condiciones sociales y materiales de los casos concretos, produciendo decisiones injustas bajo la apariencia de objetividad. Por ejemplo, si un sistema de asignación de prestaciones excluye sistemáticamente a colectivos vulnerables por la calidad deficiente de los datos que los describen o su racionalización, el daño no es sólo estadístico; es jurídico, porque hiere el principio de igualdad (art. 14 CE) y vulnera el deber de las administraciones de actuar conforme al interés general (art. 103 CE).

La segunda dimensión analizada es la opacidad, la cual resulta inseparable del despliegue de arquitecturas técnicas de gran complejidad. El Derecho Administrativo se ha forjado históricamente en torno a principios como la motivación y transparencia de los actos administrativos, que permite al ciudadano conocer las motivaciones de una decisión y, en su caso, impugnar. Sin embargo, cuando la decisión se delega a un algoritmo, esa motivación no se esclarece ni es entendible sin una transparencia efectiva. Imaginamos al ciudadano que se enfrenta a una pantalla muestra una negativa sin razones, o con razones ininteligibles para el usuario promedio. Esta carencia argumentaria es incompatible con la interdicción de la arbitrariedad (art. 9.3 CE) o con el derecho a la buena administración (art. 41 CDFUE), el cual reclama actos transparentes, comprensibles y revisables. El AI Act (arts. 13–14), al imponer obligaciones de explicabilidad y supervisión humana significativa, reconoce de forma tácita esta exigencia, pero aún se enfrenta al desafío de modelos cuyo funcionamiento excede los límites de lo que el legislador pueda imaginarse.

La tercera dimensión es la de los mecanismos de control democrático que preocupa por el capitalismo de vigilancia. Ante el riesgo de un “decisionismo maquínico” (entiéndase un gobierno de la estadística algorítmica hermética al escrutinio ciudadano), el Derecho Público debe hacer acopio de sus herramientas clásicas: auditorías, control jurisdiccional y participación. El AI Act (arts. 16–18) inaugura un régimen de evaluaciones de conformidad que, en la práctica, constituye una suerte de auditoría técnica. El reto, sin embargo, es dotarlas de densidad sustantiva, evitando que se degraden en meros rituales de cumplimiento (box-ticking). El RGPD (arts. 22 y 35) ya ofrecía un precedente con las evaluaciones de impacto, que deberían evolucionar hacia evaluaciones de impacto algorítmico democrático, con métricas de sesgo y garantías de impugnación.

No nos jugamos únicamente la eficiencia de la administración ni la competitividad económica, sino la arteria de la vida democrática. Si la inteligencia artificial se desarrolla al margen de consideraciones ecológicas y democráticas, su herencia será un paisaje devastado y una ciudadanía desposeída de su capacidad decisoria. En cambio, si se inserta bajo el amparo de principios de sostenibilidad, transparencia y control, puede convertirse en una herramienta poderosa para ampliar el espacio de lo público. El dilema no es técnico, sino político y jurídico: se trata de decidir qué clase de civilización queremos sostener cuando la inteligencia ya no es solo atributo humano, sino también arquitectónica

El desafío, en consecuencia, no reside únicamente en controlar riesgos, sino en diseñar una arquitectura de gobierno que devuelva a lo público su primacía frente a la lógica de la extracción y el cálculo. Esta tarea exige una doble vigilancia: la ecológica, para evitar que la IA se convierta en una maquinaria depredadora de recursos finitos; y la democrática, para impedir que la administración pública se transforme en un aparato opaco, donde el ciudadano no pueda ya reconocer la huella de la deliberación y la responsabilidad política. Ambas dimensiones, lejos de ser accesorios técnicos, son condiciones de posibilidad de la vida colectiva.

En el plano internacional, la comparación es elocuente. Mientras la Unión Europea ha ensayado un modelo regulatorio que pretende conjugar innovación y derechos, Estados Unidos privilegia la flexibilidad y el dinamismo empresarial, con un marco fragmentado que delega gran parte de la vigilancia en la autorregulación de la industria. China, por su parte, ha desplegado un modelo centralizado, donde la IA se concibe como instrumento de planificación estratégica y control social, con una fuerte impronta estatal. América Latina, en cambio, se halla en un estadio embrionario, con escasas regulaciones específicas y una dependencia tecnológica que acentúa su vulnerabilidad. Este mosaico revela que la gobernanza de la IA no es neutra: refleja distintas concepciones de soberanía, de interés público y de los límites de lo tecnológico.

Para Europa, esta pluralidad constituye tanto un desafío como una oportunidad. Un desafío porque la fragmentación regulatoria global puede diluir los esfuerzos de sostenibilidad, generando fenómenos de forum shopping y desplazamiento de cargas ambientales hacia jurisdicciones más débiles. Pero también una oportunidad, porque la Unión Europea, si persevera en su apuesta por un modelo de regulación integral y basado en derechos, puede convertirse en referente internacional, proyectando un “efecto Bruselas” que obligue a otros actores a elevar sus estándares. El Derecho Público europeo tiene, pues, la responsabilidad de ofrecer una gramática normativa que pueda dialogar con otros modelos, sin abdicar de sus principios fundantes.

No obstante, la regulación no basta por sí sola. Hace falta también una pedagogía social que permita a la ciudadanía comprender los contornos y riesgos de la inteligencia artificial. La sostenibilidad democrática no se garantiza únicamente con leyes y agencias de supervisión, sino también con ciudadanos capaces de exigir transparencia, de cuestionar narrativas tecnocráticas y de reclamar un uso justo de los recursos comunes. Aquí la educación cívica y digital juega un papel insustituible: sin una ciudadanía formada, el control público corre el riesgo de reducirse a fórmulas rituales, fácilmente colonizadas por los intereses privados.

El futuro de la inteligencia artificial en clave de Derecho Público no debe imaginarse, por tanto, como un catálogo cerrado de obligaciones técnicas, sino como un horizonte abierto en el que se articulan principios, límites y fines. La sostenibilidad ecológica nos recuerda que ningún despliegue tecnológico puede desligarse de las condiciones materiales de la vida; la sostenibilidad democrática nos advierte que ninguna innovación debe erosionar la transparencia, la igualdad y el control. Entre ambas dimensiones se traza el campo de una política jurídica que, lejos de resignarse a ser reactiva, debe atreverse a ser propositiva y orientadora.

La pregunta de fondo es qué clase de civilización queremos construir en un tiempo en el que la inteligencia ya no es patrimonio exclusivo de lo humano, sino también atributo de máquinas cada vez más poderosas. Si aceptamos que lo público es la esfera de lo común, entonces la inteligencia artificial debe ser pensada como cosa pública: un bien cuya gestión no puede quedar confinada a la lógica privada, sino que requiere instituciones robustas, controles efectivos y una teleología compartida. Solo así la técnica dejará de ser un destino inexorable para convertirse en una herramienta al servicio de la dignidad humana y de la continuidad de la vida.

Para clausurar estas páginas no basta un catálogo de buenos deseos ni un lamento retrospectivo que no conduzca a puerto. Conviene, más bien, traducir el doble apremio (ecológico y democrático) en una brújula práctica que no abdique de su hondura política. Pues si el Derecho Público ha de seguir siendo nervadura de la vida colectiva, no puede conformarse con diagnósticos ni con admoniciones: necesita reconstituir, con la paciencia de un orfebre, las herramientas que hagan de la inteligencia artificial algo más que un tótem tecnocrático.

El primer gesto es la medición, porque lo que no se mide se oculta. Los proyectos de inteligencia artificial, tan celosos de exhibir su potencia, se muestran tímidos a la hora de revelar su metabolismo de energía, agua o materiales. Y sin embargo, allí comienza la verdadera política: en obligar a esa contabilidad a hacerse pública, legible, comparable, como si se tratara de cuentas que pertenecen a todos porque todos pagamos su precio. No es un asunto técnico, sino casi moral: arrancar a la opacidad la confesión de sus costes.

Otro gesto indispensable se halla en la contratación pública, ese músculo económico del Estado que, a menudo ejercitado sin conciencia, puede sin embargo modelar industrias enteras. No se trata de comprar lo más barato ni lo más lustroso, sino lo más conforme con los fines del interés general: sistemas eficientes, reversibles, transparentes, sujetos a auditorías que no sean meras liturgias. La compra pública, tantas veces despreciada como burocracia, se convierte aquí en palanca de transformación: orienta mercados, premia virtudes, disciplina excesos.

Tampoco puede el Derecho abdicar de su rostro jurisdiccional. Allí donde un algoritmo dicta consecuencias jurídicas, el ciudadano ha de conservar la posibilidad de interrogarlo, de suspenderlo, de exigir una explicación que no se pierda en tecnicismos, sino que ofrezca razones inteligibles. Sin ese expediente comprensible, sin esa rendija de control, la transparencia se degrada en retórica hueca y la confianza social se pudre desde dentro. Pero la sostenibilidad democrática no se agota en tribunales: precisa también de una ciudadanía que comprenda, que pregunte, que sospeche. La inteligencia artificial debe ser narrada en lengua clara, discutida en foros abiertos, sometida a la pedagogía de lo común. Solo así la administración algorítmica podrá legitimarse sin hundirse en un mar de desconfianza. No hay democracia posible si el pueblo, reducido a usuario pasivo, se limita a pulsar aceptar.

Queda además la cuestión de la dispersión, esa Babel administrativa que tanto favorece a quienes buscan grietas para penetrar. El gobierno de la inteligencia artificial requiere consorcios interadministrativos, repositorios compartidos, protocolos que eviten la duplicación y la contradicción. La coherencia no es lujo, sino necesidad en un terreno donde cada fisura puede transformarse en coladero.

Una soberanía digital que no debe confundirse con repliegue. Gobernar no es amurallarse, sino abrir con condiciones: apostar por estándares abiertos, por interoperabilidad, por arquitecturas que no encadenen a la administración a proveedores que convierten el interés público en rehén de contratos opacos. La apertura, cuando está anclada en el interés general, es también una forma de libertad política. En estos gestos se cifra la conclusión más simple y acaso más difícil, la inteligencia artificial no es un destino, sino una materia dúctil que debemos trabajar con la tenacidad de un artesano y la visión de un legislador. Si logramos inscribirla en el registro de lo común, convertirá su potencia en bien compartido; si fracasamos, no hará sino engrosar las cadenas de un porvenir administrado por máquinas y contabilizado por unos pocos.

Para concluir este artículo, destacamos que la sostenibilidad integral no es un adorno superfluo, sino un mandato constitucional y europeo, El artículo 9.2 CE obliga a promover condiciones de libertad e igualdad reales y efectivas; el artículo 41 CDFUE reclama una buena administración transparente, el artículo 191 TFUE ordena integrar la protección ambiental en todas las políticas, por lo que la dimensión algorítmica no se excluye por defecto de esta norma. La inteligencia artificial, arribará a costas inimaginables para los hombres del presente, por lo que ningún legislador podrá prevenir todas las aristas de este fenómeno en su impacto con las leyes. Sin embargo, campos con mayor contenido polémico (ecológica y democrática) son parte de los retos y contingencias a las cual debemos estar preparados ya que disponemos de instrumentos necesarios para ello.

V. REFERENCIAS

Doctrina

Angwin, J, Larson, J., Mattu, S. y Kirchner, L. (2016). “Machine Bias.” ProPublica, 23 de mayo de 2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Balaguer Callejón, F. y Cotino Hueso, L. (coord.) (2023). Derecho público de la inteligencia artificial. Zaragoza: Fundación Manuel Giménez Abad.

Barocas, S. y Selbst, A. D. (2016). “Big Data’s Disparate Impact.” California Law Review 104 (3): 671–732.

Blázquez Ruiz, F. J. (2022). “La paradoja de la transparencia en la IA: Opacidad y explicabilidad. Atribución de responsabilidad.” Revista Internacional de Pensamiento Político 17: 261–72.

Bower, A., Kitchen, S. N., Niss, L., Strauss, M. J., Vargas, A. y Venkatasubramanian, S. (2017). “Fair Pipelines.” arXiv preprint. https://arxiv.org/abs/1707.00391.

Bryant, M. (2025). “Denmark to Tackle Deepfakes by Giving People Copyright to Their Own Features.” The Guardian, 27 de junio de 2025. https://www.theguardian.com/.

Couldry, N. y Mejias, U. A. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism. Stanford: Stanford University Press.

EDPB–EDPS (2021). Joint Opinion 5/2021 on the Proposal for an Artificial Intelligence Act. 18 de junio de 2021.

Ferrante, E. (2021). “Inteligencia artificial y sesgos algorítmicos: ¿Por qué deberían importarnos?” Nueva Sociedad 294: 27–36.

Friedman, B. y Nissenbaum, H. (1996). “Bias in Computer Systems.” ACM Transactions on Information Systems 14 (3): 330–47.

Garcerán Rojas (2025). “Las infraestructuras de centros de datos en España.” ICE, Revista de Economía 938. https://doi.org/10.32796/ice.2025.938.7889.

GPDP (Garante per la protezione dei dati personali). 2023. Provvedimento del 30 marzo 2023: ChatGPT – OpenAI. Roma, 30 de marzo de 2023. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847.

International Energy Agency (IEA). 2025. “AI Is Set to Drive Surging Electricity Demand from Data Centres.” Nota de análisis, 10 de abril de 2025. https://www.iea.org/news/ai-is-set-to-drive-surging-electricity-demand-from-data-centres.

Jegham, N., Abdelatti, M., Elmoubarki, L. y Hendawi, A. (2025). “How Hungry Is AI? Benchmarking Energy, Water, and Carbon Footprint of LLM Inference.” arXiv preprint. Última revisión 15 de julio de 2025. https://doi.org/10.48550/arXiv.2505.09598.

Junquera, L. et al. (2024). “Hydrological Drought Impacts in Southern Spain: Current Challenges and Adaptation Strategies.” arXiv preprint. https://arxiv.org/abs/2408.00683.

Lannelongue, L., Grealey, J. y Inouye, M. (2021). “Green Algorithms: Quantifying the Carbon Footprint of Computation.” Advanced Science 8 (12): 2100707. https://doi.org/10.1002/advs.202100707.

Li, P., Yang, J., Islam, M. A. y Ren, S. (2025). “Haciendo que la IA sea menos ‘sedienta’: Descubrir y abordar la huella hídrica secreta de los modelos de IA.” arXiv preprint. Última revisión 26 de marzo de 2025. https://doi.org/10.48550/arXiv.2304.03271.

Luccioni, A. S., Viguier, S. y Ligozat, A. L. (2023). “Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model.” Journal of Machine Learning Research 24: 1–56.

Ministerio para la Transición Ecológica y el Reto Demográfico (MITECO) (2025). Proyecto de Real Decreto por el que se regula la eficiencia energética y la sostenibilidad en los centros de datos. Documento sometido a consulta pública. https://www.miteco.gob.es/es/energia/participacion/2025/detalle-participacion-publica-k-775.html.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press.

OECD (2024). OECD Digital Economy Outlook. Paris: OECD Publishing. https://doi.org/10.1787/f0b5c251-en.

Ortiz Freuler, J. (2025). “Infrastructural Power: State Strategies for Internet Control.” Internet Policy Review 14 (2). https://doi.org/10.14763/2025.2.2009.

Pasquale, F. (2016). The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.

Patterson, D., Gonzalez, J., Le, Q. V., Liang, C., Munguia, L. M., Rothchild, D., So, D. R., Texier, M. y Dean, J. (2021). “Carbon Emissions and Large Neural Network Training.” arXiv preprint. https://arxiv.org/abs/2104.10350.

Pohle, J., y Thiel, T. (2020). “Digital Sovereignty.” Internet Policy Review 9 (4). https://doi.org/10.14763/2020.4.1532.

Prieto Pérez, T. (2025). “Cláusulas medioambientales en la contratación pública: hacia un modelo sostenible y responsable.” Revista Justicia & Trabajo, número extraordinario de 2025.

Public Policy (University College Dublin) (2024) “Data Centres in Ireland.” Public Policy, 10 de octubre de 2024. https://publicpolicy.ie/papers/data-centres-in-ireland/.

Robinson, N., Kask, L. y Krimmer, R. (2019). “The Estonian Data Embassy and the Applicability of the Vienna Convention: An Exploratory Analysis.” En Proceedings of the 12th International Conference on Theory and Practice of Electronic Governance, 391–96.

Selbst, A., Boyd, D., Friedler, S. A., Venkatasubramanian, S. y Vertesi, J. (2019). “Fairness and Abstraction in Sociotechnical Systems.” En Proceedings of the Conference on Fairness, Accountability, and Transparency (FAccT ’19), 59–68. New York: Association for Computing Machinery.

Sevilla, J., Smith, L., Krueger, D. y Everitt, T. (2022). “Compute Trends Across Three Eras of Machine Learning.” arXiv preprint. https://doi.org/10.48550/arXiv.2202.05924.

Sierzputowski, B. (2019). “The Data Embassy under Public International Law.” International & Comparative Law Quarterly 68 (1): 225–42.

Sobrino-García, I. (2025). “La implementación de la infraestructura verde mediante la contratación pública: reflexiones sobre el contrato de mantenimiento y conservación.” Repositorio Universidade da Coruña. https://doi.org/10.56398/ajacieda.00406.

UNESCO (2021). Recomendación sobre la ética de la inteligencia artificial. París: UNESCO.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs.

Jurisprudencia

TJUE (Tribunal de Justicia de la Unión Europea). 2014. Digital Rights Ireland, C-293/12 y C-594/12, sentencia de 8 de abril de 2014, EU:C:2014:238.

TJUE (Tribunal de Justicia de la Unión Europea). 2016. Tele2 Sverige y Watson, C-203/15 y C-698/15, sentencia de 21 de diciembre de 2016, EU:C:2016:970.

TJUE (Tribunal de Justicia de la Unión Europea). 2020. Data Protection Commissioner v Facebook Ireland Ltd y Maximillian Schrems (Schrems II), C-311/18, sentencia de 16 de julio de 2020, EU:C:2020:559.

Normativa

Normativa UE

Unión Europea (2012). Protocolo n.º 26 sobre los servicios de interés general. DOUE C 326/307, de 26 de octubre de 2012.

Unión Europea (2016). Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas… (RGPD). DOUE L 119, de 4 de mayo de 2016.

Unión Europea (2023). Directiva (UE) 2023/1791 del Parlamento Europeo y del Consejo de 13 de septiembre de 2023 relativa a la eficiencia energética… DOUE L 231, de 20 de septiembre de 2023.

Unión Europea (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de IA). DOUE L 202, de 20 de junio de 2024.

Normativa España

España (2011). Ley 8/2011, de 28 de abril, por la que se establecen medidas para la protección de las infraestructuras críticas. BOE núm. 102, de 29 de abril.

España (2015). Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas. BOE núm. 236, de 2 de octubre.

España (2021). Ley 7/2021, de 20 de mayo, de Cambio Climático y Transición Energética. BOE núm. 121, de 21 de mayo.


[2] El vocablo “explicabilidad”, ausente todavía del acervo normativo de la Real Academia, ha encontrado sin embargo acomodo en la literatura técnica sobre inteligencia artificial, donde traduce la noción anglosajona de explainability. Designa la aptitud de un modelo algorítmico para ofrecer una razón inteligible de sus operaciones internas y de los resultados que genera, especialmente en arquitecturas opacas de aprendizaje profundo. Su empleo responde, pues, a la necesidad de dotar de transparencia y rendición de cuentas a procesos de decisión que, por su propia complejidad matemática, tienden a velarse bajo un hermetismo que resulta inaceptable en contextos de relevancia pública o jurídica.

[3] Tamara Prieto Pérez, «Cláusulas medioambientales en la contratación pública: hacia un modelo sostenible y responsable», Revista Justicia & Trabajo, n.º extraordinario (2025).

 

Copyright

Estudios de Deusto es una revista de acceso abierto, lo que significa que es de libre acceso en su integridad. Se permite su lectura, la búsqueda, descarga, distribución y reutilización legal en cualquier tipo de soporte sólo para fines no comerciales, sin la previa autorización del editor o el autor, siempre que la obra original sea debidamente citada y cualquier cambio en el original esté claramente indicado.

Estudios de Deusto is an Open Access journal which means that it is free for full access, reading, search, download, distribution, and lawful reuse in any medium only for non-commercial purposes, without prior permission from the Publisher or the author; provided the original work is properly cited and any changes to the original are clearly indicated.