Estudios de Deusto

Revista de Derecho Público

ISSN 0423-4847 (Print)

ISSN 2386-9062 (Online)

DOI: http://dx.doi.org/10.18543/ed

Vol. 72/1 enero-junio 2024

DOI: http://dx.doi.org/10.18543/ed7212024

Monográfico: La independencia del poder judicial en el constitucionalismo actual

EL JUEZ-ROBOT Y SU ENCAJE EN LA CONSTITUCIÓN ESPAÑOLA. LA INTELIGENCIA ARTIFICIAL UTILIZADA EN EL ÁMBITO DE LA TOMA DE DECISIONES POR LOS TRIBUNALES

The «Robot-Judge» and its compatibility with the Spanish Constitution. The use of artificial intelligence in the decision-making process by the courts

Elena Pineros Polo[1]

Contratada Doctora

Universidad Rey Juan Carlos, España

https://orcid.org/0000-0001-5582-2149

https://doi.org/10.18543/ed.3100

Fecha de recepción: 25.04.2024

Fecha de aceptación: 10.05.2024

Fecha de publicación en línea: junio 2024

Resumen

La Inteligencia Artificial (IA) está en nuestras vidas desde hace décadas. No obstante, en los últimos años el desarrollo tecnológico ha sido tan rápido, que ha provocado gran recelo en ciertos sectores, siendo el ámbito judicial uno de ellos. Este trabajo reflexiona sobre la conjugación entre IA y decisión judicial. El objetivo es analizar cómo encajaría en la configuración constitucional de la Justicia, la utilización de los sistemas de IA, aplicados concretamente al ámbito de toma de decisiones por los tribunales españoles. Nuestra Constitución configura la potestad jurisdiccional para ser administrada por jueces y magistrados, integrantes del poder judicial. Analizamos la potencial sustitución de jueces por sistemas de IA y los riesgos que ello implicaría para la independencia e imparcialidad.

Palabras clave

Inteligencia artificial; función jurisdiccional; independencia judicial; imparcialidad; juez-robot.

Abstract

The Artificial Intelligence has been a part of our lives for decades. However, in recent years. Technological development has been so rapid that it has sparked great concern in certain sectors, judiciary being one of them. This paper reflects on the intersection between AI and judicial decision-making. The objective is to assess how the integration of AI systems aligns with the constitutional framework of the judicial function, specifically in the context of decision-making by the Spanish Courts. Our Constitution establishes that judicial authority is to be exercised by judges and magistrates, who are members of the judiciary. We examine the potential substitution of judges by AI systems, and the associated risks for their independence and impartiality.

Keywords

Artificial Intelligence; judicial function; judicial Independence; impartiality; robot-judge.

Sumario: I. Introducción. II. Aproximación al concepto de Inteligencia Artificial. 1. Los datos como núcleo esencial de la IA. 2. ¿Qué es un algoritmo? 3. El anglicismo Machine Learning: la capacidad de los sistemas de IA para aprender y mejorar. 4. Resultado de la aproximación conceptual. III. La configuración constitucional de la potestad jurisdiccional. IV. Inteligencia Artificial e independencia judicial. V. Inteligencia artificial e imparcialidad judicial. VI. Conclusiones. VII. Bibliografía.

I. INTRODUCCIÓN

La utilización de los sistemas de inteligencia artificial (IA) está generando gran polémica. Existe cierto recelo generalizado en relación con el uso de la IA en muchos sectores. Podemos encontrar voces alabando las ventajas de la automatización inteligente, en todo tipo de profesiones. No obstante, también hay muchos escépticos, temerosos del rapidísimo avance y la ausencia de herramientas jurídicas y sociales para hacer frente a los efectos adversos de la aplicación masiva de sistemas de IA en todo tipo de esferas.

Este trabajo se centra en analizar la aplicación de la inteligencia artificial al ámbito de la Justicia, y más concretamente al ejercicio de la función jurisdiccional, todo ello desde el examen de la configuración constitucional de la potestad de jueces y magistrados de procurar la tutela judicial. El artículo estudia cómo subsumir en el marco constitucional la aplicación de la inteligencia artificial, al ámbito de toma de decisiones sobre el fondo que realizan jueces y magistrados.

El surgimiento de la informática revolucionó y continúa revolucionando nuestras vidas en todos los aspectos, tanto profesional como personal. La aparición de la IA ha supuesto un avance brutal. El origen de lo que hoy conocemos con inteligencia artificial lo encontramos a mediados del siglo pasado, cuando en diversos foros se presentaron las primeras máquinas inteligentes que emulaban rudimentariamente el funcionamiento del pensamiento humano[2].

La capacidad de los ordenadores personales actuales es exponencialmente mayor que sus antecesores; las máquinas de las que disponemos ahora son capaces de almacenar y gestionar una cantidad descomunal de datos, inabarcables para la mente humana. Las posibilidades que nos ofrece esa gestión masiva de datos son abrumadoras. La cuarta revolución industrial es una realidad incontestable que ha irrumpido con firmeza y obvia vocación de permanencia. En consecuencia, tal como apunta Barona Vilar, la transformación de espacios, protagonistas y valores está siendo progresiva e imparable[3].

La inteligencia artificial nos rodea, y es ya tan cotidiana[4] que no percibimos su existencia. Los sistemas que ofrecen el producto más adecuado a nuestras preferencias revelan que la IA está absolutamente presente en nuestro comportamiento como consumidores. Asimismo, contamos con mecanismos de navegación inteligente que nos asisten a diario para encontrar la ruta más corta y rápida al lugar al que nos dirigimos. De esa incuestionable dependencia de la informática y sus máquinas, surge con fuerza la idea de tecnología autónoma que imita la actividad cognitiva humana y permite reproducir nuestros comportamientos. Desde mediados del siglo XX han surgido máquinas complejas y sistemas informáticos avanzados que imitan el razonamiento natural y exclusivo de las personas humanas. Gracias a los procesos lógico-matemáticos la IA procesa y analiza datos a una velocidad vertiginosa. Además, es capaz de aprender a medida que desarrolla su actividad, lo cual ofrece unas posibilidades extraordinarias de mejora, en el sentido de perfeccionamiento del propio sistema.

El temor a la sustitución de los humanos por sistemas de IA en muchas profesiones está generando gran preocupación y rechazo. La reciente aplicación de los sistemas de automatización mediante IA ha dado lugar a relevantes protestas en diversos sectores profesionales. El sector de la industria manufacturera, así como del transporte han mostrado gran preocupación por los efectos de la automatización de sus procesos productivos en los derechos laborales[5]. Las huelgas de guionistas, actores y otros profesionales del cine que tuvieron lugar en el mes de mayo de 2023 en los Estados Unidos constituyen la primera manifestación significativa de ese temor[6].

Recomienda Nieva Fenoll no ser ingenuos pensando que la IA no llegará a utilizarse más en el ámbito de la Justicia[7]; no solo para agilizar la búsqueda de jurisprudencia o como herramienta de consulta para la evaluación del riesgo en la adopción de decisiones relativas a las diligencias de investigación durante la instrucción penal; sino como mecanismo automático para tomar decisiones judiciales, donde el factor humano pierda el protagonismo, y sea relegado a un segundo plano para simplemente supervisar el resultado adoptado por estas máquinas.

Esparza Leíbar, Fernández Galarreta[8] y Gómez Colomer manifiestan su preocupación respeto del futuro inmediato e incierto que nos espera (Esparza Leibar, I., Fernández Galarreta, F. J., 2023: 4-5; Gómez Colomer, J. L., 2023a: 25-35; Gómez Colomer, J. L., 2023b: 129-154). Es fácil intuir cambios importantes en las fórmulas que venimos utilizando para resolver los conflictos; en especial en sede judicial donde el juez-robot se torna como futurible más que cercano[9].

El mundo del Derecho no debe quedar distanciado de la evolución tecnológica. Los juristas necesitamos participar del progreso de la tecnología y beneficiarnos de ella. Se avecinan cambios trepidantes de carácter social y jurídico, propiciados por la generalización en el uso de esta tecnología. Debemos estar preparados para la transformación del Derecho clásico en un Derecho líquido, que se aclimate a la nueva sociedad cambiante o modernidad líquida[10]. Asimismo, el tradicional carácter arcaico y esencialmente conservador del Derecho va a transformarse como consecuencia de la entrada de la IA en nuestro mundo jurídico[11].

En primer lugar, realizamos una aproximación conceptual a la noción de inteligencia artificial. Con el fin de facilitar una comprensión inicial de lo que esta herramienta representa para el desarrollo de la actividad jurisdiccional. La intención es permitir un entendimiento básico de su significado, lo cual resulta suficiente para abordar la reflexión sobre la aplicabilidad de la IA en la resolución judicial de conflictos.

Abordamos después la configuración constitucional de la potestad jurisdiccional. La facultad de «juzgar y hacer ejecutar lo juzgado» tal como se concibe por el Ordenamiento Jurídico español, se ejercita exclusivamente por los integrantes del poder judicial, es decir, por unos concretos profesionales: los jueces y magistrados. El Título VI de nuestra Carta Magna dedica once artículos a diseñar tercer poder del estado, armando una estructura sólida concebida sobre la base una Justicia administrada por personas físicas.

Una vez aclarados los términos técnico-informáticos, así como el diseño constitucional de la función jurisdiccional, este trabajo se centra en el análisis de la complicada conjugación entre la necesaria garantía de la independencia judicial y la aplicación de los sistemas de IA al área específica de toma de decisiones judiciales. La independencia de jueces y tribunales en el ejercicio de la actividad jurisdiccional, en los términos en que se delimita en la Constitución Española, tiene muy difícil encaje en la idea de juez-robot, esto es, la utilización de sistemas de IA capaces de adoptar decisiones respecto de la resolución de conflictos en sede judicial.

La imparcialidad también puede verse amenazada. En una primera aproximación al asunto, la ausencia de emociones y sentimientos de la máquina, junto con su automatismo basado en operaciones opacas de carácter técnico se podrían percibir como elementos positivos. No obstante, una reflexión más profunda no resulta tan ventajosa. En efecto, centrándonos en la persona o personas que crean esas ecuaciones lógico-matemáticas: el analista de datos, quien trabaja junto con un equipo de profesionales desarrolladores; se observa el peligro de encontrar cierta impronta personal de esos profesionales en su creación; lo cual puede conducir a la aparición de determinados condicionamientos o sesgos durante la ejecución de tareas por parte de la máquina.

Por último, ofrecemos las conclusiones alcanzadas en esta investigación, así como una predicción del futuro inmediato.

II. APROXIMACIÓN AL CONCEPTO DE INTELIGENCIA ARTIFICIAL

Intentar definir la IA[12] resulta demasiado ambicioso para este trabajo. No pretendemos ofrecer un concepto integrador. No hemos hallado una única definición unánime al respecto. La ciencia computacional ha evolucionado y con ella el concepto de inteligencia artificial, al igual que nuestra percepción y comprensión del fenómeno. Utilizamos en esta investigación una descripción sencilla de inteligencia artificial, una noción suficiente para centrarnos en el análisis de la implementación de estos sistemas en sede judicial, así como de los efectos jurídicos de la utilización de esta herramienta informática en la resolución de litigios. Describimos brevemente cómo actúa la Inteligencia Artificial desde una aproximación jurídica, alejada del aspecto puramente técnico (Dolz Lago, M-J., 2022: 970-979).

Este trabajo se aproxima con modestia a ciertos conceptos técnicos que aborda desde la precaución de quien intenta entender términos y procesos informático-matemáticos ajenos a su formación y conocimiento. Con valentía intentamos asimilar y asumir como naturales, el funcionamiento de los procesos que llevan a cabo esas herramientas de IA creadas por matemáticos e ingenieros. Algunos juristas sentimos cierta aprensión al adentrarnos en cuestiones técnicas que nos resultan difíciles de entender, puesto que carecemos de la formación específica que recibieron los matemáticos e ingenieros informáticos. Sin embargo, esta investigación humilde y respetuosa ofrece el resultado de una reflexión de carácter jurídico respecto de la utilización de esos procesos matemático-informáticos al resultado último del ejercicio de una de las tres funciones esenciales del Estado, como es la función jurisdiccional; observando el ejercicio de la potestad jurisdiccional desde la concepción constitucional de la misma.

La característica distintiva de la inteligencia artificial radica en su capacidad para gestionar un colosal volumen de datos. El profesor Gómez Colomer define el Big Data como una novedosa tecnología que permite, de un lado almacenar y procesar unas cantidades colosales de datos, previamente recopilados; y de otro analizar toda esa masa gigantesca de datos almacenada de manera ordenada[13]. El macrodato es por tanto, una herramienta formidable. Posibilita al usuario gestionar ingentes cantidades de datos almacenados anteriormente, para extraer información precisa, llegando a inferir conclusiones (Pérez Estrada, M. J., 2022: 26-37)[14].

1. Los datos como núcleo esencial de la IA

No cabe duda de que los datos constituyen el componente fundamental de esta nueva tecnología. Sin datos la herramienta no es útil. Es en los datos donde radica la esencia de la IA. Cuantos más datos maneje el sistema, más operacional será, puesto que podrá ofrecer conclusiones más acertadas.

En consecuencia, resulta esencial que la obtención, almacenamiento y utilización de los datos se realice correctamente. La importancia de ordenar y organizar las bases de datos que alimentarán la máquina de juzgar es superlativa. Preocupa mucho la forma en se obtienen los datos y la finalidad de la recogida, así como el almacenamiento de estos, con el objetivo de servir de alimento a la máquina de juzgar (Ariza Colmenarejo, M. J., 2023: 28-37); en particular los datos de carácter personal, los que contienen información íntima, y que como consecuencia de las operaciones matemáticas-informáticas que debe realizar la herramienta, pueden ser utilizados de forma incorrecta, o al menos no para la finalidad original para la que se cedieron.

Detengámonos primero en analizar brevemente el marco regulador en España relativo a la obtención, almacenamiento y utilización de datos personales, antes de adentrarnos en el uso de tales datos por la máquina de juzgar.

La LO 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de Derechos Digitales (LOPDGDD) constituye la pieza legislativa central de nuestro Ordenamiento Jurídico. Esta ley surge para adaptar la legislación española al Reglamento General de Protección de Datos de la Unión Europea[15]. La LOPDGDD reconoce el carácter fundamental del derecho a la protección de datos, incardinado en el artículo 18.4 de la Carta Magna. El Constituyente en 1978 ya vislumbraba el avance de la informática y los riesgos que dicha evolución conllevaría para el derecho a la intimidad de los individuos, así como para el libre ejercicio y disfrute del resto de derechos y libertades constitucionales. Por ello, la Carta Magna española añadió junto con al reconocimiento del derecho al honor y a la intimidad una previsión de futuro, obligando al legislador a limitar por ley el uso de la informática para garantizar y proteger el honor, la intimidad y el pleno ejercicio de los derechos[16].

A colación, con el fin de aclarar de un lado, la concepción del derecho fundamental a la protección de datos, y de otro, el ámbito del derecho, conviene recordar cómo el Tribunal Constitucional (TC) reconoció ambas circunstancias.

Efectivamente, el Tribunal Constitucional en la Sentencia STC 94/1998, de 4 de mayo[17], identificaba el carácter fundamental al derecho a la protección de datos[18], incluido en el contenido del derecho a la intimidad, y mencionado en el apartado 4 del artículo 18 de la Constitución Española, dotándolo en consecuencia de una tutela especial. La obligación constitucional de limitar por ley el uso de la informática para garantizar la intimidad personal y familiar, así como el derecho al honor y el libre disfrute del resto de derechos, supone el reconocimiento de la existencia del derecho a la protección de los datos como se mencionaba más arriba.

Los derechos fundamentales y libertades públicas constitucionales gozan de una protección específica. El artículo 53 de la Constitución exige el respeto de los derechos y libertades fundamentales por parte de los poderes públicos, y reconoce una tutela judicial especial de los mismos, tanto en la jurisdicción ordinaria a través de un procedimiento basado en los principios de preferencia y sumariedad; como ante el propio Tribunal Constitucional mediante el recurso de amparo.

Pocos años después el Tribunal Constitucional aborda de nuevo el derecho fundamental a la protección de datos, esta vez para puntualizar el ámbito del derecho, en relación con el tipo de datos protegidos. La sentencia 292/2000 de 30 de noviembre[19] resolvió un recurso de inconstitucionalidad relativa a de determinados preceptos de la anterior Ley de Protección de Datos[20]. Para ello el Tribunal Constitucional[21] analiza el objeto de la protección del derecho fundamental a la protección de datos. En dicho análisis el TC fija el concepto de dato personal incluyendo no solo los datos íntimos, sino cualquier información sobre la persona que identifique o permita identificar al sujeto, que puedan servir para la elaboración de perfiles de toda índole, o para cualquier otra utilidad que suponga una amenaza para el individuo[22].

El Tribunal Constitucional trató en esta sentencia una segunda peculiaridad del derecho a la protección de datos: la facultad que confiere al titular de los datos el poder para disponer y controlar el uso que de los mismos haga un tercero. Poder que se articula sobre dos pilares: el consentimiento y el control del titular del dato. En consecuencia, la obtención del dato solo puede realizarse en caso de contar con el previo consentimiento del afectado. Así mismo, el titular de los datos debe saber quién posee esos datos personales y con qué finalidad, pudiendo oponerse tanto a la posesión como a la utilización de sus datos por parte del tercero. Aquel que utilice los datos debe recabar el consentimiento no solo para conseguir la obtención legal del mismo, sino también para el tratamiento del dato. El derecho fundamental a la protección de datos garantiza a su titular el derecho a ser informado de quién posee sus datos, y con qué fin, así como el derecho a oponerse a esa posesión y uso. En consecuencia, los propietarios de los ficheros de datos, y también terceros concesionarios deben facilitar el acceso de los afectados a sus datos, y la cancelación del asiento[23].

El consentimiento se configura, por tanto, como el eje principal sobre el que se construye el marco regulador de la protección de datos. La ley, refiriéndose al Reglamento General de Protección de Datos, exige que el consentimiento sea una manifestación de voluntad realizada de forma libre, específica, informada e inequívoca[24]. El titular de los datos que se solicitan, almacenan y utilizan debe aceptar libremente todas estas acciones. Como consecuencia de la regulación del consentimiento, el derecho a la protección de datos engloba el derecho de la persona a mantener el control sobre sus datos, así como sobre su uso y destino; todo ello con el fin de evitar el tráfico ilícito y/o lesivo para los derechos del afectado. El titular de los datos decide qué información proporciona, y con qué finalidad.

La Ley Orgánica del Poder Judicial (LOPJ)[25] establece una diferencia relevante en relación con la obtención y tratamiento de los datos personales en sede judicial. El artículo 236 bis de la LOPJ clasifica el tratamiento de datos personales atendiendo a la finalidad jurisdiccional o no jurisdiccional de los mismos. La recopilación de los datos de la primera categoría se obtiene durante el desarrollo de la actividad jurisdiccional, conformando todos ellos el expediente judicial. En efecto, los tribunales manejan infinidad de datos relativos a las partes del proceso, así como otros sujetos que intervienen en la litigación. La administración de justicia, como exige la Ley Orgánica de Protección de Datos Personales y Garantía de los Derechos Digitales LO 3/2018 recopila en consentimiento del titular respecto de los datos que solicita y utiliza. No obstante, la aceptación del titular de los datos que se incluyen en autos[26] no será necesaria si concurre alguna de las circunstancias que menciona el artículo 236 ter apartado 3 de la Ley Orgánica del Poder Judicial: si el titular afectado es parte en un proceso judicial, y facilita voluntariamente los datos al tribunal; o cuando es la propia autoridad judicial quien requiere la información.

Absolutamente todos los datos personales que constan en los ficheros judiciales fueron obtenidos por una de las dos vías que menciona el precepto anterior. Datos personales legalmente obtenidos, que pueden utilizarse para utilizar la IA al servicio de la administración de justicia.

2. ¿Qué es un algoritmo?

Además de los datos, el segundo término esencial para entender qué es la inteligencia artificial es algoritmo. Este vocablo matemático se refiere a un conjunto ordenado y finito de operaciones que permite alcanzar la solución a un problema[27].

Los sistemas de IA emplean algoritmos, utilizan esas operaciones lógico-matemáticas diseñadas por un ingeniero técnico informático o desarrollador, para procesar los datos que previamente fueron almacenados, y así poder ofrecer una respuesta a una cuestión que queremos resolver utilizando los sistemas de IA.

La función del técnico es traducir la pregunta al lenguaje informático, creando el número de ecuaciones matemáticas que sean necesarias. Gracias a la formidable evolución en la capacidad de las máquinas actuales, en un brevísimo lapso temporal esta tecnología podrá responder a la pregunta planteada.

El sistema se alimenta con datos, como explicamos en el epígrafe anterior; una ingente cantidad de datos almacenados ordenadamente en una base de datos, que el algoritmo analiza, seleccionando solo la información útil para da respuesta a la pregunta formulada.

En suma, son tres los elementos que debemos identificar: los datos, el algoritmo y la cuestión que le planteamos a la herramienta.

3. El anglicismo Machine Learning: la capacidad de los sistemas de IA para aprender y mejorar

Esta tecnología es tan compleja y avanzada, que tiene la capacidad de ir perfeccionándose de forma autónoma con su propio funcionamiento. En efecto, los sistemas de IA aprenden de manera independiente. El anglicismo Machine Learning describe precisamente esa la capacidad de mejora y perfeccionamiento a través del desarrollo de su propia actividad. Entrenando, la máquina se perfecciona, convirtiéndose en un sistema experto.

La IA es capaz de detectar patrones para elaborar de forma automática modelos que ofrecen predicciones, o incluso toman decisiones. Todo ello a partir del análisis de una ingente cantidad de datos previamente suministrados. Además, el análisis es cada vez mejor, cuanto más actúa la máquina. Se trata de procesos en evolución constante, que tienen como objetivo ofrecer mejores resultados, lo cual consigue a través de su propia actividad.

No obstante, el algoritmo funciona como una «caja negra», con gran opacidad. Como consecuencia del enorme volumen de datos que maneja, y siendo tan rápidas las operaciones para detectar correlaciones y elaborar los modelos utilizados en el procesamiento de los datos, no es posible explicar la relevancia de los distintos factores que han utilizado para generar la predicción o decisión. Esta tecnología cognitiva cruza los datos por medio de redes neuronales artificiales tan veloces, que no podemos identificar los elementos que llevaron a la máquina al resultado finalmente ofrecido. Lo cual puede derivar en ciertas dificultades para detectar si la máquina está desarrollando sus procesos conforme a la legislación, especialmente respecto de las disposiciones legales sobre protección de derechos fundamentales, imputar responsabilidades y reclamar la reparación del daño provocado por esas infracciones[28].

De Hoyos Sancho analizó esta cuestión a colación del reciente asunto Eric Loomis resuelto en 2016 por el Tribunal Supremo de Wisconsin[29] para referirse a los negativos efectos de la opacidad de los algoritmos, concretamente refiriéndose a los fallos del análisis predictivo. La autora, tras estudiar este caso, así como las opiniones doctrinales de académicos de España, Estados Unidos e Italia, concluye que la falta de transparencia respecto del funcionamiento del sistema, junto con la protección del secreto comercial de la empresa creadora, conducen a la vulneración de derechos fundamentales de carácter procesal, como el derecho de defensa o la igualdad de partes (De Hoyos Sancho, M., 2021: 3-6).

Efectivamente, la «aparente neutralidad y objetividad» de los sistemas de IA no respecta las garantías constitucionales establecidas para el ejercicio correcto de la función jurisdiccional (De Hoyos Sancho, M., 2021: 3-6).

En último lugar, es necesario identificar al creador de la IA. Esa persona o personas que idean el algoritmo y deducen las operaciones lógico-matemáticas antes mencionadas. En esos equipos de profesionales hay distintos especialistas con formación diversa. El analista de datos o data scientist sería el más relevante de todos los sujetos que intervienen en la creación de la herramienta, puesto que es el humano que define el algoritmo. Intervendrían también otros desarrolladores que complementarían el producto.

4. Resultado de la aproximación conceptual

La conclusión de la humilde aproximación conceptual que realiza este trabajo nos lleva a identificar la Inteligencia Artificial como una herramienta informática diseñada por humanos, que mediante el análisis a gran velocidad de una ingente cantidad de datos previamente suministrados, es capaz de responder una cuestión, hacer una predicción o solucionar problema que le plantee el usuario, utilizando para ello un conjunto de operaciones lógico-matemáticas creadas por uno o más técnicos, denominados genéricamente como desarrolladores.

Este primer epígrafe fue el sencillo acercamiento al aspecto técnico del objeto de este trabajo. Como anunciábamos anteriormente, pese a que dicho estudio constituye un requisito previo necesario, el foco principal de este trabajo recae en el análisis de los principios jurídico-procesales del ejercicio de la potestad jurisdiccional tal como los enuncia la Constitución Española.

III. LA CONFIGURACIÓN CONSTITUCIONAL DE LA POTESTAD JURISDICCIONAL

Las sociedades se organizan para cumplir determinadas funciones esenciales que cubren las necesidades de los individuos que las componen. Una de esas funciones es la función jurisdiccional, que consiste en resolver controversias, en tutelar derechos e intereses legítimos[30]. Esta tutela y realización del Derecho engloba grandes operaciones cognitivas y volitivas, esto es, juzgar y ejecutar lo juzgado. No obstante, estos actos intelectuales vienen precedidos de otros, con el mismo carácter intelectivo y volitivo, que le sirven de acciones preparatorias. A toda esa sucesión de actos ordenados y jurídicamente reglados, creada por y para humanos, se le denomina proceso[31]. Unos no tienen sentido sin los otros, y todos ellos requieren el intelecto humano para ser completos y ajustarse al mandato constitucional, como analizamos a continuación.

El principio de monopolio estatal de la jurisdicción[32] queda recogido en el artículo 117.1 en relación con el 1.2 de nuestra Carta Magna, refiriéndose a la función jurisdiccional como elemento que integra la soberanía del Estado, que solo puede ser ejercitado por unos concretos sujetos: los jueces y magistrados, integrantes del poder judicial. Por tanto, solo ese determinado cuerpo de profesionales que desarrollan su labor al servicio del Estado puede ejercitar la función jurisdiccional. En este sentido, el monopolio estatal de la jurisdicción se encuentra estrechamente relacionado con el principio de reserva de jurisdicción o exclusividad jurisdiccional.

En efecto, el principio de reserva de jurisdicción consagrado por el apartado 3 del artículo 117 de la Constitución Española, reserva exclusivamente a los Juzgados y Tribunales determinados por las leyes, el ejercicio de la potestad jurisdiccional, en todo tipo de procesos. Solo este tipo de órganos podrá juzgar y hacer ejecutar lo juzgado. Con ello el Constituyente quiso evitar que otro tipo de órganos, que desarrollan su labor sin el amparo de las garantías constitucionales descritas en este epígrafe, pudiesen ejercer la jurisdicción. Así mismo, esta exclusividad de la jurisdicción tiene una perspectiva negativa, que impide a los Juzgados y Tribunales ejercer otra función. Efectivamente, el apartado 4 del artículo 117 se lo prohíbe expresamente.

Por último, el principio constitucional de unidad jurisdiccional enunciado en el apartado 5 del artículo 117 de nuestra Carta Magna, debe abordarse desde dos perspectivas.

La vertiente externa de este principio se encuentra en la concepción de la jurisdicción como una función única para todo el Estado, en el sentido competencial. La configuración territorial del Estado no incluye la concesión de la potestad jurisdiccional a ningún órgano infra-estatal, en consecuencia, las Comunidades Autónomas ni los entes locales tienen atribuidas competencias jurisdiccionales. La administración de justicia es una competencia estatal[33].

La vertiente interna del principio de unidad jurisdiccional se proyecta sobre los órganos que ejercen la potestad jurisdiccional; los cuales por imperativo constitucional quedan sometidos a un régimen jurídico único. Esto impide la existencia de tribunales al margen de la jurisdicción ordinaria. Esta exigencia no obsta para que ciertos juzgados se especialicen, ni tampoco entra en contradicción con la existencia de ciertos tribunales, reconocidos por la propia Constitución, pero que no se integran en la jurisdicción ordinaria. En este último grupo encontramos al Tribunal Constitucional, el Tribunal de Cuentas, los tribunales de la jurisdicción militar.

En lo que respecta a este trabajo, resulta fundamental identificar en los anteriores principios constitucionales el concreto sujeto legitimado para el ejercicio de la función jurisdiccional. Asimismo, es esencial examinar de qué modo y con qué garantías los titulares de la potestad jurisdiccional desarrollan su labor.

El artículo 24 de la Constitución Española reconoce el derecho de todas las personas a obtener la tutela de jueces y tribunales. La protección procesal es la base esencial que sustenta y otorga efectividad a los demás derechos fundamentales y libertades públicas. Efectivamente, la tutela judicial representa el corazón del ordenamiento jurídico; sin el derecho a un juicio justo y con todas las garantías, el mero reconocimiento del resto de derechos y libertades públicas sería del todo incompleto e ineficaz. Jueces y magistrados independientes y responsables es en quienes se confía la prestación de la tutela judicial; seres humanos que reúnen los requisitos legales para acceder a la Judicatura (Gómez Colomer, J. L., 2023c: 7).

La idea de juez algorítmico[34] confronta con los principios constitucionales que definen la función judicial. La Constitución Española constituye la jurisdicción como un sistema judicial de humanos, pensado para los humanos, y que debe ser administrado por humanos. El anhelo por una justicia exacta, como si de matemáticas se tratase, es muy atractivo. La utopía de un sistema judicial perfecto, sin errores, ni retrasos, a través de la implantación de sistemas de inteligencia artificial que sustituyan el ejercicio de la función jurisdiccional, no resulta tan perfecta y deseable. Como analizaremos a continuación la utilización de las máquinas de juzgar no está exenta de errores y obstáculos.

IV. INTELIGENCIA ARTIFICIAL E INDEPENDENCIA JUDICIAL

La independencia judicial es un elemento esencial del Estado de Derecho. Se configura sobre la concepción de la separación de poderes, donde el poder judicial se mantiene independiente respecto de los restantes poderes del Estado. Apunta Gómez Colomer[35] que la Constitución Española proclama este principio en el artículo 117, entre otros, como «uno de los pilares básicos de la democracia española surgida después de 1978» (Gómez Colomer, J. L., 2023a: 197-220).

Los jueces son absolutamente soberanos en el ejercicio de la función jurisdiccional. Cuando ejercen su potestad están sometidos única y exclusivamente a la ley[36]. No deben ser perturbados en el ejercicio de su cometido, por ningún otro poder, institución, o individuo. Permanecen totalmente independientes de cualquier tipo de intromisión externa, tanto por parte de los otros poderes del Estado y sus instituciones, como de los propios colegas de profesión. Mientras desarrollan su actividad judicial deben abstraerse de influencias, opiniones y presiones…por parte de miembros del Ejecutivo, del Parlamento, de la propia Judicatura o de la Fiscalía…y por supuesto de los juicios de valor u opiniones de los medios de comunicación.

Entre las garantías legales de la independencia judicial merece especial mención la inamovilidad judicial. La Constitución establece la imposibilidad de separar, suspender, trasladar ni jubilar a un miembro de la Judicatura, salvo por las causas previstas expresamente en la ley. Gracias a la inamovilidad los titulares de la potestad jurisdiccional pueden ejercitar su función sin miedo a que el sentido de sus decisiones pueda afectar a su carrera profesional.

La independencia de los integrantes del poder judicial es inherente al Estado de Derecho. Solo con un poder judicial verdaderamente independiente queda garantizada la esencia de la Democracia.

Partiendo de la anterior concepción constitucional de la independencia judicial, debemos plantear si podemos predicar la independencia judicial respecto de la actividad jurisdiccional que realicen las máquinas de juzgar.

Un juez robótico no sería susceptible de padecer presiones ejercitadas por los miembros de Ejecutivo, o del Parlamento… ni tampoco es fácil imaginar que pueda sentirse violentado en el desarrollo de su actividad por periodistas o los mismos miembros de la Judicatura. Por tanto, inicialmente, la exigida independencia judicial extrapolada a la posible actividad que realizase una máquina de juzgar puede parecer una incógnita relativamente fácil de resolver: la herramienta será independiente. La IA decidirá analizando los datos masivos de los que dispone sin influencia externa de ningún tipo. Sin embargo, no se puede extender la necesaria independencia a los humanos que crean el sistema de IA que realizará la actividad judicial. Efectivamente, no podemos garantizar que los técnicos-creadores sean independientes, a la luz de la concepción constitucional de independencia judicial. ¿Es posible que el científico de datos y todo el equipo de profesionales desarrolladores que intervienen en la creación del sistema, elaboren el algoritmo completamente ajeno a cualquier influencia por parte cualquiera de los tres poderes del Estado?

Lo cierto es que esta tecnología la están desarrollando empresas privadas, que desempeñan su actividad con opacidad, y cuyo producto está protegido por los derechos de autor (Faggiani, V., 2022: 523). Sus empleados son trabajadores sujetos al régimen general laboral, quedan sometidos, por tanto, al ideario, necesidades y estructura orgánica que determine su empleador. Las compañías privadas se rigen por sus criterios propios de organización y dependencia; asimismo pueden contar con una ideología concreta, con finalidades y exigencias determinadas, que no anteponen el interés público al propio de carácter totalmente privado. En definitiva, estos profesionales no gozan de la independencia que se garantiza constitucionalmente a jueces y magistrados.

En opinión de Nieva Fenoll será imprescindible que la contratación de especialistas técnicos se vigile muy bien, de manera que se articulen procesos de selección de personas ideológicamente orientadas a la protección y defensa de los valores democráticos en la medida que sea posible y siempre evitando situaciones discriminatorias. Lo cual va a resultar bastante difícil (Nieva Fenoll, J., 2018: 114-115)[37].

Habrá que regular con precisión, para el ámbito de Justicia en especial, esos criterios de selección del data scientist, y su grado de capacitación. Será necesario y a la par muy complejo equilibrar los derechos como trabajadores de empresas privadas y al mismo tiempo desarrollando de manera indirecta una función constitucional del estado. La creación del estatuto jurídico propio del científico de datos se antoja complicada.

V. INTELIGENCIA ARTIFICIAL E IMPARCIALIDAD JUDICIAL

A continuación, analizamos la incidencia de la IA en relación con otro de los principios inherentes al ejercicio de la función jurisdiccional. La imparcialidad establece la obligatoriedad de resolver el conflicto de forma objetiva, sin tomar parte, es decir, sin ningún tipo de conexión personal o profesional con las partes o el objeto del litigio.

Es necesario detenerse a observar las emociones y los sentimientos, las cuales, lejos de provocar parcialidad, constituyen un elemento connatural del ser humano. El juez tiene conciencia moral, experiencia social, sentido común, empatía. En opinión de Solar Cayón esas peculiaridades del razonamiento judicial hacen completamente estéril cualquier pretensión de automatización (Solar Cayón, J. I., 2022: 6).

La profesora Barona Vilar[38] identifica la incontestable emotividad como la discrecionalidad judicial. La perspectiva subjetiva e individual del juzgador, su afección y sensibilidad conforman piezas fundamentales en el momento en el que un juez decide la controversia. La discrecionalidad judicial es innegable, pero también imprescindible en la decisión judicial (Varela Gómez, B., 2023: 305-327). En efecto, en la valoración de los hechos, los sujetos y las circunstancias de cada caso es fundamental el elemento emocional. Las operaciones intelectuales que realiza el juez para aplicar la ley general al supuesto concreto no son automáticas en base a su conocimiento y experiencia, sino todo lo contrario. La elección de la solución más justa[39] constituye una manifestación del compromiso del juez con la sociedad, con el Ordenamiento Jurídico al que sirve. Efectivamente, la resolución del juez representa su compromiso de carácter particular con las partes, y también de carácter general con toda la sociedad. Su sentencia resuelve el conflicto, otorgando la tutela judicial requerida, y todo ello de forma responsable, puesto que el juez responde por sus decisiones.

Una preocupación importante respecto de la eventual sustitución de los jueces por máquinas de juzgar es la dificultad para identificar su posible responsabilidad civil derivada de los daños y perjuicios generados por error, o mal funcionamiento de la herramienta. El asunto es de importancia máxima, sin poder identificar con claridad quién es responsable por los daños provocados por la actuación del juez-robot, el perjudicado quedará desamparado, sin tutelar. Coincidimos con Gómez Colomer en que «la legislación actual es claramente insuficiente» para resolver los posibles problemas que surgirían al respecto (Gómez Colomer, J. L., 2023c: 8).

Se podría afirmar que la máquina de juzgar es absolutamente imparcial, debido al indiscutible rigor matemático y la total frialdad en la adopción de la solución. Ciertamente, esta herramienta carece de cualquier tipo de relación con las partes ni con el objeto del conflicto. El sistema de IA decide sin atisbo del componente emocional, que sí está presente en el razonamiento lógico humano del juzgador. Las operaciones cognitivas artificiales se ejecutan en ausencia absoluta de sentimientos y emociones. El juez algorítmico no se emociona, no se altera por lo que percibe del exterior poque no percibe nada del exterior, nada que no esté presente en las bases de datos que le sirve de alimento. No es posible incluir la percepción emocional en el Big Data. El sistema de IA ofrece su predicción o solución basada en el análisis de infinidad de casos anteriores en circunstancias similares, buscando patrones que aplica con automatismo.

Observando el futuro inmediato es obvio predecir el avance rapidísimo de esta tecnología, tal como viene ocurriendo desde que surgió. Probablemente estas máquinas de juzgar técnicamente, y a muy corto plazo, conseguirán emular también las emociones humanas; y estamos seguros de que lo harán con gran precisión. Esta herramienta pronto podrá actuar como si estuviese sintiendo. La posibilidad de que uno de estos humanoides pueda imitar gestos, muecas… no es una ficción lejana. Sin embargo, pese a que se pueda lograr emular la emoción humana, no será una emoción real, sino la repetición de un patrón de comportamiento. Tan solo se tratará de una imitación de nuestra conducta afectiva.

La indudable presencia de sentimientos y emociones pese a que inicialmente pueda resultar contradictorio con la imposición del deber de juzgar desde la absoluta ajenidad respecto del conflicto, no es tan incoherente. Efectivamente, como indicamos supra, no es concebible, ni tampoco deseable, la total abstracción por parte del juez, de sus propias emociones y sentimientos. Simplemente no es posible, por su condición humana. Se han realizado estudios psicológicos que valoran como un factor positivo la presencia de emociones y sentimientos en el mundo judicial, particularmente cuando se decide en equidad, o es necesario mitigar el efecto de la aplicación drástica de la ley, por ejemplo, cuando se requiere cierta piedad (Nieva Fenoll, J., 2018: 43-45).

Los jueces interpretan la ley para aplicarla al caso concreto; ese acto cognitivo de interpretación o adaptación de la norma general a las circunstancias específicas de esa causa particular tiene un componente emocional o cierto grado de discrecionalidad judicial inevitable. A modo de ejemplo, la decisión de un juez sobre la adopción o no de una medida cautelar se basa en la percepción del peligro, esto es, el riesgo de que de no adoptarse la medida cautelar derivará en situaciones que impedirán o dificultarán la efectividad de la tutela solicitada ante una eventual estimación de las pretensiones introducidas. En definitiva, la decisión sobre la adopción de las medidas cautelares se basa en una emoción, en la existencia del miedo (Montesinos García, A., 2022: 6). La ley requiere al juez que adopte una decisión judicial en base a una emoción. La influencia de sentimientos y emociones en el cerebro del juez ayuda a entender mejor el conflicto que debe resolver (Varela Gómez, B., 2023: 305-327).

Tal vez la frialdad de la máquina se pueda entender como una gran ventaja en el ámbito de la toma de decisiones judiciales. Dotaría de máxima objetividad a los procesos puesto que decidiría exclusivamente en base a los datos que maneja. No obstante, sabemos que los sistemas algorítmicos, pueden tener errores: los temidos sesgos (Conde Fuentes, J., 2023: 103-128).

El científico de datos y su equipo de desarrolladores elaboran el algoritmo siguiendo las pautas establecidas por los responsables últimos de la empresa. Conciben el algoritmo atendiendo a las necesidades y peculiaridades que le transmita el mandante. El contratante en la hipótesis planteada en este trabajo sería un órgano público; integrado en el poder judicial y a su vez, desvinculado de los poderes ejecutivo y legislativo. Órgano que no existe aún, pero nos corresponderá crear.

El producto resultante se adaptaría a las pautas indicadas por el cliente judicial, no obstante, no se puede ignorar el riesgo de encontrar cierta impronta personal del creador en su obra. A pesar de que el científico de datos y su equipo deberían trabajar junto con los jueces en la confección del algoritmo, el producto resultante no quedaría exento del riesgo de incluir los indeseados sesgos de dichos profesionales técnicos.

Aprecia Castillejo Manzanares cómo los valores humanos de aquellos que definen los parámetros de estos productos tecnológicos, «están incrustados en cada paso de su diseño» (Castillejo Manzanares, R., 2023: 82-83)[40]. La recopilación, preparación y análisis para crear el algoritmo final es un largo y complejísimo proceso humano que va más allá de un cálculo matemático[41], en el que es difícil asumir que no contenga resquicios de opiniones sesgadas de los creadores.

Como ejemplo podemos citar los controvertidos problemas que se detectaron en 2022 con el sistema de inteligencia artificial VioGen[42]. Esta herramienta se implementa en España en 2007. Se trata de un mecanismo que permite establecer la intensidad y nivel de riesgo de sufrir una nueva agresión para las mujeres víctimas de violencia de género. La máquina genera una base de datos a partir de la información que introducen en el sistema los agentes de la policía cuando realizan operativos policiales en el ámbito de la violencia de género. Los miembros de las unidades policiales cumplimentan unos formularios que alimentan la máquina, de manera que el sistema pueda pronosticar patrones de conducta de los maltratadores. La herramienta tenía algunos sesgos muy problemáticos que dieron como resultado la vulneración de derechos de ciertos colectivos. Un ejemplo de tales errores fue la asignación de un menor riesgo de padecer una nueva agresión violencia de género a la mujer que no tenía hijos, sin que ello correspondiese con el correspondiente incremento del nivel de riesgo para aquellas víctimas que sí tenían hijos. De igual manera, se ignoraban parámetros absolutamente relevantes a la hora de realizar las estimaciones, como algunas formas de violencia no física sino psicológica, o la pertenencia a grupos de población concretos (por ejemplo las mujeres inmigrantes). Estos factores contribuían a la obtención de resultados inexactos e imprecisos, ya que la valoración estaba sesgada, y revelaba un nivel de riesgo que no se correspondía con el riesgo real. Coincidimos con Castillejo Manzanares al identificar la indudable presencia de sesgos en el origen de la herramienta (Castillejo Manzanares, R., 2023: 82-83).

En definitiva, los sistemas de IA, así como las bases de datos que le sirven de alimento, presentan sesgos en su origen. Evitarlos o rectificarlos necesariamente obliga a adoptar importantes cautelas. Como punto de partida básico, enunciado supra, identificamos la necesidad de abordar la creación de los sistemas de IA para Justicia de manera multidisciplinar. Los equipos de trabajo necesariamente junto con el personal técnico responsable de la creación del algoritmo, deberá incluir otro tipo de profesionales. En primer lugar, los juristas; su aportación es indispensable. La visión filosófica debe estar presente[43], puesto que genera una reflexión humanística necesaria. Solo de este modo, con una aproximación multidisciplinar se obtendrá un producto de calidad óptimo para ser utilizado en Justicia.

Para que la fiabilidad de la predicción sea sólida y eficaz, los datos de los que se alimenta el sistema de IA deben recopilarse con mucho cuidado, en un entorno tecnológico seguro con parámetros de almacenamiento claros. La mayoría de los datos que se manejan en Justicia son de carácter personal, por lo que la diligencia máxima respecto al tratamiento que reciben estos datos debe ser especialmente riguroso con el cumplimiento de la ley.

Propone la profesora Castillejo Manzanares la creación de una agencia europea que monotorice la calidad de los sistemas de IA así como la rigurosa aplicación de la normativa sobre protección de datos (Castillejo Manzanares, R., 2023: 84-86). Ello sin duda, reforzaría la confianza que debe depositar la sociedad en la utilización de la IA por los jueces en sus decisiones. Se trataría de una fórmula de intervención pública que verificase la calidad y cumplimento de los estándares, por los sistemas de IA. Lo cual reduciría el temido riesgo de filtraciones de información confidencial de las empresas creadoras de estas herramientas.

En suma, la intervención de un ente público repercutiría en un incremento de la fiabilidad de unos sistemas de IA más transparentes. Ello a su vez, generaría una mayor confianza de la sociedad en estas herramientas inteligentes.

De igual modo, el control por un ente público reduciría el riesgo de infracción de los derechos de autor respecto de las creaciones de IA elaboradas por empresas privadas del sector tecnológico.

VI. CONCLUSIONES

La Constitución Española regula la potestad jurisdiccional como una función esencial del Estado. La configuración constitucional diseña una Justicia hecha por humanos para ser administrada por humanos. La irrupción de la inteligencia artificial en todos los sectores nos lleva a cuestionarnos cómo afectaría a la prestación de la debida tutela judicial efectiva a través de las máquinas de juzgar.

Un juez algorítmico inicialmente se podría considerar independiente en términos de ausencia de influencias de otros poderes del Estado. Sin embargo, el desarrollo de la actividad de estos sistemas no está exento de la particular visión, o ideario, de aquellos humanos que crean el sistema de IA. El científico de datos y su equipo de desarrolladores no son independientes, salpican al sistema con sus propias consideraciones y las de su empresa privada, lo cual da lugar a sesgos que resultan en graves errores en la determinación del resultado.

Para dar solución al anterior problema, se podría regular la capacitación que debe exigirse a los científicos de datos que crearán sistemas de IA para el ámbito de la Justicia. Para ello, resulta indispensable descubrir previamente la forma de introducir ciertos valores en el funcionamiento de la máquina; esencialmente el respeto escrupuloso a los derechos fundamentales, entre ellos destaca el derecho fundamental a la protección de datos. Consideramos que este objetivo se podrá conseguir solo si incluimos en los procesos de elaboración y control de la IA a un elenco completo de profesionales que aporten su conocimiento y perspectiva multidisciplinar al data scientist, completando el aspecto puramente técnico.

Las herramientas de IA, desde una perspectiva general se podrían considerar imparciales, puesto que su actividad es absolutamente mecánica y matemática, basada en el análisis cruzado de ingentes cantidades de datos. El juez humano es imparcial, el ejercicio de la potestad jurisdiccional juzgando y haciendo ejecutar lo juzgado sin tomar parte, es decir sin que exista ningún tipo de relación con el objeto del proceso y las partes de la disputa. No obstante, su decisión está necesariamente salpicada por sentimientos y emociones, lo cual lejos de constituir un riesgo para su necesaria imparcialidad, resulta en lo contrario, una Justicia más adecuada, más justa, y sujeta a verificación.

Por ahora, las máquinas no pueden imitar correctamente las emociones humanas. Es más, no podrán nunca sentir ni emocionarse de forma auténticamente real. No obstante, y a la luz del rapidísimo avance de esta tecnología, la imitación de las emociones humanas por los humanoides va a mejorar considerablemente en un futuro inminente. Tal vez, debamos plantearnos más delante la hipótesis analizada en este trabajo, y valorar de nuevo la implantación del juez-robot[44]. En todo caso, dicha implantación deberá realizarse de forma progresiva; tan gradual y lenta como sea posible.

A pesar de lo expuesto, sería ingenuo ignorar los cautivadores beneficios que por ahora ha supuesto la utilización de sistemas de IA. Es una herramienta formidable, súper productiva: no se enferma, no se cansa, no tiene vacaciones. Trabaja sin descanso, a una velocidad brutal. La anhelada agilización de la Justicia se convertiría en una realidad, utilizando estos sistemas también en la resolución de litigios judiciales. La IA ofrece unas expectativas formidables de reducir considerablemente las horas de trabajo, de modo que podamos emplear todas esas horas que recuperaremos para otro tipo de acciones que requieran mayor implicación emocional[45].

La ciudadanía, y en particular todo tipo de juristas, debemos asumir que la IA está entrando en nuestro sector con ímpetu, y es esencial controlar y regular adecuadamente su funcionamiento, para optimizar nuestro tiempo y nuestros recursos. No es negativo que nos ayuden las máquinas, siempre que seamos los humanos los que manejemos con maestría la asistencia que nos proporcionan.

En definitiva, la utilización de sistemas de IA en el ámbito de las decisiones judiciales optimizaría sin duda, el funcionamiento de la Justicia, garantizando una tutela judicial más rápida, accesible. Pero su implementación en este momento, con la tecnología actual, y la configuración constitucional de la función jurisdiccional, no debe permitirse, simplemente no es posible[46]. Podríamos ser optimistas, y afirmar que se trata de un futurible cercano, en el que seremos capaces de garantizar una tutela judicial verdaderamente efectiva, sin fisuras. ¿Quién sabe? Los técnicos lo ven posible, los juristas no tanto.

VII. BIBLIOGRAFÍA

Ariza Colmenarejo, M.ª J., «Fuentes de datos al servicio de sistemas de inteligencia artificial dirigidos a la toma de decisiones judiciales», en Castillejo Manzanares, R., Noya Ferreiro, L. (dirs.), Varela Gómez, B. J. (coord.), Inteligencia Artificial y Proceso Penal: un reto para la justicia, Thomson Reuters Aranzadi, Navarra, 2023, pp. 15-42.

Barona Vilar, S., Algoritmización de la justicia. De la Inteligencia Artificial al Smart Justice, Tirant Lo Blanch, Valencia, 2021.

Bueno Mata, F., «Macrodatos, inteligencia artificial y proceso: luces y sombras», Revista General de Derecho Procesal, n.º 51, 2020, pp. 1-20.

Castillejo Manzanares, R., «Una pregunta difícil de responder: ¿es la IA imparcial?», en Castillejo Manzanares, R., Noya Ferreiro, L. (dirs.), Varela Gómez, B. J. (coord.), Inteligencia Artificial y Proceso Penal: un reto para la justicia, Thomson Reuters Aranzadi, Navarra, 2023, pp. 81-102.

Conde Fuentes, J., «La irrupción de la inteligencia artificial en el ámbito jurisdiccional: especial referencia a la toma de decisiones judiciales», en Castillejo Manzanares, R., Noya Ferreiro, L. (dirs.), Varela Gómez, B. J. (coord.), Inteligencia Artificial y Proceso Penal: un reto para la justicia, Thomson Reuters Aranzadi, Navarra, 2023, pp. 103-128.

De Hoyos Sancho, M., «El uso jurisdiccional de los sistemas de inteligencia artificial y la necesidad de su armonización en el contexto de la Unión Europea» Revista General de Derecho Procesal, n.º 55, 2021, pp. 1-21.

De La Oliva Santos, A., Díez-Picazo Giménez, I., Vegas Torres, J., Curso de Derecho Procesal Civil I, Ramón Areces, Madrid, 2019.

Dolz Lago, M-J., «Una aproximación jurídica a la Inteligencia Artificial», Diario La Ley, n.º 10096, Sección Doctrina, 2022, pp. 970-979.

Esparza Leibar, I., Fernández Galarreta, F. J., «Sin datos de carácter personal no hay inteligencia artificial» Diario La Ley, n.º 78, Sección Ciberderecho, 2023, pp. 265-285.

Faggiani, V., «El derecho a un proceso con todas las garantías ante los cambios de paradigma de la inteligencia artificial», Teoría y Realidad Constitucional, n.º 50, 2022, pp. 517-546.

Gómez Colomer, J. L., El Juez-Robot. Independencia judicial en peligro, Tirant Lo Blanch, Valencia, 2023a.

    «Algunas consideraciones de tipo orgánico sobre la posibilidad de que un día nos juzgue una máquina (¿Serán necesarias normas sobre la organización judicial del Juez-Robot?)», en Castillejo Manzanares, R., Noya Ferreiro, L. (dirs.), Varela Gómez, B. J. (coord.), Inteligencia Artificial y Proceso Penal: un reto para la justicia, Thomson Reuters Aranzadi, Navarra, 2023b, pp. 129-154.

    «Sobre una posible y futura responsabilidad civil del juez-robot: una aproximación desde el derecho procesal» La Ley. Actualidad Civil, n.º 4, 2023c, pp. 1-10.

López García-Nieto, I., «Protección de víctimas de violencia de género», Diario La Ley, n.º 9721 Sección Tribuna, 2020, pp. 1-7.

Nieva Fenoll, J., Inteligencia Artificial y proceso judicial, Marcial Pons, Madrid, 2018.

Montesinos García, A., «Empleo de la inteligencia artificial en algunas fases del proceso judicial civil: prueba, medidas cautelares y sentencia», La Ley Actualidad Civil, n.º 11, 2022, pp. 1-8.

Pérez Estrada, M. J., Fundamentos jurídicos para el uso de la inteligencia artificial en los órganos judiciales, Tirant Lo Blanch, Valencia, 2022.

Pérez Daudí, V., De la justicia a la ciberjusticia, Atelier, Barcelona, 2022.

Rivas Velasco, M.ª J., «Uso ético de inteligencia artificial en justicia», La Ley, n.º 10327, 2023, pp. 1-7.

Solar Cayón, J. I., «¿Jueces-robot? Bases para una reflexión realista sobre la aplicación de la Inteligencia Artificial en la Administración de Justicia» La Ley, n.º 5643, 2022, pp. 1-9.

Varela Gómez, B., «Inteligencia Artificial y decisión del conflicto judicial: una primera aproximación», en Castillejo Manzanares, R., Noya Ferreiro, L. (dirs.), Varela Gómez, B. J. (coord.), Inteligencia Artificial y Proceso Penal: un reto para la justicia, Thomson Reuters Aranzadi, Navarra, 2023, pp. 305-327.


[1] La Dra. Elena Pineros Polo ha desarrollado este trabajo al amparo de su participación como investigadora en el proyecto de investigación del Ministerio de Ciencia e Innovación 2022 titulado Hacia un convenio internacional integral sobre el uso delictivo de las TIC: ciberterrorismo y discurso de odio en un marco de libertad de expresión y responsabilidad (ref. PID2022-136943OB-l00).

[2] Gómez Colomer, lo sitúa a mediados del s. XX, con la creación por Alan Turing de una máquina conceptual (Gómez Colomer, J. L., 2023a: 25-35). En el mismo sentido Pérez Estrada atribuye el descubrimiento de la IA a otros científicos: Allen Newell y Herbert Simon, ambos presentaron un programa denominado Logic Theorist que comenzaba a imitar el funcionamiento del cerebro humano. Miren Josune Pérez Estrada, Fundamentos jurídicos para el uso de la inteligencia artificial en los órganos judiciales (Pérez Estrada, M. J., 2022: 29-30).

[3] La profesora Barona Vilar abordó la evolución de las diferentes revoluciones en Algoritmización del Derecho y de la Justicia, (Barona Vilar, S., 2021: 42-75). También afirma con convicción la existencia de esta cuarta revolución industrial Faggiani (Faggiani, V., 2022: 517-518).

[4] Abunda en la idea de la cotidianeidad de la IA la profesora Faggiani (Faggiani, V., 2022: 521).

[5] Las huelgas de los trabajadores de General Motors en 2019 en Estados Unidos reivindicaron los riesgos de la utilización de sistemas de IA en la cadena productiva para su estabilidad laboral. En estas protestas ya se percibía gran animadversión contra el aumento de la automatización en la cadena de producción, aunque no fuese el tema central de aquellas movilizaciones.

Esta noticia fue objeto de amplia cobertura por los medios de comunicación más relevantes en el país: Diarios de tirada nacional como CincoDías, El País, Expansión llevaron la noticia a sus primeras páginas. https://cincodias.elpais.com/cincodias/2020/02/05/companias/1580917108_658827.html [Última consulta: 5/04/2024].

https://www.expansion.com/empresas/motor/2019/10/13/5da35a72468aeb737d8b46ce.html [Última consulta: 5/04/2024].

https://elpais.com/economia/2019/10/25/actualidad/1572028994_028493.html [Última consulta: 5/04/2024].

[6] Los profesionales del sector cinematográfico manifestaron su miedo a ser sustituidos por herramientas de IA que reproducen el lenguaje natural de los humanos, así como las que generan contenidos basándose en una inmensa cantidad de datos con los que se alimenta y entrena a estos sistemas. A modo de ejemplo: https://elpais.com/cultura/2023-11-09/fin-de-la-huelga-en-hollywood-los-actores-y-los-estudios-llegan-a-un-acuerdo-que-pone-fin-a-118-dias-de-paros.html [Última consulta: 5/04/2024].

[7] Nieva Fenoll entiende que, pese a que la aplicación de la IA al ámbito de Justicia en la doctrina procesalista es por el momento tan solo incipiente, y no existe abundante bibliografía al respecto; sería ingenuo ignorar la inevitable implantación de la IA en materia judicial, en más áreas de lo que ya se utiliza (Nieva Fenoll, J., 2018: 114-115; Pérez Daudí, V., 2022).

[8] Esparza Leibar y Fernández Galarreta nos invitan a ser cautelosos con el futuro que nos espera (Esparza Leibar, I., Fernández Galarreta, F. J., 2023: 4-5).

[9] La profesora Barona Vilar estudia lo que ella misma denomina la algoritmización de la justicia, refiriéndose a la «automatización judicial a través de sistemas computacionales» que propician la robotización de la Justicia (Barona Vilar, S., 2021: 29).

[10] Pérez Estrada reflexiona sobre la necesidad de aceptar los nuevos retos que surgen como consecuencia de la irrupción de la IA en nuestro sistema jurídico, así como de la necesidad de adaptarnos a ellos. Identifica al nuevo Derecho de este siglo como un Derecho líquido, dispuesto a adaptarse al dinamismo de la sociedad tecnológica en la que vivimos, objeto de constantes modificaciones más ágiles y fáciles (Pérez Estrada, M. J., 2022: 118-119).

[11] Solar Cayón estudia la irrupción de la IA en el ámbito jurídico, centrándose en la Administración de Justicia (Solar Cayón, J. I., 2022: 1-4).

[12] Pérez Estrada identifica los orígenes del debate sobre la inteligencia artificial en un seminario celebrado en Estados Unidos en 1956, donde Allen Newell y Herbert Simon expusieron su trabajo relacionado con al IA por primera vez. Presentaron un programa de ordenador «inteligente» que imitaba el funcionamiento de las operaciones del cerebro humano (Pérez Estrada, M. J., 2022: 29-31).

[13] El profesor Gómez Colomer identifica muchos de los conceptos técnicos esenciales que se comunes en los foros de análisis y debate sobre IA. Además del Big Data, aborda otras muchas definiciones: minería de datos o Data Mining, aprendizaje automático o Machine Learning, aprendizaje profundo o Deep Learning, algoritmo, cadena de bloques o Blockchain… Todas estas definiciones nos ayudan a entender cómo se desarrollan las operaciones lógico-matemáticas que resultan en la resolución de problemas (Gómez Colomer, J. L., 2023a: 25-35).

[14] Pérez Estrada se refiere a este concepto en español: el macrodato.

[15] Reglamento UE (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos datos.

[16] Véase el artículo 18.4 Constitución Española.

[17] STC 94/1998, de 4 de mayo, BOE n.º 137, de 9 de junio de 1998.

[18] 

[19] Sentencia 292/2000, de 30 de noviembre, BOE n.º 4, de 4 de enero de 2001.

[20] Se trata de la Ley Orgánica 15/1999 de 13 de diciembre de Protección de Datos de Carácter Personal, derogada por la posterior Ley Orgánica 13/2018 de 5 de diciembre.

[21] Analiza esta sentencia del Tribunal Constitucional Bueno De Mata describiendo los motivos que llevaron al Alto Tribunal a abordar la cuestión debatida (Bueno De Mata, F., 2020: 2-4).

[22] Véase el Fundamento Jurídico 2 STC 292/2000, de 30 de noviembre, BOE n.º 4, de 4 de enero de 2001.

[23] Ibidem Fundamento Jurídico 7.

[24] Así lo establece el art. 6 de la LOPDGDD, LO 3/2018 de 5 de diciembre.

[25] Ley Orgánica 6/1985, de 1 de julio, del Poder Judicial. BOE n.º 157 de 2 de julio de 1985.

[26] Téngase en cuenta que el vocablo «autos» en este contexto se refiere a la documentación que conforma el expediente judicial en un caso concreto.

[27] Así lo define la Real Academia de la Lengua Española. https://dle.rae.es/algoritmo [Última consulta: 22/01/2024].

[28] El Libro Blanco sobre la IA un enfoque europeo orientado a la excelencia y la confianza, publicado por la Comisión Europea el 19 de febrero de 2020 ya advertía sobre el «efecto caja negra». Efectivamente, a lo largo de todo el texto está presente esta preocupación por la opacidad en la toma de decisiones por los sistemas de IA. Dicho carácter oscuro puede derivar en errores que constituyen infracción de derechos fundamentales (como el derecho fundamental a la protección de datos). Asimismo, la falta de transparencia de la actuación de la IA conlleva abordar otro asunto: la necesidad de aclarar la responsabilidad civil respecto de la reparación de tales daños. Lo cual genera un debate muy interesante.

[29] State v. Loomis, 881 N.W.2d 749 (Wis. 2016).

[30] Gómez Colomer se refiere a la función jurisdiccional en torno al concepto de legitimidad democrática (Gómez Colomer, J. L., 2023c: 7).

[31] El maestro de maestros de los procesalistas españoles, De La Oliva Santos, ha enseñado a muchas generaciones de juristas y académicos la configuración constitucional de la función jurisdiccional (De la Oliva Santos, A., Díez-Picazo Giménez, I., Vegas Torres, J., 2019: 19).

[32] Además, el principio constitucional de monopolio estatal de la jurisdicción se estudia desde dos vertientes. Una interna, que determina que no cabe más jurisdicción que la del Estado, es decir, no se cabe ningún tipo de jurisdicción privada. No obstante, el arbitraje como mecanismo heterocompositivo de resolución de conflictos, a través del cual un árbitro elegido por las partes tiene capacidad para resolver cierto tipo de controversias de Derecho privado, está permitido y regulado por ley. El legislador ha regulado tanto el origen contractual del mismo, a través de la manifestación de la voluntad de ambas partes de optar por esta fórmula cuasi-jurisdiccional alternativa de resolución de controversias, como los efectos de la resolución del conflicto a través de un laudo, obligatorio y ejecutivo en la Ley de Arbitraje Ley 60/2003 de 23 de diciembre, BOE n.º 309 de 26 diciembre 2003. El principio constitucional de monopolio estatal de la jurisdicción también tiene otra vertiente internacional, que significa que el Estado fija su jurisdicción respecto de otros países. La jurisdicción del Estado español se proyecta sobre las personas y conflictos surgidos en nuestro territorio en la forma establecida en la Constitución, así como en el resto de las normas jurídicas (artículo 4 LOPJ). El despliegue de los efectos de una resolución adoptada por un tribunal extranjero debe haber sido reconocido/homologado previamente. Si se trata de una resolución emitida por una organización o institución internacional, solo por ley orgánica se podrá realizar un acto de cesión de soberanía como es el reconocimiento de la jurisdicción por un tribunal internacional, tal como la propia Constitución exige en el artículo 93.

[33] Efectivamente, el artículo 149.1 5º de la Constitución Española atribuye la competencia respecto de la Administración de Justicia al Estado. Lo cual no significa que las Comunidades Autónomas no tengan cierta participación. Este asunto fue abordado ampliamente por el Tribunal Constitucional en dos sentencias: STC 56/1990 de 29 de marzo BOE n.º 107 de 4 de mayo de 1990 y STC 62/1990 de 30 de marzo, BOE n.º 109 de 7 de mayo de 1990.

[34] Faggiani acuña este término al analizar si un juez algorítmico podría sustituir al juez persona humana, a la luz de los artículos 24 y 117 de la Constitución Española con respecto al proceso penal. Concluye la autora que la sustitución de los jueces por máquinas de juzgar constituye un riesgo que no debemos asumir (Faggiani, V., 2022: 525-527).

[35] Gómez Colomer identifica la independencia judicial en relación con la configuración territorial de nuestro país, y las razones que llevaron al constituyente a configurar la unidad jurisdiccional, sin dotar a las Comunidades Autónomas de poder judicial propio (Gómez Colomer, J. L., 2023a: 197-220).

[36] Véase el artículo 117.1 de la Constitución Española.

[37] En efecto, coincidimos con Nieva Fenoll. Va a resultar muy complicado regular vías para exigir requisitos de carácter ideológico a aquellos profesionales que intervengan en la creación de los algoritmos aplicables a la toma de decisiones en sede judicial, teniendo en cuenta que se trataría de contratar un servicio a una empresa privada (Nieva Fenoll, J., 2018: 114-115).

[38] Barona Vilar además de mostrar gran fascinación por todo el proceso de algoritmización de la Justicia, coincide con la mayoría de la doctrina en aplaudir la incorporación de estas herramientas de IA al ámbito judicial, pero dejando siempre el control de la decisión de disputas al juez humano (Barona Vilar, S., 2021: 620-622).

[39] Hablamos de elección más justa en el sentido de adecuada al caso concreto, y ajustada a la ley.

[40] Castillejo Manzanares analiza con detenimiento esos sesgos para cuestionarse si estos sistemas de IA son verdaderamente imparciales, y precisos (Castillejo Manzanares, R., 2023: 82-83).

[41] Pérez Estrada muestra su preocupación respecto de los sesgos que pueda contener la máquina de juzgar. Su creador es en definitiva una persona, un técnico que trabaja en una empresa privada, con ciertos intereses tanto propios como de la empresa. No hay rastro de independencia judicial tal como la configura la Constitución (Pérez Estrada, M. J., 2022: 33).

[42] López García-Nieto describe cómo utiliza la policía el sistema de inteligencia artificial VioGen en la lucha contra la violencia de género y la coordinación con los Registros Judiciales el ámbito administrativo (López García-Nieto, I., 2020: 2-6).

[43] Rivas Velasco se refiere a la necesidad de incorporar la ética en los sistemas de IA para justicia (Rivas Velasco, M. J., 2023: 15-17).

[44] En el mismo sentido se pronuncia Solar Cayón, diferenciando entre inteligencia artificial débil e inteligencia artificial fuerte. Esta segunda categoría es todavía una utopía, puesto que se refiere a la herramienta capaz de reproducir a la perfección los procesos mentales y psicológicos del humano. Aún no hemos alcanzado ese nivel de progreso técnico suficiente. No obstante, coincidimos en apreciar los beneficios que un sistema de inteligencia artificial débil ofrece, pese a que no puede comprender como una persona, sí es capaz de realizar otras tareas de forma muchísimo más rápida que un humano (Solar Cayón, J. I., 2022: 6).

[45] Gómez Colomer trata la más que necesaria agilización de la justicia que procuraría una mejor y más efectiva tutela judicial. (Gómez Colomer, J. L., 2023c: 2-3).

[46] Un sector muy amplio de la doctrina procesalista se muestra reacio a contemplar la implementación futura de una fórmula evolucionada de juez-robot. Destacan los argumentos rotundos de Bueno De Mata (Bueno De Mata, F., 2020: 2-4).

 

Copyright

Estudios de Deusto es una revista de acceso abierto, lo que significa que es de libre acceso en su integridad. Se permite su lectura, la búsqueda, descarga, distribución y reutilización legal en cualquier tipo de soporte sólo para fines no comerciales, sin la previa autorización del editor o el autor, siempre que la obra original sea debidamente citada y cualquier cambio en el original esté claramente indicado.

Estudios de Deusto is an Open Access journal which means that it is free for full access, reading, search, download, distribution, and lawful reuse in any medium only for non-commercial purposes, without prior permission from the Publisher or the author; provided the original work is properly cited and any changes to the original are clearly indicated.