Estudios de Deusto
Revista de Derecho Público
ISSN 0423-4847 (Print)
ISSN 2386-9062 (Online)
DOI: http://dx.doi.org/10.18543/ed
Vol. 73/1, enero-junio 2025
DOI: http://dx.doi.org/10.18543/ed7312025
Estudios
DETERMINACIÓN Y ANÁLISIS DEL SISTEMA DE RESPONSABILIDAD Y OBLIGACIONES DE LAS PLATAFORMAS DE VIDEOJUEGO EN EL REGLAMENTO DE SERVICIOS DIGITALES[1]
Determination and analysis of the liability system and obligations of video game platforms in the digital services Act
Alberto José de Nova Labián
Profesor Doctor
Universidad Internacional de la Rioja, Logroño. España
https://orcid.org/0000-0002-5845-0819
https://doi.org/10.18543/ed.3327
Fecha de recepción: 12.03.2025
Fecha de aprobación: 10.06.2025
Fecha de publicación en línea: junio 2025
Resumen
El presente trabajo examina los aspectos más destacados del Reglamento UE 2022/2065 relativo a un mercado único de servicios digitales, desde la perspectiva de las plataformas de videojuego Online, con especial atención a la prevención de los casos de ciberacoso sexual de menores. Para ello se realiza un análisis del encaje que tienen estas plataformas de videojuegos dentro del Reglamento con el fin de determinar en qué casos les puede resultar de aplicación, cuestión ésta que no está definitivamente resuelta a día de hoy, por lo que resulta aún más necesario. También se concreta la forma en la que les aplican los criterios de exención de responsabilidad y obligaciones, trasladando dichos criterios genéricos del Reglamento al caso particular de las plataformas de videojuegos Online y la perspectiva de protección de los menores. Además, se da especial importancia a la diligencia debida, como criterio rector de las obligaciones establecidas en el Reglamento.
Palabras clave
Videojuegos, prestadores de servicios intermediarios, responsabilidad, obligaciones, diligencia debida.
Abstract
This paper examines the most salient aspects of EU Regulation 2022/2065 on the Single Market for Digital Services, from the perspective of online video game platforms, with particular attention to the prevention of cases of sexual cyberbullying of minors. To this end, an analysis is conducted on how these video game platforms fit within the Regulation, aiming to determine in which cases it may apply to them –a question that remains unresolved to this day, making this analysis even more necessary. The paper also specifies how the criteria for exemption from liability and obligations apply to these platforms, translating the Regulation’s generic criteria to the specific case of online video game platforms and the perspective of child protection. Furthermore, special emphasis is placed on due diligence as the guiding principle for the obligations established in the Regulation.
Keywords
Video games, intermediary service providers, responsibility, obligations, due diligence.
Sumario: I. Introducción. II. Historia y relevancia del videojuego en la sociedad. III. El encaje de las plataformas de videojuego en la ley de servicios digitales. IV. Régimen de responsabilidad. V. Obligaciones. VI. El papel de la diligencia debida. VII. El coordinador de servicios digitales. VIII. La regulación en EEUU. IX. Conclusiones. Bibliografía.
La industria del videojuego es un sector que desde su nacimiento, se encuentra en constante expansión y evolución. Por su propia naturaleza, tiene una vinculación directa con el desarrollo tecnológico y de las comunicaciones, lo que nos ha llevado al momento actual, en el que cualquier persona, ya sea desde una consola, un ordenador, una táblet, un móvil o un televisor, es capaz de jugar a infinidad de videojuegos Online, muchos de ellos incluso gratuitos o al menos en parte.
Esto ha supuesto que el acceso a los videojuegos Online sea extremadamente sencillo y se encuentre al alcance de prácticamente cualquier persona, no quedando por tanto reducido a un nicho de usuarios específico, como sí ocurría en el pasado (Jiménez Vargas, 2021: 293).
Además, nos encontramos con otro fenómeno social que es el acceso de los menores a los dispositivos electrónicos a edades cada vez más tempranas. En muchos casos, incluso favorecido por los propios progenitores que encuentran en estos dispositivos un medio sencillo de “entretener” a sus hijos.
Sin embargo, el uso de dichos dispositivos electrónicos por menores de edad no es inocuo. Ya en el año 2017, UNICEF emitió un informe en el que por un lado ponía de manifiesto las oportunidades que brindaba la tecnología digital, como posible motor de un gran cambio de nuestro tiempo, si se utiliza para dar a todos los niños una oportunidad justa, empezando por los más desfavorecidos; pero por otro lado, nos advertía que los niños están especialmente expuestos a los peligros en línea, como la pérdida de privacidad, debido a que tienen menos capacidad para comprender los riesgos y son más propensos a sufrir daños.
De este modo las TIC han intensificado los peligros tradicionales y generado nuevas formas de abuso y explotación infantil, como la creación de material de abuso sexual infantil personalizado, el contenido autogenerado (incluyendo mensajes sexuales o “sexting”) y la transmisión en vivo de abusos sexuales. Lo que lleva a preguntarnos, ¿qué papel juegan los videojuegos en todo esto? Más allá de los efectos positivos o negativos del consumo de tiempo frente a una pantalla, los videojuegos Online suponen una vía más de interacción con otros usuarios. Dependiendo del juego, esa interacción puede ser inocua, porque quede limitada a una actividad neutra, en la que no haya posibilidad de comunicación entre los participantes y simplemente se participa a través de las funcionalidades del personaje o juego en cuestión.
Pero existen otros juegos en línea, en los que no sólo es posible comunicarse con otros jugadores, si no que puede resultar una parte fundamental del propio juego si requiere de un ejercicio colaborativo entre personajes. En esos casos se pueden plantear situaciones en las que haya compañeros de juegos Online de franjas de edades muy distantes, sin que los propios jugadores sean conscientes de ello, debido al anonimato que brinda mostrarse únicamente a través de un mero nombre de usuario.
Al mismo tiempo, este tipo de plataformas de juegos Online donde es posible esconder la identidad bajo un nombre de usuario, son un campo abonado para la aparición de sujetos con intenciones ocultas que buscan crear vínculos con otros usuarios a través del propio juego, a fin de ganarse su confianza para posteriormente cometer determinados actos ilícitos. Estas situaciones, ya siendo graves de por sí, lo son aún más cuando afectan a menores y los agresores puedan ser “depredadores sexuales”.
Todo esto no quiere decir que los videojuegos Online que permitan la comunicación entre usuarios, sean “juegos peligrosos”, ni que la participación de un menor lo exponga a un grave riesgo. De hecho, la gran mayoría de las plataformas de videojuegos Online que permiten la participación de menores de edad, también incluyen la opción de configurar permisos parentales, que permiten administrar las solicitudes de amistad, chat de voz y texto, ratings de contenido y filtros de lenguaje ofensivo. De este modo, aunque el riesgo cero nunca se pueda excluir, sí es posible aplicar unas medidas de seguridad adecuadas que permitan proteger al menor.
Dada la importancia de la aplicación de este tipo de medidas, así como de la existencia de canales de denuncia que ofrezcan procedimientos ágiles y efectivos, se hace fundamental acudir al reciente Reglamento UE 2022/2065 relativo a un mercado único de servicios digitales[2] (también denominado Ley de Servicios Digitales, Digital Services Act o DSA), en el cual se establece un marco de responsabilidades, así como una serie de obligaciones armonizadas de diligencia debida para los prestadores de servicios en línea, entre los que valoraremos la inclusión de las plataformas de juego Online, principalmente desde la perspectiva de los eventuales riesgos existentes para los menores de edad, como serían los actos de ciberacoso sexual, por tratarse de los más graves que pueden producirse.
II. HISTORIA Y RELEVANCIA DEL VIDEOJUEGO EN LA SOCIEDAD
Para ubicar lo que representan los videojuegos a día de hoy, conviene hacer un breve repaso histórico que nos permita ver de dónde venimos y en qué punto nos encontramos.
Aunque existen diversas teorías sobre el origen de los videojuegos, se puede atribuir el inicio de este fenómeno al matemático Alan Turing, quien en 1952 desarrolló un programa de ordenador primitivo capaz de jugar al ajedrez. Posteriormente, otros juegos tradicionales hicieron su transición al mundo digital, como el Nim, implementado en la computadora Nimrod de John Bennet, o el tres en raya, creado por Alexander Douglas, el cual ha sido considerado por muchos como el primer videojuego moderno. Entre los videojuegos limitados al ámbito académico destacan Tennis for Two (1958) y Spacewar! (1962) (Donovan, 2010: 14).
Aunque en las dos décadas posteriores al programa de Alan Turing se idearon dispositivos innovadores para jugar en televisores, no fue hasta 1972 cuando Ralph Baer logró comercializar la primera consola doméstica: la Magnavox Odyssey. Este ingeniero ya había intentado desarrollar y comercializar máquinas de videojuegos desde la década de 1950, pero su visión no se materializó hasta los años setenta. Durante esta misma época, se lanzaron otras consolas emblemáticas, como la Atari Pong y la Atari 2600, desarrolladas por la entonces emergente empresa Atari. La primera de éstas, Atari Pong, era una versión doméstica del popular juego arcade Pong (1972), que surgió después de que Bill Pitts comercializara en 1971 la primera máquina recreativa, Galaxy Game. Este dispositivo ofrecía una adaptación del videojuego Spacewar! de 1962.
A partir de Galaxy Game, surgieron otras máquinas recreativas durante esa década, como Computer Space (1971) y el icónico Space Invaders (1978). Este último marcó un hito al consolidar el éxito de la industria japonesa, impulsando definitivamente el interés global por los videojuegos.
Otros hitos destacados de los años setenta incluyen la incorporación de microprocesadores en las máquinas recreativas, lo que permitió modificar el software sin necesidad de alterar el hardware, siendo Gun Fight (1975) el pionero en esta innovación. También surgieron videojuegos diseñados para ordenadores, cuyos procesadores de la época no podían soportar juegos de acción, limitándose a propuestas de texto, como el clásico Ahorcado o el videojuego de rol Adventure (1975). Además, esta década vio el nacimiento de los videojuegos portátiles, con Mattel liderando este avance con títulos como Auto Race y Football (1976).
En los primeros años de la década de 1980, la industria del videojuego vivió su época dorada. Durante este período surgió Activision, una compañía pionera en desarrollar software para consolas de terceros. También destacó la llegada de Pac-Man, un juego que rompió estereotipos al diversificar el público de las consolas y las salas recreativas, desafiando también el dominio masculino en este ámbito.
Por otro lado, Nintendo comenzó a consolidarse como un actor clave en la industria de los videojuegos, destacando con sus propias consolas y el lanzamiento de Donkey Kong (1983), que también introdujo al icónico personaje Mario Bros. Sin embargo, los años posteriores estuvieron marcados por una crisis en el sector debido a la saturación del mercado con consolas y un exceso de videojuegos de baja calidad. Esta breve, pero intensa recesión, llevó a la bancarrota a varias compañías (Donovan, 2010: 153).
En 1985 la industria de los videojuegos experimentó una recuperación significativa, liderada por Nintendo, que lanzó su consola NES con un sistema mejorado de 8 bits. Posteriormente en 1989, Nintendo introdujo varias franquicias emblemáticas que siguen siendo rentables en la actualidad, como Super Mario Bros., The Legend of Zelda, y Metroid. Además, la compañía estableció regulaciones para los juegos de terceros en su consola, garantizando estándares de calidad, y colaboró en la creación de franquicias icónicas como Mega Man de Capcom.
Ese mismo año, Nintendo lanzó su primera consola portátil, la Game Boy, que rápidamente encontró un competidor en SEGA con su consola Génesis. Aunque la Génesis, con su tecnología más avanzada de 16 bits, superaba técnicamente a la propia NES, no logró competir efectivamente hasta 1991, cuando una estrategia de marketing sólida y el lanzamiento de Sonic the Hedgehog, la posicionaron como un rival destacado.
A principios de la década de 1990, se lanzaron grandes títulos para consolas, como Street Fighter II (1991), aunque algunos generaron controversia por su nivel de violencia. Esto provocó quejas que llevaron a SEGA a crear un consejo para clasificar los juegos por edades. Un esfuerzo que evolucionó posteriormente en la Junta de Clasificación de Software de Entretenimiento (ESRB)[3], encargada aún hoy de este proceso.
Durante la misma década, los avances en mundos virtuales y gráficos en 3D revolucionaron la industria, haciendo las experiencias visuales más inmersivas y realistas. Este progreso intensificó la competencia entre grandes compañías como Sony, Nintendo y SEGA. Inicialmente, Nintendo y Sony planearon desarrollar una consola conjunta, pero Nintendo abandonó el proyecto. Como respuesta, Sony creó una división interna, Sony Computer Entertainment, que dio vida a la primera PlayStation, marcando un hito en la historia de los videojuegos.
La primera PlayStation se convirtió en un éxito rotundo, superando a sus competidoras de 64 bits, como la Sega Saturn y la Nintendo 64. Fue a partir de ese momento, que Sony lideraría el sector de los videojuegos en las generaciones siguientes. En los años 2000, lanzó al mercado la PlayStation 2, que se convirtió en la consola más vendida de la historia, logrando además el abandono de SEGA en la producción de hardware y su enfoque en desarrollar software para terceros (Donovan, 2010: 400).
La era moderna de los videojuegos, iniciada alrededor de 1995, fue testigo de una evolución sin precedentes en tecnología, narrativa y alcance global. Este período se caracteriza por el auge de Internet, que ha revolucionado el desarrollo, la distribución y la experiencia de los videojuegos, transformándolos en una industria global interconectada.
Con el avance de la era digital, los videojuegos comenzaron a integrar elementos de realidad virtual y realidad aumentada, ofreciendo experiencias de juego cada vez más inmersivas. Así, con la llegada de dispositivos como el HTC Vive y el Oculus Rift se permitió a los jugadores adentrarse plenamente en mundos virtuales, estableciendo un nuevo estándar en la experiencia de juego.
Durante este período, se han lanzado algunos de los títulos más emblemáticos y exitosos en la historia de los videojuegos. Obras como Among Us, The Legend of Zelda: Ocarina of Time, Fortnite, Half-Life, Minecraft, The Elder Scrolls V: Skyrim y World of Warcraft, no solo han influido en generaciones, sino que también han dejado su marca en la cultura popular, consolidando el impacto global de los videojuegos.
De este modo, hemos visto cómo la tecnología ha transformado el mundo de los videojuegos, pasando además de los juegos físicos a los digitales. Plataformas como Steam, Xbox Live, PlayStation Network, GeForce Now y Amazon Luna han hecho que sea mucho más fácil para los jugadores acceder a una gran variedad de títulos sin necesidad de salir de casa. Además, el auge de los juegos para móviles ha creado nuevas oportunidades para la industria.
Los videojuegos han transformado también nuestra manera de interactuar socialmente. Gracias a las plataformas de juegos en línea, se han formado comunidades globales de jugadores que pueden conectarse y disfrutar juntos, sin importar dónde se encuentren. Además, los juegos en línea han introducido nuevas formas de competencia, lo que ha contribuido al auge de los e-sports o deportes electrónicos.
Hoy en día, los videojuegos no son solo una actividad solitaria; muchos se juegan en línea, creando un entorno donde jugadores de todo el mundo pueden competir, colaborar y construir comunidades. Títulos como “World of Warcraft” y “Fortnite” son ejemplos de videojuegos multijugador masivos en línea (MMO) que han dado lugar a comunidades virtuales dinámicas, permitiendo a los jugadores trabajar en equipo y establecer amistades.
Asimismo, los videojuegos han generado nuevas maneras de interactuar socialmente. Plataformas de streaming como Twitch, YouTube Gaming, Facebook Gaming y DLive permiten a los jugadores transmitir sus experiencias de juego en tiempo real, fomentando un diálogo interactivo con los espectadores.
Los videojuegos de hoy en día han dejado también una huella significativa en la cultura popular, influyendo en la música, el cine, la televisión y el arte, y han dado lugar a un nuevo tipo de celebridades: los jugadores profesionales y los streamers.
En definitiva, la era actual de los videojuegos es un período de innovación y crecimiento sin igual. Los videojuegos se han vuelto una parte esencial de nuestra cultura y siguen evolucionando rápidamente, lo que promete un futuro emocionante para la industria. Sin embargo, esto también nos urge a disponer de una regulación clara respecto a la responsabilidad que asumen estas plataformas de videojuegos Online y las obligaciones que permitirán establecer entornos seguros de juego.
III. EL ENCAJE DE LAS PLATAFORMAS DE VIDEOJUEGO EN LA LEY DE SERVICIOS DIGITALES
Como ya se ha adelantado, el Reglamento (UE) 2022/2065, conocido como la Ley de Servicios Digitales (en adelante el Reglamento), resulta fundamental en el presente estudio, ya que establece un marco legal armonizado en la Unión Europea para regular los servicios digitales, con el objetivo de promover un entorno en línea seguro, transparente y responsable[4].
El Reglamento ha transformado además de manera significativa el marco legal establecido por la Directiva 2000/31/CE sobre el Comercio Electrónico, en cuanto a la regulación del contenido y los servicios ofrecidos por ciertos proveedores de servicios de internet y plataformas en línea.
Para abordar esta tarea, la Comisión Europea ha venido trabajando durante varios años en un proyecto de Reglamento, que finalmente vio la luz el 19 de octubre de 2022, aunque no entraría en pleno vigor hasta el 17 de febrero de 2024. Este Reglamento establece un marco de responsabilidades y una serie de obligaciones para los proveedores de servicios, con el objetivo de crear una regulación uniforme que evite los desajustes que habían surgido y que dieron lugar a numerosos conflictos judiciales en el pasado (Jiménez y Cancela, 2023: 91-95).
El objetivo principal de la norma es garantizar la seguridad de los consumidores y usuarios en el entorno digital, abordando la difusión de contenidos ilícitos dentro de la Unión Europea. Asimismo, busca establecer las bases para la autorregulación en internet, imponiendo una serie de obligaciones y responsabilidades a una amplia variedad de servicios digitales, especialmente en lo que respecta a la moderación de contenidos cargados por los usuarios (Santisteban Galarza, 2022: 159-179).
Además, el Reglamento busca subsanar las deficiencias del marco normativo anterior en relación con los proveedores de servicios de intermediación y refleja la postura del Tribunal de Justicia de la Unión Europea, que había solicitado una mayor responsabilidad de los intermediarios. Aunque como veremos más adelante, en la práctica no supone una revolución respecto a los criterios de responsabilidad establecidos por la Directiva 2000/31/CE[5] sobre el Comercio Electrónico, pero sí es relevante el desarrollo y la actualización que realiza de dichos principios.
Visto el papel que juega el Reglamento regulando el contenido y los servicios ofertados o disponibles por determinados proveedores de servicios de internet y plataformas en línea, cabe plantearse su aplicabilidad a las plataformas de videojuegos Online (Osinaga, Lozano et al., 2024: 16).
Para ello, resulta necesario partir de la definición del concepto de “plataforma en línea” que nos da el propio legislador europeo en el Reglamento (art. 3.i) y que dice así: “un servicio de alojamiento de datos que, a petición de un destinatario del servicio, almacena y difunde información al público, salvo que esa actividad sea una característica menor y puramente auxiliar de otro servicio o una funcionalidad menor del servicio principal y que no pueda utilizarse sin ese otro servicio por razones objetivas y técnicas, y que la integración de la característica o funcionalidad en el otro servicio no sea un medio para eludir la aplicabilidad del presente Reglamento”.
Dicha definición puede resultar excesivamente genérica, por lo que resulta pertinente acudir al considerando 13 de la propia norma, donde el legislador concreta más el concepto e incluso nos pone ejemplos de servicios que quedarían incluidos y otros que no. Así nos encontramos con la aclaración de que “dentro de la categoría general de prestadores de servicios de alojamiento de datos que se define en el presente Reglamento, habría una subcategoría de las plataformas en línea”. Y cabría definir a las plataformas en línea, “como las redes sociales o las plataformas en línea que permiten a los consumidores celebrar contratos a distancia con comerciantes […]”.
Como vemos, el legislador hace una mención expresa a las “redes sociales”, que van a quedar por tanto incluidas dentro de la definición de prestadores de servicios de alojamiento sometidos al presente Reglamento.
Y para mayor abundamiento, por si quedara alguna duda, la Comisión Europea publicó en el 2024 un listado de preguntas y respuestas sobre la Ley de Servicios Digitales (el Reglamento), entre las que se incluye “¿A quién se aplica la Ley de Servicios Digitales?”. La respuesta es muy reveladora, ya que a modo aclaratorio nos pone de nuevo una serie de ejemplos concretos: los mercados en línea, las redes sociales, las plataformas de intercambio de contenidos, las tiendas de aplicaciones y las plataformas de viajes y alojamiento en línea.
Entonces, según esto, ¿podemos considerar las plataformas de videojuegos Online como prestadores de servicios sometidos al cumplimiento del Reglamento? Para tratar de dar una respuesta, podemos tomar como referencia las características comunes de las plataformas de videojuegos, aunque siendo conscientes de que no existe un modelo único de plataforma, por lo que habrá que tener en cuenta las distintas particularidades que pueda presentar cada una de ellas.
La mayoría de plataformas de videojuegos ofrecen dos servicios básicos: por un lado la posibilidad de adquirir juegos digitales de un catálogo que suele ofertar tanto juegos gratuitos como no gratuitos; y por otro la posibilidad de jugar a esos juegos en streaming desde la propia plataforma o incluso desde otras plataformas con las que se permita la vinculación de cuentas.
Esto nos lleva a poder asimilar este tipo de plataformas a los mercados en línea y más concretamente a las tiendas de aplicaciones, por lo que desde la perspectiva del servicio de adquisición de juegos, dichas plataformas entrarían dentro de la categoría de prestadores de servicios a los que les resulta de aplicación el Reglamento.
Pero aún hay otra particularidad más, que resulta de especial relevancia. Se trata de las plataformas de videojuegos que se juegan Online y donde existe una interacción entre los distintos jugadores, para lo cual el propio juego dispone de un servicio de chat integrado, de voz, de texto o ambos. Se trataría por tanto de lo que se denomina “servicio de comunicaciones interpersonales”.
Dichos servicios de comunicaciones interpersonales vienen definidos en la Directiva (UE) 2018/1972 del Parlamento Europeo y del Consejo, “como los correos electrónicos o los servicios de mensajería privada”. Y tal y como aclara el propio Reglamento en su considerando 14, “quedan fuera del ámbito de la definición de plataformas en línea, ya que se utilizan para la comunicación interpersonal entre un número finito de personas determinado por el remitente de la comunicación”. No obstante, el propio Reglamento nos advierte de que “las obligaciones establecidas en el presente Reglamento para los prestadores de plataformas en línea pueden aplicarse a los servicios que permitan poner información a disposición de un número potencialmente ilimitado de destinatarios, no determinado por el remitente de la comunicación, por ejemplo a través de grupos públicos o canales abiertos”.
Pues bien, existen determinados videojuegos Online, en los que las comunicaciones quedan limitadas a grupos de “amigos” que crean los propios jugadores, de modo que ningún tercero tendría acceso al contenido de las comunicaciones, ni podría participar en ellas sin ser previamente “invitados”. Estos servicios quedarían por tanto excluidos del ámbito de aplicación del Reglamento.
Pero también existen otros videojuegos Online que son abiertos y cualquiera puede sumarse a una determinada partida y participar de las comunicaciones con desconocidos, de modo que el número de potenciales destinatarios de los mensajes no quedaría determinado por el remitente de la comunicación. En este caso, dichas plataformas de videojuego no quedarían excluidas de la aplicación del Reglamento.
Sin embargo, existe otra salvedad más que nos planteaba el legislador y que debemos analizar. Se trata del precepto que establece que los prestadores de servicios de alojamiento de datos no deben ser considerados plataformas en línea cuando la difusión al público sea tan solo una característica menor o meramente accesoria que esté unida a otro servicio o una funcionalidad menor del servicio principal.
Para ilustrarlo, el Reglamento nos pone como ejemplo la sección de comentarios de un periódico en línea, “cuando no quepa duda de que es auxiliar al servicio principal constituido por la publicación de noticias bajo la responsabilidad editorial del editor. En cambio, el almacenamiento de comentarios en una red social sí debería ser considerado un servicio de plataforma en línea cuando quede claro que no es una característica menor del servicio ofrecido, aunque sea accesorio a la publicación de las entradas de los destinatarios del servicio” (considerando 13).
Por lo tanto, la clave en este caso será determinar si los chats y canales de comunicación abiertos en este tipo de videojuegos Online, son una característica menor o meramente accesoria, o si por el contrario es una parte esencial del propio juego.
Esto, como es evidente, dependerá del videojuego en cuestión, por lo que no parece que podamos dar una calificación que aplique de manera general a todos los videojuegos Online que incorporen algún medio de comunicación interpersonal, con la dificultad que supone no poder afirmar de manera categórica que un determinado modelo de servicio Online esté sometido al Reglamento en todos los casos.
Sin embargo, resulta interesante remitirnos al Anuario del año 2022 de la Asociación Española del Videojuego (AEVI), donde se recogían las principales novedades normativas del momento que aplicarían al sector, y entre ellas mencionaba el Reglamento, poniendo como ejemplos de prestadores de servicios y plataformas Online que se verían afectadas, las redes sociales, plataformas de intercambio de contenido, app stores y servicios de alojamiento, incluyendo también “los chats públicos dentro de un videojuego” (Ramos y Bardaji, 2022: 93). Con lo cual, el propio sector del videojuego vino a reconocer la aplicabilidad del Reglamento a las plataformas de videojuegos que incluyan medios de comunicación interpersonal públicos, con todo lo que ello supone respecto al régimen de responsabilidad y obligaciones que les resultan de aplicación.
IV. RÉGIMEN DE RESPONSABILIDAD
Para entender el régimen de responsabilidad establecido en el Reglamento, es fundamental partir de la regulación previa contenida en la Directiva 2000/31/CE de Comercio Electrónico. Esta Directiva introdujo un régimen de exención de responsabilidad, conocido como “puerto seguro” (Rodríguez García, 2023: 714-735), aplicable a proveedores e intermediarios siempre que no tuvieran conocimiento efectivo de la ilicitud de los contenidos (artículos 12 a 15) (Mate Satué, 2023: 111-137). En términos generales, esta Directiva estipulaba que los proveedores de servicios de internet no estaban obligados a supervisar los contenidos que transmiten (art. 15), ni son responsables por contenidos ilícitos, salvo que, al tener conocimiento efectivo de la ilicitud, no actúen para retirarlos o bloquearlos. De no cumplir con esta condición, perderían la protección de la exención de responsabilidad.
Cumpliéndose dichos requisitos, no era necesario entrar en el análisis del tipo de responsabilidad, ya fuera en el orden civil, penal o administrativo, ya que el proveedor o intermediario no sería considerado responsable, tal como establecen los considerandos 42 a 44 de la Directiva. No obstante, el incumplimiento de los requisitos para aplicar la exención no implicaba automáticamente la atribución de responsabilidad. En esos casos, sí se debía proceder a examinar posibles responsabilidades en los ámbitos civil, penal o administrativo.
Una cuestión importante sobre el sistema de exención de responsabilidad establecido en dicha Directiva es que no abarca a quienes realizan actividades completamente gratuitas, sin ingresos directos ni indirectos, como son los casos de servicios sostenidos únicamente por publicidad mediante banners. Por lo tanto, si estas actividades no se ajustan a la definición legal de “servicios de la sociedad de la información”, quedan fuera del ámbito de aplicación de la exención de responsabilidad, dado que la Directiva se aplica exclusivamente a “prestadores de servicios” que desarrollan actividades económicas.
Otro problema planteado por la Directiva era la falta de claridad sobre si la exención de responsabilidad se aplicaba a intermediarios que, además de ofrecer servicios de alojamiento, permitían a los usuarios crear y publicar contenido propio.
Este régimen de responsabilidad configurado por la Directiva 2000/31/CE se vio parcialmente modificado con la aparición de la Directiva (UE) 2019/790, relativa a los derechos de autor y derechos afines en el mercado único digital. Esta nueva normativa introdujo cambios en la responsabilidad de los proveedores de alojamiento en relación con los contenidos generados por los usuarios, especialmente en casos de posibles infracciones de derechos de autor. Su principal objetivo fue abordar el “value gap” o desequilibrio entre el valor añadido que obtienen los proveedores al alojar obras protegidas y los beneficios que reciben los titulares de derechos (Serrano Gómez, 2019: 60-61).
En cuanto al Reglamento, su aparición no representa una revolución respecto al régimen de responsabilidad previo, sino que se mantienen los principios básicos establecidos por la Directiva de Comercio Electrónico, trasladando los artículos 12 a 15 de esta última, al nuevo Reglamento, aunque con ciertos ajustes.
En primer lugar cabe reseñar el cambio de criterio respecto al ámbito de aplicación de la norma, lo que tiene implicaciones en el alcance de las obligaciones y exenciones de responsabilidad contenidas en ésta. Mientras que en la Directiva de Comercio Electrónico el criterio que había que tener en cuenta era el del lugar de establecimiento de los prestadores de estos servicios (art. 3), en el Reglamento lo relevante es que se presten a destinatarios que tengan su lugar de establecimiento o estén situados en la Unión Europea (art. 2). De esta manera se consigue una armonización en los aspectos fundamentales de los prestadores de servicios de intermediación que ofrecen sus servicios en el territorio de la Unión Europea, con independencia del lugar de su establecimiento o residencia (Jiménez Vargas, 2022: 342). Tal y como afirma la doctrina (Castello Pastor, 2021: 54) “esta medida protegerá por igual a todos los usuarios en línea y evitará, en particular, las desventajas competitivas que pueden surgir entre los prestadores de servicios de intermediación en función del lugar de su establecimiento”.
Y en cuanto a los requisitos de exoneración de responsabilidad, el Reglamento los agrupa en función del tipo de prestación de servicio.
En relación con los servicios de mera transmisión, el artículo 4.1 del Reglamento establece como condiciones para la exoneración de responsabilidad: que el prestador del servicio no haya generado la transmisión; no seleccione al receptor de la misma, y no modifique ni seleccione la información transmitida.
En lo que respecta al servicio de memoria caché, regulado en el artículo 5.1 de la DSA, los requisitos para la exoneración de responsabilidad incluyen: no modificar la información almacenada; cumplir con las condiciones de acceso a la información; respetar las normas relativas a la actualización de la información, siempre que éstas sean ampliamente reconocidas y utilizadas por el sector; no interferir en el uso legítimo de tecnologías ampliamente reconocidas en el sector para obtener datos sobre la utilización de la información, y actuar con prontitud para eliminar o deshabilitar el acceso a la información almacenada, tan pronto como tenga conocimiento efectivo de que la información original ha sido retirada de la red, ya sea por decisión de su fuente original o por orden de un tribunal o autoridad administrativa.
En cuanto al servicio de alojamiento de datos, regulado en el artículo 6.1 del Reglamento, los requisitos incluyen: no tener conocimiento efectivo de la existencia de actividades o contenidos ilícitos; en caso de reclamaciones por daños y perjuicios, no tener conocimiento de hechos o circunstancias que indiquen la naturaleza ilícita de dichas actividades o contenidos, y actuar con prontitud para retirar el contenido ilícito o deshabilitar el acceso al mismo tan pronto como adquiera conocimiento efectivo de su existencia.
El legislador europeo busca de este modo concretar principios comunes para estas categorías de servicios, que pueden resumirse en los siguientes: neutralidad y no intervención en actividades ilícitas, ausencia de conocimiento efectivo sobre dichas actividades y la obligación de actuar diligentemente cuando se tenga conocimiento de ellas (González y Alegre, 2022: 131-132).
Otro aspecto destacado del Reglamento es la delimitación del concepto de “conocimiento efectivo” que realiza en su exposición de motivos (considerando 22). Según éste, el prestador puede obtener dicho conocimiento a través de dos vías: investigaciones realizadas por iniciativa propia y avisos recibidos de personas físicas o entidades, siempre que cumplan los requisitos de precisión y fundamentación establecidos en el Reglamento. Estos avisos deben permitir a un operador económico identificar, evaluar y, en caso necesario, actuar frente al contenido presuntamente ilícito de forma razonable.
En contraste, la legislación española, mediante la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI), adoptaba un concepto más restringido del “conocimiento efectivo”, limitándolo a tres medios:
–Resoluciones emitidas por órganos competentes que declaren la ilicitud del contenido y ordenen su retirada o bloqueo.
–Notificaciones recibidas mediante procedimientos de detección y retirada de contenidos a los que el proveedor se haya adherido.
–Otros medios establecidos por normas jurídicas o acuerdos entre las partes.
Comparando ambas definiciones, la LSSI restringe el conocimiento efectivo a comunicaciones de terceros “cualificados” y procedimientos determinados. En cambio, el Reglamento amplía este concepto al incluir la iniciativa propia del prestador y la validez de comunicaciones de particulares fundamentadas. Este cambio de paradigma transforma al prestador de servicios en un sujeto activo, que no solo responde pasivamente, sino que debe investigar y actuar frente a avisos razonados.
Es además importante señalar que las exenciones de responsabilidad del Reglamento no imposibilitan que se dicten órdenes contra los prestadores de servicios intermediarios, aun cuando cumplan con los requisitos para dichas exenciones (considerando 25) (Rodríguez de las Heras Ballell, 2023: 25-50). Estas órdenes, emitidas por tribunales o autoridades administrativas, pueden exigir: poner fin a una infracción y retirar contenido ilícito para evitar su difusión.
Por último, aunque los prestadores de servicios desempeñan un papel clave, el Reglamento (considerando 27) recuerda que el problema de los contenidos y actividades ilícitas en línea no debe centrarse exclusivamente en su responsabilidad. Siempre que sea posible, los afectados por este tipo de contenidos deberían buscar soluciones que no involucren a los intermediarios. Además, los propios usuarios pueden ser responsables de los contenidos ilícitos que difundan, conforme a las normativas de la Unión Europea y de los Estados miembros.
Visto lo anterior, si trasladamos estos criterios al caso concreto de las plataformas de videojuegos que incluyen servicios de comunicación interpersonal, podríamos extraer las siguientes conclusiones.
En cuanto al ámbito de aplicación, podemos afirmar que el Reglamento le resultará de aplicación a todas aquellas plataformas de videojuegos que presten sus servicios dentro del espacio europeo, aun cuando tengan su sede o servidores fuera de la UE. Siendo éste el caso de las principales plataformas de videojuegos Online.
A modo de ejemplo, tomemos como referencia dos de los videojuegos Online con servicio de comunicación interpersonal más populares, como son Fortnite y Roblox.
En el caso de Fornite, pertenece a la empresa Epic Games, Inc. con sede en Cary, Carolina del Norte (EEUU). Según las Condiciones de Servicio de su plataforma[6], “cualquier disputa o reclamación por su parte que surja de, o esté relacionada con, estas Condiciones se regirá por la ley de Carolina del Norte, excluyendo las normas relativas a la elección de fuero”. A pesar de esto, y con independencia de la eventual existencia de sedes territoriales de Epic Games en distintos países europeos, el Reglamento le resulta directamente aplicable, ya que su plataforma de juego es accesible desde los países de la UE.
En el caso de Roblox, nos encontramos con que pertenece a la empresa Roblox Corporation, que es una desarrolladora de videojuegos estadounidense con sede en San Mateo, California (EEUU) Y en sus Términos de Uso establece que “salvo que se disponga lo contrario en el presente documento, los Términos de Roblox[7] se rigen por las leyes del Estado de California sin tener en cuenta los principios de conflicto de leyes”. A pesar de ello, y al igual que en el caso de Fortnite, le serán directamente aplicables todas las disposiciones del Reglamento por tener su plataforma abierta a usuarios del espacio europeo.
Una de las principales consecuencias del sometimiento de dichas plataformas de videojuegos al Reglamento, es que les resultará de aplicación su régimen de responsabilidad. Pero como vimos, éste se configura con ciertos matices, en función del tipo de prestación de servicios, por lo que la primera cuestión será dar encaje a las plataformas de videojuegos en una de dichas modalidades: servicios de mera transmisión, servicios de memoria caché o servicios de alojamiento de datos.
En este caso y atendiendo al servicio de comunicación interpersonal que incorporan estos videojuegos, parece que lo más oportuno es ubicarlos dentro de la categoría de servicios de mera transmisión. Dicha categoría viene definida por el legislador europeo en el art. 4.1 del Reglamento como “un servicio de la sociedad de la información que consista en transmitir, en una red de comunicaciones, información facilitada por el destinatario del servicio o en conceder acceso a una red de comunicaciones”. Y como vemos, se corresponde con las características de los servicios de comunicación interpersonal que incorporan estas plataformas.
Por lo tanto, los requisitos de exoneración de responsabilidad para las plataformas de videojuegos serán:
–que la propia plataforma no haya generado la transmisión. Puede que en el propio juego haya personajes autónomos no manejados por usuarios, denominados comúnmente NPCs (Non Playable Character). Su interacción con otros usuarios no entraría dentro de los supuestos de exoneración de responsabilidad, ya que podríamos considerar que las transmisiones e interacciones que realicen con otros usuarios sí han sido generadas por la propia plataforma. De este modo, para que pudiera cumplirse el presente requisito, sería necesario que la interacción de comunicación se realizara entre los propios usuarios y no NPCs.
–no seleccione al receptor de la misma. Por su propia dinámica de juego, estas plataformas no seleccionan generalmente al receptor de las comunicaciones, ya que es el propio jugador el que se dirigirá personalmente a otro usuario o grupo de usuarios, a los que les quiera transmitir un determinado mensaje. Sin embargo, hay que tener presente esta característica para aquellos eventuales juegos en los que se pudieran lanzar mensajes de manera aleatoria y fuera la plataforma la que asignara al receptor del mensaje. En ese caso no se cumpliría este requisito y por tanto habría que excluir la exención de responsabilidad de la plataforma.
–no modifique ni seleccione la información transmitida. Al igual que en el requisito anterior, de manera general las plataformas de videojuegos no modifican ni seleccionan la información que transmiten los usuarios del juego, por el sencillo motivo de que desvirtuaría la propia jugabilidad. Pero, aun así, habría que atender siempre al juego concreto para realizar la verificación del cumplimiento de este requisito, ya que existen múltiples modalidades de juegos y no es descartable de manera categórica la posibilidad de que, en alguno de ellos, la plataforma pueda alterar o seleccionar la información que se va a transmitir, en cuyo caso no se cumpliría el presente requisito para la exención de culpabilidad.
Estos requisitos particulares para la exención de responsabilidad en los servicios de transmisión tendrían cabida dentro de los principios comunes de neutralidad y no intervención en actividades ilícitas antes indicados. Pero el legislador nos remite además a la ausencia de conocimiento efectivo sobre dichas actividades y la obligación de actuar diligentemente cuando se tenga conocimiento de ellas.
En el caso de las plataformas de videojuegos, la forma de obtener dicho conocimiento efectivo vendrá principalmente por las siguientes vías:
–el uso de moderadores con capacidad de identificar eventuales comportamientos ilícitos que se estén produciendo entre los jugadores.
–la implantación de sistemas o algoritmos automáticos que detecten determinadas palabras o conceptos potencialmente vinculados a comportamientos ilícitos, de modo que la plataforma pueda investigar si efectivamente existe alguna irregularidad.
–canales de denuncia que permitan a los propios jugadores o incluso a terceros, poder reportar a la plataforma los potenciales comportamientos ilícitos que se pudieran estar produciendo.
–resoluciones de órganos competentes que pudieran haber declarado la ilicitud de algún comportamiento que se esté produciendo en la plataforma de videojuego.
Pero no todo queda en el conocimiento efectivo del comportamiento ilícito, si no que la plataforma de videojuegos debe actuar diligentemente cuando tenga conocimiento de ello. Por eso resulta tan importante, no solo habilitar los canales que permitan tener conocimiento de estas situaciones, si no establecer también protocolos de actuación que permitan a la plataforma identificar, evaluar y, en caso necesario, actuar frente al contenido presuntamente ilícito, de forma ágil y eficaz.
Con el objetivo de cumplir los principios del Reglamento y optimizar el funcionamiento del mercado interior, se establecen una serie de obligaciones armonizadas para los prestadores de servicios intermediarios.
De este modo el legislador europeo justifica la necesidad de un marco claro y equilibrado de obligaciones armonizadas que mejoren el mercado interior y garanticen un entorno digital seguro y transparente (Cruz Ángeles, 2022: 303). Estas obligaciones tendrían como objetivos principales:
–Promover la seguridad y confianza de los usuarios, incluidos menores y grupos vulnerables.
–Proteger los derechos fundamentales establecidos en la Carta de Derechos Fundamentales.
–Garantizar una rendición de cuentas significativa por parte de los proveedores.
–Empoderar a los usuarios y facilitar una supervisión eficaz por parte de las autoridades competentes.
El Reglamento subraya, especialmente, la importancia de la moderación de contenidos y la implementación de mecanismos de diligencia debida. Esto responde a retos como la desinformación, la propagación de contenidos ilícitos y el uso de identidades falsas que conllevan problemas como la difusión de noticias falsas o el ciberacoso, hasta la actividad de cuentas falsas y uso de bots. Este tipo de comportamientos son utilizados por determinadas empresas que buscan maximizar beneficios a corto plazo a través de clics y viralización, incrementando así el tráfico y los ingresos publicitarios; pero también por individuos que pretender ocultar su verdadera identidad o crear perfiles falsos con el fin de aproximarse y ganarse la confianza de potenciales víctimas.
Éste último es el caso de los comportamientos de ciberacoso sexual a menores, que habitualmente se producen mediante contactos iniciales en foros o chats abiertos (en ocasiones en plataformas de videojuegos Online[8]), con el fin de tener un acceso inicial a otros usuarios, que por su nick o por su forma de expresarse, pudieran ser menores. Posteriormente, dichos agresores invitan a las potenciales víctimas a chats privados, donde llevar a cabo de forma discreta la acción de ciberacoso sexual.
Para contrarrestar estos riesgos, el Reglamento parte de unas obligaciones generales para los servicios intermediarios, que aplicarían a todos los prestadores de estos servicios, independientemente de su tamaño o alcance:
–Cooperación con autoridades. Responder a órdenes legales relacionadas con la eliminación de contenido ilícito o la provisión de información específica.
–Designación de un punto de contacto. Permitir la comunicación directa con las autoridades y los usuarios.
–Políticas claras de términos y condiciones. Redactar términos y condiciones de manera accesible, transparente y en línea con la normativa europea, explicando cómo se moderan los contenidos.
–Prohibición de la discriminación de destinatarios. Garantizar el acceso no discriminatorio a los servicios, salvo en casos justificados[9].
De este modo el Reglamento establece obligaciones generales para todos los prestadores, pero también ha previsto la imposición de requisitos más estrictos para plataformas de gran tamaño, ya que éstas generan riesgos sociales de mayor alcance. Este enfoque proporcional, considera tanto el impacto social como los recursos de estas plataformas y están dirigidas a aquéllas con más de 45 millones de usuarios activos en la UE, dado su impacto significativo:
–Evaluación de riesgos sistémicos. Identificar y mitigar riesgos relacionados con la propagación de contenidos ilícitos, desinformación, protección de menores, discriminación y derechos fundamentales.
–Auditorías independientes. Someterse a auditorías anuales para evaluar el cumplimiento de las obligaciones establecidas por el reglamento.
–Transparencia en algoritmos. Proporcionar información clara sobre los algoritmos utilizados para la moderación de contenido y las recomendaciones.
–Acceso a datos. Permitir el acceso a investigadores autorizados para evaluar el impacto de la plataforma en la sociedad.
–Medidas contra la desinformación. Implementar mecanismos específicos para abordar el desafío de la desinformación, incluidas colaboraciones con verificadores de hechos.
Sin embargo, una parte de la doctrina (Monjas González, 2022: 59) critica esta estructura piramidal, argumentando que no siempre refleja las especificidades de la moderación de contenidos. Señala que las plataformas emergentes, aunque más pequeñas, pueden presentar riesgos significativos para la dignidad humana y la protección de los menores. Además, existe el riesgo de que usuarios o grupos migrados de plataformas mayores, opten por plataformas más pequeñas para continuar con sus prácticas ilícitas.
En cualquier caso, si nos vamos al supuesto de las plataformas de videojuegos, no resulta difícil que los juegos más populares alcancen la cifra de 45 millones de usuarios en la UE, y por tanto que les resulten de aplicación las obligaciones específicas para las plataformas de gran tamaño. Así por ejemplo vemos como Fortnite cuenta a día de hoy con más de 450 millones de usuarios registrados[10], gran parte de los cuales corresponden a usuarios de la UE. Y lo mismo podemos observar en Roblox, con más de 250 millones de usuarios registrados[11].
Pero el legislador europeo no se queda en la mera distinción del tamaño de la plataforma en línea y va más allá estableciendo una serie de obligaciones particulares para las plataformas que conectan a terceros con los usuarios (por ejemplo, redes sociales, mercados en línea o las propias plataformas de videojuegos que integran medios de comunicación interpersonal):
–Gestión de contenido ilegal. Implementar mecanismos accesibles para que los usuarios puedan reportar contenido ilegal.
–Transparencia publicitaria. Informar a los usuarios de manera clara cuándo interactúan con contenido publicitario y quién lo financia.
–Protección de menores. Diseñar entornos seguros para menores de edad y restringir la orientación publicitaria basada en perfiles de menores.
–Notificación y acción. Establecer procedimientos efectivos para actuar con rapidez frente a contenidos ilegales reportados.
Como se puede observar, la mayoría de las obligaciones señaladas son en realidad objetivos que debe alcanzar el prestador de servicios, para lo cual podrá adoptar las medidas que considere más oportunas, en función de su modelo de negocio, siempre que permitan alcanzar dichos objetivos.
En el caso concreto de las plataformas de videojuegos, cabe resaltar algunas de las obligaciones que tendrán especial importancia, sin que ello implique la desatención del resto:
–Cooperación con autoridades. Las plataformas de videojuegos deberán configurar mecanismos ágiles de respuesta a eventuales órdenes legales relacionadas con la eliminación de contenido ilícito o la provisión de información específica, ya que de ello puede depender que se consiga impedir o detener comportamientos ilícitos que se puedan estar produciendo en sistemas comunicación interpersonal, como son los posibles casos de acoso sexual a menores.
–Evaluación de riesgos. Resulta fundamental que las plataformas de videojuegos hagan un análisis profundo que abarque desde el propio proceso de registro e identificación de sus usuarios, hasta los distintos formatos de jugabilidad y los propios controles parentales que se pueden configurar, de modo que, entre otras cosas, se consiga un entorno lo más seguro y protegido posible para los menores participantes.
–Transparencia en algoritmos. Aun cuando puedan existir moderadores que hagan labores de vigilancia y control en las interacciones entre usuarios, los grandes volúmenes de jugadores de estas plataformas hacen inviable que todo el control pueda realizarse por personas físicas, por lo que lo habitual será utilizar algoritmos entrenados para funciones de moderación. Por ello resultará importante que las plataformas de videojuegos sean transparentes en cuanto al uso y alcance de dichos algoritmos, lo que permitirá, tanto a la auditoría, como al órgano de control correspondiente, verificar si resulta adecuado y suficiente.
–Auditorías independientes. La forma más efectiva de evaluar la robustez del sistema de cumplimiento del Reglamento implantado es a través de auditorías externas. Aun cuando las plataformas cuenten con equipos de profesionales en el cumplimiento normativo, los auditores externos aportan una visión con mayor perspectiva y la posibilidad de comparar el sistema implantado con los de otras empresas auditadas del mismo sector, lo que permite aportar una visión práctica y funcional, con recomendaciones de mejora que pueden resultar de gran utilidad.
–Acceso a datos. Al igual que en el caso de los algoritmos, será fundamental que las plataformas permitan a los investigadores autorizados o a las propias auditoras, el acceso a los datos necesarios para evaluar el impacto de la actividad de la plataforma.
–Gestión de contenido ilegal, notificación y acción. Una de las cuestiones con mayor relevancia dentro de las obligaciones aplicables a las plataformas de videojuegos es la implementación de mecanismos accesibles para que los usuarios puedan reportar, no sólo el posible contenido ilícito, si no también si se está produciendo algún tipo de comportamiento en las interacciones entre usuarios que pudiera conllevar la comisión de actos ilícitos. Pero, como es evidente, no basta con conocer, sino que también hay que actuar. Por lo que será necesario contar con procedimientos efectivos para actuar con rapidez frente a los comportamientos reportados.
–Protección de menores. Aunque todas las medidas anteriores se deben abordar desde una perspectiva que dé cabida a la protección de los menores, en el caso concreto de las plataformas de videojuegos resulta de especial aplicación, ya que una gran parte de los usuarios van a ser menores de edad. Por eso es fundamental diseñar entornos seguros para menores de edad, en los que se tenga en cuenta a los progenitores para dotarles de mecanismos suficientes que permitan ejercer un control parental adecuado.
Todo este sistema de obligaciones del Reglamento se apoya en la responsabilidad de los Estados miembros para garantizar que los incumplimientos sean sancionados de manera eficaz y proporcional de modo que tenga un efecto disuasorio (art. 52). Para ello se establece que cada Estado debe designar autoridades competentes para supervisar y hacer cumplir el Reglamento, que las empresas que incumplan puedan enfrentarse a multas de hasta el 6 % de su facturación anual global, así como una supervisión directa de la Comisión Europea a las plataformas más grandes para garantizar su cumplimiento.
No obstante, este sistema de obligaciones podría generar discrepancias entre los regímenes sancionadores de los Estados miembros. Para evitarlo, el Reglamento obliga a los países a informar a la Comisión Europea sobre su régimen sancionador, establecer límites máximos y definir criterios claros de cuantificación, lo que garantiza una armonización mínima. Para ello, en la determinación de las sanciones, se deberán considerar factores como:
–Naturaleza, gravedad y duración del incumplimiento.
–Número de usuarios afectados y la intencionalidad o negligencia del infractor.
–Capacidad económica del proveedor y su actividad en múltiples Estados miembros.
Visto lo anterior, podemos señalar también que a pesar de que el Reglamento es ambicioso, no aborda directamente muchos problemas específicos de la industria del videojuego. Un ejemplo lo encontramos en los denominados loot boxes o “cajas de recompensa”, que consisten en artículos virtuales de un videojuego, el cual puede ser canjeado para recibir artículos de ese juego. Además, aunque todos los jugadores tienen acceso a estas “cajas de recompensa”, son los niños, adolescentes y adultos jóvenes los que se encuentran más expuestos (Sanmartín, 2023: 407-420).
Dichas “cajas de recompensa” no están reguladas explícitamente en el Reglamento. Y aunque se puede interpretar que los criterios que afectan al uso de algoritmos y de transparencia en la monetización podrían resultar de aplicación a este caso, no hay obligación clara de informar sobre las probabilidades de su obtención, ni se protege específicamente a menores de sistemas de apuestas encubiertas.
Por ello, países como Bélgica y Países Bajos han tomado medidas más estrictas que las previstas en el Reglamento, lo que implica que no haya una verdadera armonización a nivel UE[12].
En el caso de España, en julio de 2022, el Ministerio de Consumo presentó un Anteproyecto de Ley enfocado en la regulación de los mecanismos aleatorios de recompensa vinculados a productos de software interactivo de entretenimiento[13]. No obstante, a comienzos de 2024, el Ministerio de Derechos Sociales, Consumo y Agenda 2030 optó por retirar este Anteproyecto del proceso legislativo. La decisión se justificó en base a las posibles repercusiones negativas que dicha normativa podría tener sobre la libertad creativa y el crecimiento económico del sector del videojuego.
Como consecuencia de este paso atrás, persiste una considerable incertidumbre respecto al futuro marco normativo de las loot boxes en España, ya que las medidas inicialmente planteadas quedaron sin aplicación concreta.
A pesar de ello, el Consejo de Ministros aprobó el 11 de junio de 2024 el Anteproyecto de Ley Orgánica para la protección de menores en entornos digitales y el 25 de marzo de 2025 remitió a las Cortes el Proyecto de Ley Orgánica[14]. En su artículo 5, se recoge una de las disposiciones más controvertidas que surgieron durante los primeros debates sobre la regulación de las loot boxes: la prohibición del acceso y uso de mecanismos aleatorios de recompensa por parte de menores, equiparando su funcionamiento al de los juegos de azar.
Además, se han seguido promoviendo propuestas que reclaman una normativa firme frente a estos sistemas. La más reciente, anunciada el 12 de septiembre de 2024, proviene de la Organización de Consumidores y Usuarios (OCU) junto con otras 21 asociaciones de 17 países integrados en la Organización Europea de Consumidores (BEUC). Estas organizaciones enviaron una misiva a la Comisión Europea[15] y a la Red de Cooperación para la Protección de los Consumidores (Red CPC), en la que denuncian prácticas comerciales abusivas por parte de grandes compañías de videojuegos. En concreto, señalan el uso de monedas virtuales premium y loot boxes como técnicas que fomentan un gasto excesivo en los jugadores, solicitando su retirada del mercado.
Con esta acción, la BEUC llama a las instituciones europeas a establecer una regulación estricta sobre las loot boxes y otros mecanismos de monetización en videojuegos, siguiendo una línea similar a la propuesta española iniciada en 2022.
Otra carencia reseñable del Reglamento es que no hace mención sistemas como PEGI u otros de clasificación por edades, no exigiendo una verificación de edad efectiva, ni sistemas de control parental obligatorio.
De igual modo nos encontramos con una falta de regulación específica de las microtransacciones y monetización agresiva en videojuegos. Aunque la norma recoge prohibiciones sobre los denominados “patrones oscuros” (dark patterns), no se aplica específicamente a prácticas comunes en videojuegos, como las ofertas engañosas o temporales o los diseños que presionan psicológicamente a comprar.
Por último, también cabe señalar que no se recogen pautas específicas sobre los denominados UGC o contenidos generados por los propios usuarios en videojuegos (mods, mundos virtuales, etc.), por lo que habrá que considerarlos incluidos bajo el paraguas general de la regulación del contenido ilícito.
VI. EL PAPEL DE LA DILIGENCIA DEBIDA
Como se ha podido observar, el sistema configurado por el legislador europeo en el Reglamento, se basa en un sistema de diligencia debida, que resulta aplicable tanto a las plataformas en línea como a los mercados digitales, por lo que resulta importante conocer el alcance de dicho concepto y la forma en la que se puede llevar a efecto.
El concepto de diligencia debida tiene sus raíces en el Derecho Romano (Márquez Carrasco, 2022: 608). Desde entonces, ha permanecido como un estándar de conducta exigible, ajustado a las circunstancias específicas de cada caso.
Actualmente, aunque los Estados miembros de la Unión Europea utilizan terminología diversa para referirse a la diligencia debida, el principio subyacente, que exige actuar con un grado de diligencia razonable para evitar causar daño a otros, sigue siendo ampliamente reconocido en los sistemas jurídicos de estos países (Deringer et al., 2020: 20-21).
En el ámbito del Derecho internacional, se puede ver que la diligencia debida ha jugado un papel clave en la determinación de la responsabilidad de los Estados frente a la actuación de agentes privados (Kulesza, 2016), considerándose, más que una obligación de resultado, una obligación de conducta, lo que implica que el foco se sitúe en el comportamiento del obligado, en lugar de en los resultados obtenidos (Koivurova y Singh, 2022).
En aplicación de la diligencia debida, las empresas tendrían por tanto la responsabilidad de identificar tanto las consecuencias potenciales como las reales, prevenir o mitigar las primeras y resolver las segundas, es decir, aquellas que ya hayan ocurrido.
La implementación de procesos de diligencia debida no es por tanto un concepto novedoso en el ámbito comunitario. Las empresas de la Unión Europea han venido adoptando medidas para identificar riesgos e impactos adversos derivados de sus actividades, demostrando su compromiso principalmente con el respeto a los derechos humanos y la mitigación de su huella ambiental.
Sin embargo, esta tarea se enfrenta a retos sustanciales. Las empresas deben lidiar en determinados casos con falta de claridad jurídica en cuanto a las obligaciones que quedan incluidas dentro de la diligencia debida, así como la escasez de información y los elevados costos asociados. Esto además se agrava por la existencia de casos que han salido a la luz pública, en los que determinadas empresas de la UE han estado vinculadas a violaciones de derechos humanos y daños ambientales significativos.
Como respuesta a este tipo de casos, los ciudadanos de la Unión han exigido una posición más firme y coherente que asegure que la economía europea contribuya a mitigar estos impactos negativos. Estas demandas ciudadanas se han traducido en debates legislativos nacionales, iniciativas normativas sobre derechos humanos y diligencia debida, y en un llamado a la acción por parte del Parlamento Europeo y el Consejo.
Sin embargo, la diligencia debida no ha supuesto una novedad para todos los países comunitarios. Algunos Estados miembros ya habían adoptado previamente leyes de diligencia debida, como Francia con la Ley de Vigilancia de 2017 (Loi relative au devoir de vigilance[16]) y Alemania con la Ley de Obligaciones de Diligencia de 2021 (Sorgfaltspflichtengesetz[17]). Además, otros países, como Bélgica, Luxemburgo y Suecia, estaban considerando implementar regulaciones similares. Sin embargo, la regulación a nivel nacional no es la solución, siendo necesaria una mayor armonización legislativa en toda la UE para garantizar una aplicación uniforme y efectiva (Galimberti Díaz Faes, 2023: 5-6).
Por otro lado, hay que tener también presente que la implementación práctica de la debida diligencia en las empresas suele materializarse a través de una política que exprese claramente su compromiso. Y para garantizar su efectividad, esta política debe cumplir con los siguientes requisitos (Ruggie, 2011):
–Contar con la aprobación del nivel corporativo más alto.
–Basarse en asesoramiento especializado.
–Establecer objetivos concretos y medibles.
–Ser pública y comunicada tanto interna como externamente.
–Reflejarse en las políticas y procedimientos de toda la organización.
–Tener un alcance global, vinculando a contratistas, proveedores y socios comerciales.
–Identificar los principales riesgos asociados a la actividad empresarial.
Este compromiso resulta fundamental, ya que transforma la intención de la empresa en una política clara y de alcance general. Dicha política no solo guía la manera en que la empresa lleva a cabo sus actividades, sino que también se convierte en un elemento clave para demostrar su responsabilidad y coherencia en la gestión de sus operaciones (Pacto Mundial de la ONU, 2012: 35).
Además, esta política debe ser ampliamente difundida en toda la empresa y sus subsidiarias, alcanzando a los altos directivos, empleados, entidades con las que mantenga relaciones contractuales y otros actores directamente vinculados a sus operaciones. Asimismo, las empresas cuyas actividades impliquen riesgos significativos deben informar a las partes interesadas que puedan verse afectadas por dichos riesgos (Amis, 2011).
Por tanto, la responsabilidad empresarial implica evitar que sus actividades generen o contribuyan a generar consecuencias negativas, abordar estas situaciones cuando ocurran y esforzarse por prevenir o mitigar aquellas que estén vinculadas directamente con sus operaciones, productos o servicios, incluso cuando éstas estén asociadas a sus relaciones comerciales. La acción que debe adoptar la empresa dependerá por tanto de la naturaleza de su implicación en dichas consecuencias negativas.
En el mismo sentido la Plataforma por Empresas Responsables, definen la diligencia debida como el proceso mediante el cual las empresas “adoptan todas las medidas necesarias y eficaces para identificar, prevenir, mitigar, rendir cuentas y responder a los impactos negativos, reales o potenciales, derivados de sus propias actividades o de las de su cadena de valor, incluidas filiales, subcontratistas, proveedores y otras relaciones económicas, tanto en su país de origen como en terceros países”.
Por otro lado, las Líneas Directrices de la OCDE para Empresas Multinacionales (2023) y sus guías sectoriales, reconocidas internacionalmente, han ampliado la aplicación de la diligencia debida a cuestiones relacionadas con el medio ambiente y la gobernanza. Asimismo, la Declaración Tripartita de Principios sobre las Empresas Multinacionales y la Política Social de la Organización Internacional del Trabajo (OIT) incorpora este concepto en sus recomendaciones, destacando su relevancia en el ámbito de la responsabilidad empresarial.
Pues bien, como ya adelantábamos, el legislador europeo ha trasladado los principios de la diligencia debida al Reglamento. Y lo ha hecho además de manera expresa. Así nos encontramos que en su considerando 40 se establece que “a fin de cumplir los objetivos del presente Reglamento, y en particular de mejorar el funcionamiento del mercado interior y garantizar un entorno en línea seguro y transparente, es necesario establecer un conjunto claro, eficaz, predecible y equilibrado de obligaciones armonizadas de diligencia debida para los prestadores de servicios intermediarios”.
Establece además como fundamental, que las obligaciones de diligencia debida se ajusten al tipo, tamaño y naturaleza del servicio intermediario en cuestión. Por ello, como ya se ha analizado en el capítulo anterior, el Reglamento establece un marco de obligaciones básicas aplicables a todos los prestadores de servicios intermediarios, complementado con requisitos adicionales para aquellos que ofrecen servicios de alojamiento de datos, plataformas en línea, plataformas en línea de muy gran tamaño y motores de búsqueda en línea de muy gran tamaño.
Estas obligaciones armonizadas de diligencia debida están diseñadas para ser razonables y no arbitrarias, resultando esenciales para alcanzar los objetivos de interés público identificados, como la protección de los intereses legítimos de los usuarios, la lucha contra actividades ilícitas y la garantía de los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.
Cabe por último destacar que las obligaciones de diligencia debida son independientes de la responsabilidad legal de los prestadores de servicios intermediarios y, por lo tanto, deben considerarse de forma separada.
VII. EL COORDINADOR DE SERVICIOS DIGITALES
Como última característica reseñable del Reglamento, podemos remitirnos a la responsabilidad que asigna a los Estados miembros de garantizar una supervisión adecuada y el cumplimiento de las obligaciones mencionadas. Para este propósito, cada Estado debe nombrar al menos una autoridad encargada de aplicar y hacer cumplir su normativa. No obstante, los Estados miembros tienen la opción de asignar tareas y competencias específicas de supervisión o ejecución a más de una autoridad competente, especialmente en sectores altamente especializados, como la protección del consumidor, siempre y cuando se describa claramente su estructura organizativa y administrativa interna (Cruz Ángeles, 2022: 301).
Además, la designación del Coordinador de Servicios Digitales puede ser a una autoridad nueva o una ya existente, siempre que tenga los recursos y la independencia necesarios para desempeñar sus funciones.
El Coordinador de Servicios Digitales deberá trabajar en estrecha coordinación con la Comisión Europea y otros Coordinadores de Estados miembros, garantizando una aplicación armonizada y eficaz del Reglamento en todo el territorio de la Unión.
Entre las responsabilidades del Coordinador de Servicios Digitales cabe destacar las siguientes:
–Supervisión y control. Supervisar el cumplimiento de las obligaciones de diligencia debida y otras disposiciones del Reglamento por parte de los proveedores de servicios intermediarios en su jurisdicción.
–Gestión de infracciones. Investigar posibles infracciones y, en caso necesario, imponer sanciones proporcionales, disuasorias y efectivas.
–Colaboración con otras autoridades:
•Actuar como el punto de contacto nacional con la Comisión Europea y otros Coordinadores de Servicios Digitales de los Estados miembros.
•Participar en la Junta Europea de Servicios Digitales, un organismo que fomenta la cooperación y la coherencia en la aplicación del Reglamento en toda la UE.
–Recepción y gestión de reclamaciones. Atender las denuncias de particulares, organizaciones de la sociedad civil y otras partes interesadas relacionadas con el incumplimiento del Reglamento.
–Interacción con plataformas en línea de gran tamaño. Supervisar, en coordinación con la Comisión Europea, las obligaciones adicionales impuestas a estas plataformas debido a su impacto significativo en el mercado y la sociedad.
–Informes y evaluación. Presentar informes regulares sobre las actividades relacionadas con la aplicación del Reglamento y colaborar en las evaluaciones periódicas.
Sin embargo, esta figura no ha sido ajena a la polémica, ya que hay una corriente doctrinal (Kayali, 2021) que considera que surge con una grave deficiencia. El motivo es que la jurisdicción en el caso de estos coordinadores se limita al país donde la plataforma está establecida. Esto plantea un problema importante, dado que las grandes plataformas digitales suelen tener sus sedes principales en Luxemburgo e Irlanda, que en ocasiones han sido utilizados para escudar casos notorios de situaciones en las que se producía fraude fiscal, manipulación de datos y abuso de competencia (Barrera y Bustamante, 2018: 150-161). Si bien es cierto que la legislación contempla la posibilidad de que la Comisión Europea intervenga directamente, la mayoría de usuarios quedarían sujetos a la autoridad de los Coordinadores de Servicios Digitales de las jurisdicciones de Irlanda y Luxemburgo, o dependerían de las acciones de la propia Comisión (Pérez Galindo, 2022: 41-51).
Por su parte en España, el Ministerio para la Transformación Digital y de la Función Pública designó el 24 de enero de 2024 a la Comisión Nacional de los Mercados y la Competencia (CNMC) como Coordinador de Servicios Digitales nacional. Sin embargo, no fue hasta el 23 de diciembre, que mediante el Real Decreto-ley 9/2024[18] se dotó a la CNMC de una nueva Dirección de Servicios Digitales que asumiera dichas competencias. Además, como Coordinador de Servicios Digitales, la CNMC ha pasado a formar parte de la Junta Europea de Servicios Digitales[19]. Dicho ente se trata de un grupo consultivo independiente integrado por todos los coordinadores de servicios digitales, bajo la presidencia de la Comisión Europea.
Por lo tanto, en el caso español es la CNMC la encargada de realizar la supervisión y control de las plataformas de videojuegos que incluyan servicios de comunicaciones interpersonales, así como de investigar y sancionar las eventuales infracciones en las que pudieran incurrir dichas plataformas en caso de no cumplir con las obligaciones anteriormente vistas, ni cumplir con los requisitos de exención de responsabilidad previstos en el Reglamento.
Pero aún hay una cuestión más que resulta de gran importancia, y es que este órgano es el encargado de recepcionar y gestionar las denuncias vinculadas al incumplimiento del Reglamento. Sin embargo, a día de hoy no existe dicho trámite en el portal de la CNMC[20], lo cual no debe eximirle del cumplimiento de las funciones que le han sido formalmente asignadas, por lo que tendrá la obligación de tramitar todas aquellas denuncias en materia de incumplimiento del Reglamento, que sean presentadas a través del Registro físico o del trámite digital genérico de remisión de “solicitudes, escritos y comunicaciones”.
VIII. LA REGULACIÓN EN EEUU
Frente a la regulación comunitaria analizada, resulta interesante ver cómo se ha abordado el mismo tema desde la regulación normativa de Estados Unidos.
Así nos encontramos con que la responsabilidad y obligaciones de las plataformas de videojuegos se regulan a través de una combinación de leyes federales, estatales y normativas del sector. No existe una única ley que regule exclusivamente a las plataformas de videojuegos, pero sí hay varios marcos legales clave que les aplican.
En primer lugar, nos encontramos la Children’s Online Privacy Protection Act (COPPA)[21] para la protección de la infancia y privacidad. Dicha norma aplica a las plataformas que recolectan información personal de niños menores de 13 años y les obliga a obtener el consentimiento de los padres antes de recolectar datos de los menores, a informar claramente sobre las prácticas de privacidad y a proteger la información recopilada (Andreu Martínez, 2009: 79-106).
Un caso muy relevante por infracción de esta norma fue el que enfrentó a la FTC (Federal Trade Commission) con Epic Games (Fortnite) en el año 2022. La FTC demandó a Epic por violaciones de la privacidad infantil bajo la norma COPPA antes mencionada.
En este caso Epic Games permitía chat de voz y texto por defecto en niños sin controles parentales y facilitaba compras accidentales con botones confusos.
Como resultado se le sancionó con la multa más grande impuesta a una empresa de videojuegos en EE.UU. por este tipo de prácticas, con una sanción total de $520 millones (mediante dos acuerdos separados). Además Epic Games fue forzada a implementar cambios en sus interfaces, controles parentales, y prácticas de privacidad[22].
Por otro lado, nos encontramos la FTC Act[23] de protección al consumidor por la Federal Trade Commission. Dicha norma regula la publicidad engañosa, prácticas comerciales injustas, microtransacciones, loot boxes, etc. De este modo se atribuyen competencias a la FTC para sancionar plataformas, por ejemplo, por no divulgar adecuadamente compras dentro del juego o por prácticas manipuladoras.
Un ejemplo de actuación bajo esta norma lo encontramos en la investigación abierta por la FTC por casos de Loot Boxes en determinados juegos como FIFA, Overwatch y Star Wars Battlefront II, entre otros. Dichas loot boxes (cajas de recompensas aleatorias) fueron consideradas por muchos como una forma de apuesta encubierta, especialmente peligrosa para menores[24].
La siguiente norma que podemos destacar es la Sección 230 de la Communications Decency Act[25] o Ley de Decencia en las Comunicaciones (CDA). Esta norma proporciona inmunidad a las plataformas respecto al contenido generado por usuarios, pero no exime de responsabilidad por contenido ilegal si la plataforma tiene participación activa en su publicación. De este modo si un usuario publicara contenido ofensivo o ilegal en un juego con funciones sociales, la plataforma normalmente no sería responsable, salvo que incumpliera sus propios términos.
Aquí nos podemos remitir al caso de Roblox que aunque se ampara parcialmente en la Sección 230, ha enfrentado críticas por permitir contenido sexualizado, estafas o grooming dentro de su plataforma. En respuesta, Roblox implementó nuevas políticas de moderación de contenido, herramientas de control parental mejoradas y medidas para que los desarrolladores informen adecuadamente si hay monetización en sus juegos.
Aun así, podemos encontrarnos cómo recientemente en abril de 2025, una familia presentó una demanda alegando que su hijo de 13 años fue explotado sexualmente a través de Roblox y Discord. La demanda argumenta que ambas plataformas no implementaron medidas adecuadas para proteger a los menores de depredadores en línea[26].
Otra norma relevante sería la Entertainment Software Rating Board[27] o Clasificación y autorregulación (ESRB). Aunque no se trata de una norma con rango de ley, sí es un estándar de la industria con gran peso y obligatoria en muchas tiendas (como PlayStation Store, Xbox Live), que determina la clasificación de juegos por edad y contenido y ayuda a informar a los consumidores, especialmente a los padres.
Por último, podemos destacar también la regulación de servicios en línea existente en Estados Unidos, por la cual las plataformas deben cumplir también con leyes sobre Seguridad Cibernética[28], Accesibilidad (ADA)[29] y Derechos de autor (DMCA)[30].
Dentro de los distintos servicios y funcionalidades que ofrecen las plataformas de videojuegos Online, el riesgo de ciberacoso sexual de menores proviene principalmente de aquellos juegos que ofrecen la posibilidad de interactuar con otros jugadores a través de servicios de chat o de voz que vienen integrados en los propios juegos.
Los servicios de comunicaciones interpersonales definidos en la Directiva (UE) 2018/1972, como correos electrónicos o servicios de mensajería privada, quedan fuera de la definición de plataformas en línea según el Reglamento, al estar limitados a la comunicación entre un número finito de personas determinado por el remitente. Sin embargo, el Reglamento establece que las obligaciones para plataformas en línea pueden aplicarse a servicios que permitan compartir información con un número ilimitado de destinatarios, no determinado por el remitente, como grupos públicos o canales abiertos.
En este contexto, algunos videojuegos en línea limitan las comunicaciones a grupos cerrados de “amigos”, quedando fuera del ámbito del Reglamento. Sin embargo, en videojuegos abiertos donde cualquier usuario puede participar y comunicarse con desconocidos, el número de destinatarios no está determinado, lo que los incluiría dentro del ámbito de aplicación del Reglamento, siempre y cuando no sea tan solo una característica menor o meramente accesoria que esté unida a otro servicio o una funcionalidad menor del servicio principal.
Los requisitos para que las plataformas de videojuegos estén exoneradas de responsabilidad conforme al Reglamento son:
–No generar la transmisión. Las interacciones generadas por personajes autónomos (NPCs) no estarían exentas de responsabilidad, ya que son creadas por la plataforma. Solo se exime la comunicación entre usuarios humanos.
–No seleccionar al receptor. Generalmente, las plataformas no asignan receptores, ya que los jugadores eligen a quién dirigir sus mensajes. Sin embargo, si la plataforma asignara receptores de forma directa, no se cumpliría este requisito.
–No modificar ni seleccionar la información transmitida. Las plataformas no suelen alterar los mensajes de los usuarios para mantener la jugabilidad. No obstante, en casos donde la plataforma modifique o seleccione información, perdería esta exoneración.
Las plataformas de videojuegos Online pueden obtener conocimiento efectivo de comportamientos ilícitos que se producen en su plataforma a través de:
–Moderadores. Personas encargadas de identificar conductas indebidas entre jugadores.
–Sistemas automáticos. Herramientas que detectan palabras o conceptos asociados a actividades ilícitas para iniciar investigaciones.
–Canales de denuncia. Mecanismos que permiten a jugadores o terceros, reportar conductas sospechosas.
–Resoluciones de órganos competentes. Resoluciones legales que declaren la ilicitud de ciertas actividades en la plataforma.
En las plataformas de videojuegos Online, existen determinadas obligaciones previstas en el Reglamento, que adquieren una especial relevancia:
–Cooperación con autoridades. Implementar mecanismos ágiles para cumplir órdenes legales sobre eliminación de contenido ilícito o suministro de información, crucial en casos como el acoso a menores.
–Evaluación de riesgos. Analizar procesos de registro, jugabilidad y controles parentales para garantizar entornos seguros, especialmente para menores.
–Transparencia en algoritmos. Informar sobre el uso y alcance de algoritmos de moderación para facilitar auditorías y controles externos.
–Auditorías independientes. Realizar evaluaciones externas que ofrezcan recomendaciones prácticas para mejorar el cumplimiento del Reglamento.
–Acceso a datos. Permitir que investigadores y auditores accedan a datos relevantes para evaluar el impacto de la plataforma.
–Gestión de contenido ilegal. Establecer mecanismos accesibles para reportar y actuar rápidamente contra contenidos o comportamientos ilícitos.
–Protección de menores. Diseñar entornos seguros para menores, con controles parentales efectivos y medidas específicas que prioricen su bienestar.
El Reglamento establece que los Estados miembros deben garantizar sanciones eficaces, proporcionales y disuasorias para los incumplimientos, designando autoridades competentes y permitiendo multas de hasta el 6 % de la facturación anual global de las empresas. Además, la Comisión Europea supervisará directamente a las plataformas más grandes. Y para evitar discrepancias entre regímenes sancionadores, los países deberán informar a la Comisión sobre sus sistemas, establecer límites máximos y definir criterios claros de cuantificación, asegurando así una armonización mínima.
El Reglamento incorpora expresamente los principios de diligencia debida, estableciendo obligaciones armonizadas claras, eficaces y equilibradas para los prestadores de servicios intermediarios. Estas obligaciones, ajustadas al tipo, tamaño y naturaleza del servicio, incluyen un marco básico para todos los intermediarios y requisitos adicionales para servicios específicos como plataformas en línea y motores de búsqueda de gran tamaño. Diseñadas para ser razonables, estas medidas buscan proteger los derechos de los usuarios, combatir actividades ilícitas y garantizar derechos fundamentales. Además, habrá que tener presente que las obligaciones de diligencia debida son independientes de la responsabilidad legal de los intermediarios.
El Reglamento asigna a los Estados miembros la responsabilidad de supervisar y garantizar el cumplimiento de sus obligaciones. Cada Estado debe designar al menos una autoridad encargada de esta tarea. En el caso de España, la CNMC será responsable de su supervisión, control, investigación y sanción en caso de incumplimientos de las plataformas de videojuegos Online, o de no cumplir los requisitos de exención de responsabilidad previstos en el Reglamento.
X. BIBLIOGRAFÍA
Amis, Lucy. 2011. “Guía para las empresas: Cómo desarrollar una política de Derechos Humanos”. Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, 2011 Disponible en https://pactoglobal.cl/wp-content/uploads/2023/01/Poltica_de_Derechos_Humanos_traducida.pdf.
Andreu Martínez, Belén. 2009. “Diez años de aplicación de la “Children’s online Privacy Protection Act” estadounidense: reflexiones para el derecho español”. Revista española de protección de datos, n.º 7, 79-106.
Barrera, Rita y Bustamante, Jessica. 2018. “The rotten apple: Tax avoidance in Ireland”. The International Trade Journal, vol. 32(1), 150-161. Disponible en https://doi.org/10.1080/08853908.2017.1356250.
Castelló Pastor, Juan José. 2021. “Nuevo régimen de responsabilidad de los servicios digitales que actúan como intermediarios a la luz de la propuesta de Reglamento relativo a un mercado único de servicios digitales”. En Castelló Pastor, Juan José (coord.). Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales. Navarra: Thomson-Civitas.
Comisión Nacional del Mercado y la Competencia. 2024. El Ministerio para la Transformación Digital y de la Función Pública designa a la CNMC como Coordinador de Servicios Digitales de España. Nota de prensa de 24 de enero de 2024. Disponible en https://www.cnmc.es/sites/default/files/editor_contenidos/Notas%20de%20prensa/2024/NdP-CNMC-DSA.pdf.
Comisión Europea. (2024. Ley de Servicios Digitales: Preguntas y respuestas. Disponible en https://digital-strategy.ec.europa.eu/es/faqs/digital-services-act-questions-and-answers.
Cruz Ángeles, Jonatan. 2022. “Las obligaciones jurídico-comunitarias de las grandes plataformas proveedoras de servicios digitales en la era del metaverso”. Cuadernos de derecho transnacional, vol. 14, n.º 2, 294-318. Disponible en https://doi.org/10.20318/cdt.2022.7186.
Deringer, Hanna, Salinier, Camile, Torres-Cortés, Francisca, Smit, Lise, Baeza-Breinbauer, Daniela, Bright, Claire, Bauer, Matthias, Tejero Tobed, Héctor, McCorquodale, Robert, Alleweldt Frank y Kara, Senda. 2020. “Study on due diligence requirements through the supply chain”. Publications Office de la Comisión Europea. Disponible en https://data.europa.eu/doi/10.2838/688.
Donovan, Tristan. 2010. REPLAY: La historia de los videojuegos. Hove: Yellow Ant.
Fernández de Soto Blass, María Luisa. 2023. “La lucha contra el fraude fiscal desde el punto de vista de la inteligencia artificial”. En Pita Grandal, Ana María, Malvárez Pascual, Luis Alberto y Ruiz Hidalgo, Carmen (dir.). La digitalización en los procedimientos tributarios y el intercambio automático de información (pp. 255-277). Pamplona, Editorial Aranzadi.
Fernández de Soto Blass, María Luisa. 2023. “La aplicación de la inteligencia artificial en la agencia tributaria”. En Marcos Cardona, Marta y Selma Penalva, Victoria (dir.). El fraude fiscal en un entorno de digitalización (pp 43-55). Murcia, Ediciones Laborum.
FTC. 2022. Fortnite Video Game Maker Epic Games to Pay More Than Half a Billion Dollars over FTC Allegations of Privacy Violations and Unwanted Charges. Disponible en https://www.ftc.gov/news-events/news/press-releases/2022/12/fortnite-video-game-maker-epic-games-pay-more-half-billion-dollars-over-ftc-allegations.
Galimberti Díaz Faes, Sandra. 2023. “Debida diligencia en derechos humanos: en camino hacia la legalización”. Documento de Trabajo Serie Unión Europea y Relaciones Internacionales, Fundación Universitaria San Pablo CEU, CEU Ediciones, n.º 135, 4-52. Disponible en https://repositorioinstitucional.ceu.es/entities/publication/3da7ad19-5d92-4de1-94a2-84957b15861e.
Gabriele, Salvatore. 2023. “La Unión Europea regula el Internet: Contenidos, transparencia y algoritmos en la nueva DSA”. Gabilex Revista del Gabinete Jurídico de Castilla-La Mancha, n.º 33, 389-478. Disponible en https://gabinetejuridico.castillalamancha.es/sites/default/files/2023-05/numero_33.pdf.
González Gordon, María y Alegre Villarroya, Beatriz. 2022. “Principales novedades de la DSA”. Actualidad jurídica Aranzadi, n.º 991, 131-132.
Jiménez González, Aitor y Cancela, Ekaitz. 2023. “¿Es posible gobernar a las plataformas digitales? Análisis crítico de la Ley Europea de Servicios Digitales”. Teknokultura, Revista de Cultura Digital y Movimientos Sociales, vol. 20, n.º 1, 91-99. Disponible en https://revistas.ucm.es/index.php/TEKN/article/view/.
Jiménez Vargas, Pedro Jesús. 2021. “Los cambios y desafíos que plantea la fiscalidad de la economía digital en el contexto internacional”. Cuadernos de Derecho Transnacional, 13(2), 289-328. Disponible en https://doi.org/10.20318/cdt.2021.6258.
Jiménez Vargas, Pedro Jesús. 2022. “La nueva fiscalidad de la economía digital: primer paso para una verdadera armonización fiscal internacional”. Cuadernos de Derecho Transnacional, 14(1), 334-369. Disponible en https://doi.org/10.20318/cdt.2022.6688.
Kayali, Laura. 2021. “France’s plan to rein in Big Tech (and Ireland and Luxembourg)”. Político, 27-05-2021. Disponible en https://www.politico.eu/article/france-ireland-luxembourg-big-tech-regulation-apple-amazon-facebook-google-digital-services-act-digital-markets/.
Koivurova, Timo y Singh, Krittika. 2022. “Due Diligence”. Oxford Public International Law. Disponible en https://opil.ouplaw.com/display/10.1093/law:epil/9780199231690/law-9780199231690-e1034.
Kulesza, Joanna. 2016. “Due Diligence in International Law”. Series Queen Mary Studies in International Law, Brill Nijhoff, vol. 26.
Mate Satué, Loreto Carmen. 2023. “La responsabilidad de las plataformas de intermediación contractual en línea: de la Directiva de Comercio Electrónico al Reglamento de Servicios Digitales”. En Hernández Sáinz, Esther, Mate Satué, Loreto Carmen y Alonso Pérez, María Teresa (coords.). La responsabilidad civil por servicios de intermediación prestados por plataformas digitales (pp. 111-137). Madrid: Colex.
Márquez Carraso, Carmen. 2022. “Instrumentos sobre la debida diligencia en materia de Derechos Humanos: Orígenes, evolución y perspectivas de futuro”. Cuadernos de Derecho Transnacional, vol. 14, Octubre 2022, n.º 2, 605-642.
Monjas González, Sonia. 2022. “Relevancia del reglamento de ley de servicios digitales para las autoridades reguladoras del audiovisual”. Información Comercial Española, ICE, Revista de economía, n.º 925, 53-65. Disponible en https://doi.org/10.32796/ice.2022.925.7368.
Organización para la Cooperación y Desarrollo Económico. 2023. Líneas Directrices de la OCDE para Empresas Multinacionales sobre Conducta Empresarial Responsable. OECD Publishing. Disponible en https://doi.org/10.1787/7abea681-es.
Organización Internacional del Trabajo. 2023. Declaración tripartita de principios sobre las empresas multinacionales y la política social (Declaración sobre las Empresas Multinacionales). Disponible en https://www.ilo.org/empent/Publications/WCMS_124924/lang--es/index.htm.
Ollino, Alice. 2022. Due Diligence Obligations in International Law. Cambridge: Cambridge University Press.
Osinaga Lozano, Itziar, Cots, Elisabet y Molina, David. 2024. “Cambios en la era digital: ¿me aplica el nuevo Reglamento Europeo de Servicios Digitales (DSA)?”. Actualidad jurídica Aranzadi, n.º 1004, 16.
Pacto Mundial de la ONU. 2012. La responsabilidad de las empresas de respetar los derechos humanos. Guía para la interpretación. Oficina del Alto Comisionado de Derechos Humanos. Disponible en https://www.pactomundial.org/biblioteca/la-responsabilidad-de-las-empresas-de-respetar-los-derechos-humanos-guia-para-la-interpretacion/.
Pérez Galindo, Rafael. 2022. “La nueva regulación europea de intermediarios digitales: Digital services act”. Información Comercial Española, ICE, Revista de economía, n.º 925, 41-51.
Plataforma por Empresas Responsables. 2021. ¿Qué es la debida diligencia? Disponible en https://empresasresponsables.org/que-es-la-debida-diligencia/.
Ramos, Andy y Bardaji, Silvia. 2022. “Regulación del sector y retos legales”. La industria del videojuego en España en 2022, AEVI, 91-93. Disponible en https://www.aevi.org.es/web/wp-content/uploads/2023/05/AEVI_Anuario-2022-DIGITAL.pdf.
Rodríguez de las Heras Ballell, Teresa. 2023. “La fórmula de la DSA para resolver el dilema de la responsabilidad de las plataformas: un equilibrio entre continuidad e innovación”. En Hernández Sáinz, Esther, Mate Satué, Loreto Carmen y Alonso Pérez, María Teresa (coord.). La responsabilidad civil por servicios de intermediación prestados por plataformas digitales (pp. 25-50). Madrid: Colex.
Rodríguez García, Nora. 2023. “La cláusula del buen samaritano y el régimen de puertos seguros: a vueltas con la LSSI y la DSA”. Actualidad jurídica iberoamericana, n.º 18, 714-735. Disponible en https://revista-aji.com/articulos/2023/18/AJI18_27.pdf.
Ruggie, John. 2011. “Principios Rectores sobre las empresas y los derechos humanos: puesta en práctica del marco de las Naciones Unidas para proteger, respetar y remediar”. Consejo de Derechos Humanos de las Naciones Unidas. Disponible en https://daccess-ods.un.org/access.nsf/Get?OpenAgent&DS=A/HRC/17/31&Lang=S.
Sanmartín, Francisco Javier, Velasco, Judith, Cuadrado, Fátima, Gálvez Lara, Mario, de Larriva Casares, Mª Victoria, Moriana, Elvira, Juan Antonio. 2023. “El consumo de loot boxes como una nueva forma de azar en los videojuegos”. Revista de socidrogalcohol, vol. 35, n.º. 4, 407-420.
Santisteban Galarza, Mario. 2022. “Garantías frente a la moderación de contenidos en la Propuesta de Reglamento Único de Servicios Digitales”. Revista CESCO de Derecho de Consumo, n.º 41, 159-179. Disponible en https://doi.org/10.18239/RCDC_2022.41.3103.
SIMONS & SIMONS. 2023. New loot box gambling regulations 2023. Disponible en https://www.simmons-simmons.com/en/publications/clgm1i0ko0020upv4ipezwfz4/status-of-loot-box-regulations-in-europe-q1-2023
Serrano Gómez, Eduardo. 2019. “Los prestadores de servicios para compartir en línea contenidos cargados por los usuarios”. En Serrano Gómez Eduardo (dir.). Medios de comunicación, contenidos digitales y derecho de autor (pp. 47-80). Madrid: Universidad Complutense de Madrid.
UNICEF. 2017. Estado mundial de la infancia 2017: Niños en un mundo digital. Disponible en https://www.unicef.org/media/48611/file.
Video Games Europe. 2023. All About Video Games – European Key Facts. Disponible en https://www.videogameseurope.eu/publication/2023-video-games-european-key-facts/.
Walsh, Alexandra, Gibbons Feden, Kristen y Huyett, Patrick. 2025. “Anapol Weiss and Girard Sharp File Complaint Against Roblox and Discord by a Minor Sexually Exploited on Their Platforms”. Anapol Weiss. Disponible en https://www.anapolweiss.com/blog/anapol-weiss-and-girard-sharp-file-complaint-against-roblox-and-discord-by-a-minor-sexually-exploited-on-their-platforms/
[1] El estudio forma parte del proyecto CISEMEVI, ref. SUBV24/00025, financiado por el Ministerio de Derechos Sociales, Consumo y Agenda 2030, Dirección General de Ordenación del Juego, en la Convocatoria 2024 de Investigación relacionada con la prevención de los trastornos del juego o los riesgos asociados a esta actividad.
[2] Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (DO L 277, de 27 de octubre de 2022).
[3] Vid. Junta de Clasificación de Software de Entretenimiento en https://www.esrb.org/.
[4] Ver a este respecto la iniciativa española a través de la Carta de Derechos Digitales, en Fernández de Soto Blass, 2023: 274-275.
[5] Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (DO L 178, de 17 de julio de 2000).
[6] Vid. EPIC GAMES, “Condiciones de Servicio”, disponible en https://www.epicgames.com/site/es-ES/tos (consultado el 23 de enero de 2025).
[7] Vid. ROBLOX, “Términos de uso de Roblox”, disponible en https://en.help.roblox.com/hc/es/articles/115004647846-T%C3%A9rminos-de-uso-de-Roblox (consultado el 23 de enero de 2025).
[8] Véanse al respecto las siguientes noticias aparecidas en prensa: “Detenido un pederasta acusado de abusos a 26 menores a los que captó a través del 'Fortnite'”, La Vanguardia, 19/05/2022, disponible en https://www.lavanguardia.com/sucesos/20220519/8277492/detenido-pederasta-acusado-abusar-26-menores-capto-fortnite-videojuegos.html (consultado el 23 de enero de 2025).; "El hombre que acosó a 5 niños por el Fortnite se enfrenta a 11 años de cárcel", El Mundo, 22/10/2023, disponible en https://castellonaldia.elmundo.es/sucesos/hombre-acoso-5-ninos-fortnite-enfrenta-11-anos-carcel-GF17302400 (consultado el 23 de enero de 2025).; "Detenido en Málaga un depredador sexual por abusar de 26 menores con los que contactó por Fortnite o Call of Duty", La Voz de Galicia, 19/05/2022, disponible en https://www.lavozdegalicia.es/noticia/espana/2022/05/19/detenido-malaga-depredador-sexual-abusar-26-menores-contacto-plataformas-videojuegos/00031652944318926493223.htm (consultado el 23 de enero de 2025).
[9] En este sentido ver Fernández de Soto Blass, 2023: 46-47.
[10] Vid. Active Player. “Fortnite”. Disponible en: https://activeplayer.io/fortnite/ (consultado el 23 de enero de 2025).
[11] Vid. Active Player. “Roblox”. Disponible en: https://activeplayer.io/roblox/ (consultado el 23 de enero de 2025).
[12] Vid. Simons & Simons. “New loot box gambling regulations 2023”. Disponible en https://www.simmons-simmons.com/en/publications/clgm1i0ko0020upv4ipezwfz4/status-of-loot-box-regulations-in-europe-q1-2023 (consultado el 25 de abril de 2025).
[13] Anteproyecto de Ley por el que se regulan los mecanismos aleatorios de recompensa asociados a productos de software interactivo de ocio. Disponible en https://www.dsca.gob.es/sites/consumo.gob.es/files/BORRADOR%20APL%20Y%20MAIN%20MECANISMOS%20ALEATORIOS%20RECOMPENSA%20010722.pdf (consultado el 25 de abril de 2025).
[14] Proyecto de Ley Orgánica 121/000052 para la protección de las personas menores de edad en los entornos digitales. Disponible en https://www.congreso.es/public_oficiales/L15/CONG/BOCG/A/BOCG-15-A-52-1.PDF (consultado el 25 de abril de 2025).
[15] Vid. Carta de la BEUC a la Comisión Europea en https://www.azarplus.com/wp-content/uploads/2024/09/BEUC-X-2024-069_Letter_to_CPC_network_and_DG_JUST.pdf (consultado el 25 de abril de 2025).
[16] Vid. LOI n° 2017-399 du 27 mars 2017 relative au devoir de vigilance des sociétés mères et des entreprises donneuses d’ordre (1). Disponible en https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000034290626/.
[17] Vid. Act on Corporate Due Diligence Obligations in Supply Chains of July 2021. Disponible en: https://www.bmas. de/EN/Services/Press/recent-publications/2021/act-on-corporate-due-diligence-in-supply-chains.html.
[18] Real Decreto-ley 9/2024, de 23 de diciembre, por el que se adoptan medidas urgentes en materia económica, tributaria, de transporte, y de Seguridad Social, y se prorrogan determinadas medidas para hacer frente a situaciones de vulnerabilidad social (BOE 309, de 24 de diciembre de 2024).
[19] Vid. Consejo Europeo de Servicios Digitales, disponible en https://digital-strategy.ec.europa.eu/es/policies/dsa-board (consultado el 23 de enero de 2025).
[20] Vid. Sede Electrónica CNMC, disponible en https://sede.cnmc.gob.es/ (consultado el 23 de enero de 2025).
[21] Children's Online Privacy Protection Act of 1998, 15 U.S.C. 6501-6505, disponible en https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection-rule-coppa (consultado el 25 de abril de 2025).
[22] FTC. “Fortnite Video Game Maker Epic Games to Pay More Than Half a Billion Dollars over FTC Allegations of Privacy Violations and Unwanted Charges”. Disponible en https://www.ftc.gov/news-events/news/press-releases/2022/12/fortnite-video-game-maker-epic-games-pay-more-half-billion-dollars-over-ftc-allegations (consultado el 25 de abril de 2025).
[23] Vid. Federal Trade Commission Act en https://www.ftc.gov/legal-library/browse/statutes/federal-trade-commission-act (consultado el 25 de abril de 2025).
[24] A este respecto la FTC realizó una audiencia en 2019 titulada “Inside the Game: Unlocking the Consumer Issues Surrounding Loot Boxes”. Disponible en https://mnapg.org/wp-content/uploads/2021/02/ftc_loot_boxes_workshop_transcript_session-2-3.pdf (consultado el 25 de abril de 2025).
[25] Vid. 47 U.S.C. 230 – Protection for private blocking and screening of offensive material. Disponible en https://www.govinfo.gov/app/details/USCODE-2011-title47/USCODE-2011-title47-chap5-subchapII-partI-sec230/summary (consultado el 25 de abril de 2025).
[26] Vid. "Anapol Weiss and Girard Sharp File Complaint Against Roblox and Discord by a Minor Sexually Exploited on Their Platforms". Disponible en https://www.anapolweiss.com/blog/anapol-weiss-and-girard-sharp-file-complaint-against-roblox-and-discord-by-a-minor-sexually-exploited-on-their-platforms/ (consultado el 25 de abril de 2025).
[27] Vid. Entertainment Software Rating Board en https://www.esrb.org/
[28] Cybersecurity Information Sharing Act (CISA) en https://www.cisa.gov/sites/default/files/publications/Cybersecurity%2520Information%2520Sharing%2520Act%2520of%25202015.pdf.
[29] Conforme a la Americans with Disabilities Act of 1990, si un juego ofrece servicios públicos o sociales (como chat, compras, plataformas multijugador, etc.), podría estar obligado a ser accesible. Disponible en https://www.ada.gov/law-and-regs/ada/ (consultado el 25 de abril de 2025).
[30] Digital Millennium Copyright Act en https://www.govinfo.gov/content/pkg/PLAW-105publ304/pdf/PLAW-105publ304.pdf.
Copyright
Estudios de Deusto es una revista de acceso abierto, lo que significa que es de libre acceso en su integridad. Se permite su lectura, la búsqueda, descarga, distribución y reutilización legal en cualquier tipo de soporte sólo para fines no comerciales, sin la previa autorización del editor o el autor, siempre que la obra original sea debidamente citada y cualquier cambio en el original esté claramente indicado.
Estudios de Deusto is an Open Access journal which means that it is free for full access, reading, search, download, distribution, and lawful reuse in any medium only for non-commercial purposes, without prior permission from the Publisher or the author; provided the original work is properly cited and any changes to the original are clearly indicated.