Roblox y la protección infantil: Cuando las plataformas digitales quedan fuera del radar regulatorio :: Bitdefender blog

Roblox y la protección infantil: Cuando las plataformas digitales quedan fuera del radar regulatorio

Filtraciones de Información - Oct 23, 2025


Imagina a un niño de once años que pasa horas cada día construyendo mundos virtuales en Roblox, interactuando con millones de usuarios desconocidos, compartiendo información personal sin que ninguna autoridad europea esté verificando si la plataforma cumple con las normas básicas de protección infantil. Esta no es una hipótesis alarmista: es la realidad actual que acaba de confirmar la Comisión Europea.

El 9 de octubre de 2025, la vicepresidenta ejecutiva Virkkunen emitió una respuesta oficial que revela una brecha preocupante en el sistema de protección digital europeo. Roblox, una plataforma con presencia masiva entre menores, opera actualmente en un limbo regulatorio que la coloca fuera del alcance del Reglamento de Servicios Digitales (DSA, por sus siglas en inglés), la legislación más avanzada de Europa para garantizar un espacio digital seguro.

El Reglamento de Servicios Digitales entró en vigor con un propósito revolucionario: crear un entorno digital más seguro donde los niños y adolescentes estuvieran protegidos de contenidos nocivos, explotación y prácticas abusivas. Esta normativa establece responsabilidades claras para las plataformas en línea, obligándolas a implementar medidas robustas de verificación de edad, moderación de contenidos y protección de datos de menores.

Sin embargo, existe una distinción crucial en su aplicación. El DSA establece dos categorías de plataformas: aquellas designadas como "de muy gran tamaño" (con más de 45 millones de usuarios activos mensuales en la UE) quedan sujetas a supervisión directa de la Comisión Europea bajo los artículos 34 y 35, con obligaciones reforzadas y auditorías constantes. Las plataformas por debajo de este umbral son supervisadas por las autoridades nacionales de cada Estado miembro.

Actualmente, la Comisión supervisa de cerca a gigantes como TikTok, Instagram, Facebook y cuatro plataformas pornográficas. Roblox no figura en esta lista, pero no porque sea menos relevante para la protección infantil, sino por una cuestión puramente numérica.

Aquí es donde la situación se vuelve paradójica. Roblox no alcanza el umbral de 45 millones de usuarios activos mensuales en la Unión Europea, pero esto no significa que su impacto sea menor. A nivel mundial, Roblox cuenta con más de 70 millones de usuarios activos diarios, y una proporción significativa son menores de edad. La plataforma se ha convertido en uno de los espacios de socialización digital más importantes para niños y adolescentes.

¿Qué significa esto en términos prácticos? Que mientras la Comisión Europea investiga minuciosamente a TikTok e Instagram por posibles violaciones a la protección de menores, Roblox opera bajo un régimen de supervisión descentralizado. La responsabilidad de garantizar que Roblox cumpla con el DSA recae exclusivamente en la Autoridad de Consumidores y Mercado de los Países Bajos (ACM), el coordinador neerlandés de servicios digitales, ya que es el país donde Roblox tiene su establecimiento principal en Europa.

Esta situación plantea interrogantes fundamentales sobre la coherencia del sistema europeo de protección digital. ¿Tiene sentido que una plataforma donde millones de menores pasan horas cada día, creando contenido, interactuando con desconocidos y, en algunos casos, realizando transacciones económicas, reciba menos escrutinio regulatorio que otras plataformas simplemente por no alcanzar un umbral arbitrario de usuarios?

La respuesta de la vicepresidenta Virkkunen es técnicamente correcta pero estratégicamente insuficiente. Confirma que, según el artículo 56 del DSA, las autoridades competentes del Estado miembro donde está establecido el prestador de servicios tienen competencias exclusivas para supervisar el cumplimiento. En el caso de Roblox, esto significa que la ACM holandesa es la única autoridad europea responsable.

El problema no es la competencia de la ACM, que es una autoridad seria y capacitada. El problema es la fragmentación. Cuando se trata de plataformas que operan globalmente y afectan a menores de todos los Estados miembros, la supervisión descentralizada puede generar inconsistencias, retrasos y vacíos de aplicación efectiva. Un padre en España, Italia o Polonia tiene el mismo derecho a que sus hijos estén protegidos en Roblox que un padre en los Países Bajos, pero el sistema actual no garantiza la misma intensidad de supervisión.

Consideremos situaciones concretas que ilustran por qué esto importa. En los últimos años, han surgido múltiples denuncias sobre Roblox relacionadas con:

  • Menores expuestos a contenidos inapropiados creados por otros usuarios, incluyendo representaciones sexuales y violentas
  • Casos documentados de adultos que utilizan la plataforma para contactar y "preparar" (grooming) a menores
  • Transacciones económicas dentro del juego (Robux) que pueden generar presión sobre niños para gastar dinero real
  • Sistemas de moderación automatizada que no siempre detectan contenidos problemáticos
  • Dificultades para que padres y tutores ejercan control efectivo sobre la actividad de sus hijos

Estos no son problemas hipotéticos. Cada uno representa situaciones reales que afectan a familias reales. Y cada uno requiere una supervisión regulatoria seria, consistente y dotada de recursos suficientes.

La respuesta de la Comisión también aclara algo importante sobre sus propios poderes. El artículo 82 del DSA no faculta a la Comisión para suspender servicios directamente. Lo que puede hacer es solicitar a los coordinadores nacionales de servicios digitales que actúen conforme al artículo 51, apartado 3, del Reglamento, que permite restringir temporalmente el acceso a servicios en casos graves.

Este procedimiento sigue "procedimientos estrictos" y la facultad de restringir servicios recae "siempre en una autoridad judicial nacional competente". Es decir, incluso en situaciones de emergencia, la Comisión no puede actuar unilateralmente; debe pasar por las autoridades nacionales y, finalmente, por los tribunales.

Esta estructura tiene sentido desde el punto de vista del Estado de derecho y la separación de poderes, pero también significa que la respuesta a violaciones graves puede ser lenta y compleja, especialmente cuando involucra coordinación transfronteriza.

La vicepresidenta Virkkunen señala que la investigación sobre protección de menores en plataformas digitales "sigue en curso". La Comisión mantiene investigaciones abiertas sobre TikTok, Instagram, Facebook y cuatro plataformas pornográficas. Esta supervisión activa de las plataformas designadas como de muy gran tamaño es fundamental y debe continuarse con rigor.

Sin embargo, la ausencia de Roblox en esta lista de investigaciones prioritarias refleja una limitación estructural del marco regulatorio actual. El DSA fue diseñado asumiendo que el tamaño (medido en usuarios activos mensuales en la UE) es un indicador suficiente del impacto y el riesgo. La realidad está demostrando que esto no siempre es cierto, especialmente cuando hablamos de plataformas que, aunque no alcancen el umbral numérico, tienen una concentración extremadamente alta de usuarios menores.

La situación de Roblox expone una necesidad urgente de evolución regulatoria. No se trata de que el DSA sea inadecuado; es, de hecho, uno de los marcos legales más avanzados del mundo en materia de regulación digital. Pero como cualquier legislación pionera, debe aprender de la implementación práctica.

Propuestas concretas:

1. Criterios diferenciados para plataformas con alta concentración de menores: El umbral de 45 millones de usuarios tiene sentido para plataformas generalistas, pero debería complementarse con criterios adicionales cuando se trata de servicios donde los menores representan una proporción significativa de usuarios. Una plataforma con 30 millones de usuarios, de los cuales el 80% son menores, representa un riesgo mayor para la protección infantil que una plataforma con 50 millones de usuarios mayoritariamente adultos.

2. Mecanismos de supervisión conjunta: Cuando una plataforma opera en múltiples Estados miembros y presenta riesgos específicos para menores, debería establecerse un mecanismo de supervisión conjunta entre la autoridad nacional competente y la Comisión, incluso si la plataforma no alcanza el umbral de muy gran tamaño. Esto no significa duplicar competencias, sino crear canales de coordinación, intercambio de información y apoyo técnico.

3. Evaluaciones de impacto obligatorias para plataformas dirigidas a menores: Independientemente del número de usuarios, cualquier plataforma cuyo público objetivo incluya a menores (o donde los menores representen más del 25% de usuarios activos) debería estar obligada a realizar y publicar evaluaciones de impacto sobre protección infantil, moderación de contenidos y seguridad de datos.

4. Recursos reforzados para autoridades nacionales: Si el modelo de supervisión descentralizada va a mantenerse para plataformas por debajo del umbral, es esencial que las autoridades nacionales reciban recursos técnicos, financieros y humanos suficientes para realizar supervisión efectiva. La ACM holandesa no debería enfrentar sola la tarea de supervisar una plataforma con el alcance global de Roblox.

5. Mecanismos de respuesta rápida transfronteriza: Cuando se identifiquen violaciones graves en una plataforma que opera en múltiples Estados miembros, debe existir un protocolo claro de respuesta rápida que permita coordinación inmediata entre autoridades nacionales, sin necesidad de procesos burocráticos prolongados.

Es importante señalar que la cuestión no es solo regulatoria. Roblox Corporation tiene una responsabilidad ética y legal de implementar las mejores prácticas de protección infantil, independientemente del nivel de supervisión externa que enfrente. Esto incluye:

  • Sistemas robustos de verificación de edad
  • Moderación proactiva y efectiva de contenidos
  • Controles parentales claros y fáciles de usar
  • Transparencia sobre cómo se recopilan, usan y protegen los datos de menores
  • Educación activa a usuarios jóvenes sobre seguridad digital
  • Cooperación plena con autoridades cuando se reporten casos de abuso

El hecho de no estar designada como plataforma de muy gran tamaño no exime a Roblox de cumplir con todas las obligaciones del DSA aplicables a su categoría, ni de ir más allá cuando la protección de millones de menores está en juego.

La respuesta de la vicepresidenta Virkkunen nos recuerda una verdad incómoda: nuestro marco regulatorio, por avanzado que sea, contiene espacios grises donde plataformas con impacto masivo sobre menores pueden operar con menos escrutinio del que merecen por la simple razón de no alcanzar un umbral numérico arbitrario.

Esto no es aceptable. Cada niño que usa Roblox, TikTok, Instagram o cualquier otra plataforma digital tiene el mismo derecho a estar protegido. Cada padre tiene el mismo derecho a confiar en que existen salvaguardas efectivas. Cada Estado miembro tiene el mismo interés en garantizar que las plataformas digitales operan con responsabilidad.

La batalla por un espacio digital seguro para la infancia no puede librarse con criterios puramente cuantitativos. Necesitamos supervisión cualitativa que evalúe el impacto real, el perfil de usuarios, los riesgos específicos y la efectividad de las medidas de protección implementadas.

La Comisión Europea, el Parlamento Europeo y los Estados miembros deben revisar urgentemente los criterios de designación y supervisión del DSA a la luz de casos como Roblox. No se trata de crear más burocracia, sino de asegurar que la regulación más avanzada del mundo en materia digital cumpla efectivamente su propósito: proteger a quienes más lo necesitan.

Mientras tanto, las autoridades nacionales como la ACM holandesa deben recibir todo el apoyo necesario para ejercer una supervisión rigurosa. Y Roblox debe entender que la confianza de millones de familias europeas requiere no el cumplimiento mínimo de obligaciones legales, sino un compromiso proactivo con la seguridad y el bienestar de sus usuarios más jóvenes.

El espacio digital es el patio de recreo del siglo XXI. No podemos permitir que se convierta en un lugar donde los niños estén menos protegidos que en cualquier parque público. La tecnología avanza rápido, pero nuestra capacidad de proteger a las futuras generaciones debe avanzar más rápido aún.

 

Fuente: Bitdefender Central