Acusan al videojuego y a la plataforma de mensajería de negligencia en el caso de un menor que se quitó la vida tras sufrir abusos en línea por parte de un depredador sexual adulto.
Unos padres estadounidenses presentaron una demanda contra Roblox y Discord tras el suicidio de su hijo de 15 años, ocurrido en abril de 2024. El adolescente, identificado como Ethan, mantenía desde 2015 una cuenta en Roblox, donde entabló relación con un usuario que decía tener su misma edad. Sin embargo, el supuesto menor era en realidad un adulto de 37 años con antecedentes penales, lo que desencadenó una serie de abusos que, según la familia, fueron determinantes en la tragedia.
➡️ Te puede interesar: Curso de Prevención del Acoso y Ciberacoso
El hombre, llamado Timothy y arrestado en 2021 por posesión de pornografía infantil, convenció a Ethan de desactivar los controles parentales y comenzó a hablar con él sobre temas sexuales. Posteriormente, las conversaciones pasaron a Discord, donde le exigió fotografías explícitas. Esta situación derivó en episodios de ira y llevó a sus padres a ingresarlo durante un año en un centro de tratamiento especializado. No obstante, en diciembre de 2023, el joven confesó lo sucedido a su madre, que contactó de inmediato con el Centro Nacional para Niños Desaparecidos y Explotados.
Muerte por negligencia
La demanda, presentada ante el Tribunal Superior del Condado de San Francisco, acusa a Roblox de muerte por negligencia debido al diseño de la plataforma y a la falta de medidas de protección frente a depredadores sexuales. La acción legal también se dirige contra Discord, a la que la familia responsabiliza de no frenar las interacciones ilícitas en su servicio de mensajería. La madre sostiene que ambas compañías fallaron en garantizar un espacio seguro para usuarios menores de edad.
➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa
En respuesta, Roblox señaló a The New York Times que están «profundamente entristecidos por esta pérdida trágica e inimaginable», y destacó las nuevas medidas anunciadas en 2024, como la verificación de edad en sus sistemas de comunicación. En paralelo, Discord afirmó que está «profundamente comprometido con la seguridad» de sus usuarios y que emplea «tecnología avanzada y equipos de seguridad capacitados para encontrar y eliminar de manera proactiva» el contenido problemático en su plataforma.
➡️ Si quieres adquirir conocimientos sobre Ciberseguridad, te recomendamos los siguientes cursos formativos: