Inicio Actualidad La IA dispara la producción de material de abuso sexual infantil

La IA dispara la producción de material de abuso sexual infantil

0

Un informe de la IWF revela que el número de vídeos de abuso sexual infantil creados con IA se multiplicó por 260 en 2025.

El contenido de abuso sexual infantil generado por inteligencia artificial aumentó un 14% en 2025, con un total de 8.029 imágenes y vídeos identificados, según el último informe de la Internet Watch Foundation (IWF), organización con sede en Reino Unido. El documento, titulado Daños sin límites: material de abuso sexual infantil generado por IA desde la perspectiva de nuestros analistas, señala que desde que la entidad comenzó a monitorizar la IA a principios de 2023 ha observado un «avance alarmante» en la capacidad de generar artificialmente este tipo de contenido delictivo.

➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa

El material fue hallado tanto en la dark web como en plataformas comerciales convencionales de la web abierta. De los 3.443 vídeos identificados, el 65% recibió la clasificación A, la categoría más extrema empleada por la IWF, que engloba delitos como la violación y la tortura sexual según la legislación británica. En comparación, solo el 43% de los vídeos delictivos no generados por IA alcanzaron esa misma clasificación en 2025, lo que evidencia que los delincuentes utilizan la IA para producir contenido más violento que el real.

El número de vídeos se multiplica por 260

Aún más llamativo resulta el incremento en vídeos, donde el número total ha crecido más de 260 veces respecto a los apenas 13 vídeos detectados en 2024. Además, la IWF advierte de que este realismo puede lograrse mediante «la adición de audio al vídeo, la capacidad de representar a varias personas interactuando o incluso la manipulación exitosa de imágenes de un menor real conocido por el agresor». Los analistas también han recogido declaraciones de delincuentes en la dark web que hablan de desarrollar una «IA automatizada» capaz de crear películas de abuso «introduciendo una consigna a un agente de IA sin censura» en uno o dos años.

➡️ Te puede interesar: Curso de Prevención del Acoso y Ciberacoso

Un caso reciente ilustra la magnitud del problema. El generador de imágenes de Grok en la red social X compartió cerca de tres millones de imágenes sexualizadas, de las cuales 23.000 representaban a menores, en respuesta a solicitudes directas de usuarios. En comunidades de la dark web, según recoge el informe, «cada nuevo avance en IA generativa se elogia por su capacidad para mejorar el realismo, aumentar la gravedad o hacer más inmersivo cualquier escenario sexual imaginable con un menor».

Tolerancia cero y protección desde el diseño

Ante esta situación, la directora ejecutiva de la IWF, Kerry Smith, ha advertido que los avances tecnológicos «nunca deberían ir en detrimento de la seguridad y el bienestar de un niño». Asimismo, ha apostillado que, si bien la IA ofrece muchos beneficios, «es espantoso pensar que su poder pueda usarse para arruinar la vida de un niño». Smith ha reclamado que gobiernos y empresas tecnológicas adopten tolerancia cero e integren la protección infantil desde el diseño de los productos, de modo que los propios chatbots impidan la generación de estas imágenes.

➡️ Te puede interesar: Curso de Concienciación en Ciberseguridad

Por último, el informe llega después de que el Parlamento Europeo haya aprobado una prórroga temporal de la Directiva sobre privacidad electrónica hasta el 3 de agosto de 2027, prorrogando la exención que permite la detección voluntaria de material de abuso infantil online. Esta derogación parcial autoriza a proveedores de servicios de comunicaciones (como aplicaciones de mensajería) a utilizar tecnologías específicas para detectar abusos sexuales a menores en Internet.

SÉ EL PRIMERO EN COMENTAR

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

Salir de la versión móvil