Redes criminales del sudeste asiático captan a jóvenes para suplantar identidades en videollamadas mediante inteligencia artificial.
Redes criminales del sudeste asiático están captando personas para hacer pasar por perfiles falsos en videollamadas, utilizando inteligencia artificial para suplantar identidades y engañar a víctimas en plataformas como Facebook e Instagram. Una investigación de Wired ha revelado la existencia de canales y grupos de Telegram que ofrecen estos puestos de trabajo desde países como Camboya, Birmania y Dubái, sin detallar en muchos casos el verdadero propósito del empleo.
➡️ Te puede interesar: Máster Profesional en Ciberseguridad, Ciberinteligencia y Ciberdefensa
El investigador de ciberdelincuencia de la ONG vietnamita ChongLuaDao, Hieu Minh Ngo, ha advertido sobre el alcance de esta práctica. «Proporcionan el software para que puedan cambiar sus caras mediante IA y realizar estafas románticas», ha explicado. Así, los atacantes establecen vínculos emocionales con sus objetivos para extraerles dinero, y cuando la víctima solicita una videollamada para verificar que la persona existe, el estafador recurre a deepfakes —manipulación realista de imagen, vídeo y audio con IA— para superar esa barrera.
Jornadas de doce horas y retención de pasaportes
Las condiciones laborales de estos «modelos de IA», en su mayoría mujeres jóvenes, pueden ser gravemente abusivas. Las jornadas alcanzan las doce horas diarias y entre cien y 150 videollamadas. Además, algunos anuncios advierten de que el pasaporte será retenido para la «gestión de visados y permisos de trabajo», lo que puede derivar en el secuestro de documentación para impedir que los trabajadores abandonen su puesto.
➡️ Te puede interesar: Curso de Concienciación en Ciberseguridad
La organización contra la trata de personas Humanity Research Consultancy ha alertado sobre personas procedentes de Europa del Este, América Latina, norte de África y Asia central que también se promocionan en Telegram para este tipo de roles. Muchas tienen experiencia previa en sectores como la «gestión del mercado estadounidense, incluyendo criptomonedas o el comercio de oro», lo que las convierte en perfiles ya familiarizados con mercados vulnerables al fraude.
Telegram no elimina los canales pese a la denuncia
A pesar de que Wired envió a Telegram una lista con 24 canales que ofertaban este tipo de empleo, la plataforma no los ha eliminado. Un portavoz de la compañía reconoció que el contenido que facilita estafas está «explícitamente prohibido», pero matizó que «existen razones legítimas por las que alguien podría ceder su imagen, por lo que dicho contenido debe examinarse caso por caso».
➡️ Te puede interesar: Curso de Prevención y Gestión de Ciberriesgos y Ciberataques
La cofundadora de la ONG EOS, Ling Li, advierte de que estos trabajadores pueden sufrir maltrato y acoso sexual pese a no ser víctimas de trata en sentido estricto. «Una víctima europea nos contó que vio a algunas modelos italianas en su edificio, pero no puede saber si estaban allí voluntariamente o no porque las golpearon delante de él», ha detallado. Ngo, por su parte, señala que ante cualquier oferta sospechosa hay que preguntarse por qué se necesita la IA y prestar atención a la procedencia del anuncio y a requisitos como el conocimiento del chino.




