Detectar la radicalización online es un reto urgente en la era digital. El lenguaje y las emociones revelan señales que la inteligencia artificial puede identificar a tiempo. En este artículo, la alumna del Máster Profesional de Ciberseguridad, Ciberinteligencia y Ciberdefensa de LISA Institute, Irene García analiza cómo la tecnología permite prevenir sin controlar, comprendiendo y acompañando con ética y humanidad.
Cada vez que leemos una noticia sobre un ataque motivado por el odio, es difícil no preguntarse: ¿podríamos haberlo visto venir? No se trata de criminalizar ideas ni opiniones, pero sí de entender los procesos que llevan a una persona a adoptar posturas radicales, especialmente cuando eso ocurre en internet, un espacio que ya forma parte de nuestra vida cotidiana.
En este trabajo intento abordar un enfoque preventivo para detectar señales de radicalización en línea. La clave esta en algo tan cotidiano como el lenguaje que usamos y las emociones que expresamos. Porque al final, cuando alguien cambia su forma de hablar, muchas veces está cambiando también por dentro.
Me ha interesado particularmente como la Inteligencia Artificial puede ayudarnos a detectar esos cambios a tiempo. No para señalar culpables, sino para entender cuando y como se está produciendo una transformación peligrosa. El objetivo no es vigilar, sino ofrecer herramientas que puedan actuar con prudencia y respeto.
➡️ Te puede interesar: Grok 3, DeepSeek y Chat GPT: ¿Qué nos dice sobre las tendencias del mercado de la inteligencia artificial y cómo transforma el sector?
Dicho análisis no parte de ideologías ni busca culpables. Parte de datos, de análisis y también de una preocupación legitima: que estamos llegando tarde a demasiadas señales que sí estaban ahí.
Radicalización online
Vivimos conectados casi todo el tiempo. Y aunque esa conexión nos abre puertas, también nos expone a dinámicas que refuerzan nuestras creencias hasta deformarlas. Lo que empezó siendo una simple búsqueda en YouTube o un comentario en Twitter puede acabar, sin darnos cuenta, atrapándonos en una comunidad donde la radicalización se normaliza.
Autores como Peter Neumann han hablado del fenómeno de las «cámaras de eco», donde uno termina leyendo, escuchando y compartiendo solo aquello que confirma su punto de vista. La cuestión es que en estos espacios no hay debate, sino solo reafirmación. Y ahí es donde empieza a gestarse una identidad nueva, muchas construida en oposición a un «otro» que se convierte en enemigo.
Aquí en España, estudios del Real Instituto Elcano han mostrado como esa radicalización online afecta sobre todo a jóvenes. No hablo solo de yihadismo, sino también de extremismos políticos o teorías conspirativas (entre otros). Las plataformas digitales no son responsables, pero sin duda han acelerado el proceso.
El reto esta en detectar esos primeros pasos. Porque cuando hay violencia, llegamos tarde. Es por ello que planteo una mirada anticipatoria, atenta a cambios graduales en el discurso.
Psicología del proceso y análisis emocional con IA
Creo que todos podemos entender que la radicalización no es solo un tema de ideas, sino también de emociones. Gente que se siente humillada, que ha perdido el rumbo o que carga rabia contenida desde hace años. El lenguaje emocional en redes esta lleno de pistas. El problema es que las pasamos por alto hasta que es demasiado evidente.
➡️ Te puede interesar: La lingüística forense: cómo tu lenguaje te define y delata
Gracias al desarrollo de modelos de lA como BERT o RoBERTa, hoy podemos detectar emociones en texto con bastante precisión. Ya no se trata solo de saber si es un mensaje «negativo» o «positivo», sino de entender si transmite desesperanza, ira moral o deseo de venganza.
Desde LISA Institute, la psicóloga Natalia Moreno ha trabajado justamente en esto: identificar patrones de lenguaje emocional vinculados a estados traumáticos, particularmente en jóvenes. Su enfoque me pareció útil porque une el componente psicológico con el tecnológico. La idea no es juzgar a nadie por lo que siente, sino, comprender como ciertas emociones, sostenidas en el tiempo, pueden predisponer a alguien a aceptar discursos de odio.
Y si logramos ver esa evolución emocional antes de que se consolide una ideología violenta, quizás podamos hacer algo.
El lenguaje como reflejo de estados mentales
El lenguaje refleja los estados mentales y las estructuras cognitivas del individuo. Una de las cosas que mas me ha impresionado al investigar este tema es como cambia el lenguaje de alguien que empieza a radicalizarse. No solo lo que dice, sino como lo dice. De pronto, aparecen frases categóricas, se pierde la ironía, se abandonan los matices.
En la Universidad de Salamanca, un estudio reciente demostró que las personas que posteriormente cometieron delitos de odio ya mostraban cambios lingüísticos en sus redes meses antes. Utilizaban mas pronombres colectivos (nosotros), menos conectores («porque», «aunque»), y sobre todo, un vocabulario más agresivo y excluyente.
➡️ Te puede interesar: El día que el genio salió de la lámpara: un análisis sobre inteligencia artificial y geopolítica
Profesores de LISA Institute como Raquel García Puerta han analizado casos reales donde se pueden observar como el discurso se va endureciendo progresivamente. A veces de forma casi imperceptible.
Y lo interesante es que estos cambios se pueden medir. Herramientas de procedimiento del lenguaje natural permiten identificar estas transformaciones, sobre todo cuando se analizan en secuencia.
No es magia ni adivinación: es análisis del lenguaje, hecho con rigor y con respeto. Si entendemos que el lenguaje es un reflejo de lo que pasa dentro de una persona, tenemos en el, una herramienta poderosísima para la prevención.
Criminología e inteligencia antiterrorista
Desde la criminología, siempre se ha intentado entender como alguien cruza la línea entre pensar diferente y justificar la violencia. El modelo de Moghaddam, por ejemplo, plantea que la radicalización es como subir una escalera: cada peldaño representa una fase mas profunda de compromiso ideológico.
En España, el criminólogo Roberto M. Lobato ha adaptado este modelo a nuestros contextos. Su propuesta me parece muy útil porque no ve la radicalización como un destino inevitable, sino como un proceso reversible, especialmente en las primeras etapas.
Una docente como es Raquel Alonso de Francisco, en sus cursos sobre análisis interno de la radicalización yihadista, utiliza casos reales para mostrar cómo se construyen esas trayectorias. Lo que más me llamó la atención fue como muchas veces las señales estaban ahí, pero nadie supo interpretarlas a tiempo.
➡️ Te puede interesar: ¿Cuál es el perfil de un acosador?
La lA puede ayudarnos a eso. No a juzgar, sino observar mejor. A priorizar recursos, a enfocar la atención donde realmente hace falta. Porque prevenir no es controlar: es cuidar.
Enfoque geopolítico: contexto actual de amenazas
La situación geopolítica mundial actual integra amenazas extremistas en múltiples y variados ámbitos: religiosos, políticos, étnicos y conspirativos. A veces, cuando pensamos en radicalización, imaginamos una amenaza externa, como si solo viniera «de fuera». Pero en realidad, las ideologías radicales crecen también aquí, alimentadas por malestares muy locales.
➡️ Te puede interesar: Cómo la inteligencia artificial transformará las capacidades humanas, de las empresas y de las instituciones en 2025
En los últimos años hemos visto como movimientos que nacen en EEUU o en Oriente Medio se adaptan a nuestras realidades. Investigaciones del Real Instituto Elcano han mostrado como narrativas globales se adaptan a contextos nacionales, reincorporando historias locales de victimización. Desinformación y crisis migratorias han acelerado este fenómeno en Europa.
Expertos como Manuel Travezaño o Paula González Nagore, han señalado como campañas de desinformación alimentan emociones de ira muchas veces sin que la persona se dé cuenta de que esta replicando ideas importadas y manipuladas.
Esto lleva a pensar que cualquier sistema que quiera detectar radicalización tiene que ser sensible al contexto. No podemos usar las mismas herramientas en España que en Canadá o Pakistán. La cultura, el idioma, la historia de cada lugar afectan al modo en que expresan el dolor, la rabia o la exclusión.
Es por ello que, cualquier modelo predictivo debe entrenarse con datos locales, diversos y actuales. Lo contrario sería ceguera técnica.
Estado del arte y lagunas actuales
Aunque hay avances, seguimos teniendo sistemas de detección que se centran en lo obvio: mensajes violentos, insultos explícitos, amenazas. Pero para cuando alguien llega a ese punto, muchas veces ya ha cruzado la línea.
Existen modelos que analizan sentimientos, pero la mayoría no pasan del «positivo o negativo». Y los que necesitamos es detectar emociones como la frustración, la impotencia, el resentimiento social. Sentimientos que se acumulan y luego estallan.
Además, casi todo lo que se ha desarrollado está en inglés. En España, la Universidad de Salamanca ha hecho un buen trabajo adaptando herramientas para detectar discurso de odio en castellano, y el Instituto Lisa ha ofrecido análisis aplicados en catalán y gallego. Pero sigue faltando un modelo que integre emociones, lenguaje y evolución temporal.
➡️ Te puede interesar: Los crímenes sin resolver más famosos de la historia
Lo que propongo es precisamente eso: una herramienta que observe, no sólo que dice alguien, sino como ha ido cambiando lo que dice. Que lo haga en nuestra lengua, con nuestros datos y con un enfoque ético que no criminalice por pensar distinto, pero si sepa alertar cuando se cruzan ciertas líneas.
Propuesta metodológica
Lo que propongo es no es ciencia ficción. Es un sistema técnico, sí, pero pensando con los pies en la tierra. La metodología consta de seis fases, y se basa en trabajos existente, muchos de ellos desarrollados aquí en España.
1. Recopilación de datos:
Se usarán publicaciones de redes, foros y chats públicos. La selección incluirá casos documentados por el Instituto Lisa, la UNED y el Real Instituto Elcano u otros de importante relevancia. Todo se anonimizará respetando la normativa de LPD.
2. Análisis emocional:
Con modelos como RoBERTa se detectarán emociones presentes en los mensajes. El objetivo no es etiquetar a la gente, sino entender que emociones dominan su discurso y como cambian con el tiempo.
3. Estudios del lenguaje:
Se examinarán patrones linguísticos: simplificación, polarización, uso de metáforas de conflicto, etc. Las herramientas utilizadas permitirán seguir estos cambios con detalle técnico, pero sin perder de vista el sentido común.
4. Modelado:
Los datos se integrarán en un modelo mixto que una emociones y lenguaje. Se emplearán redes neuronales temporales como Memoria a corto y largo plazo para mantener la evolución en el análisis.
5. Validación:
Se harán pruebas con datos reales y simulaciones. Se controlarán sesgos por idioma, edad o género y se revisarán con ayuda de analistas humanos.
6. Ética:
Ninguna alerta se tomará como verdad absoluta. Todo será revisado por personas, con protocolos claros y con posibilidad de refutar errores.
Resultados esperados y validación
Lo que espero con este enfoque es simple: detectar antes. Si conseguimos identificar discursos que están cambiando hacia una mayor polarización o agresividad emocional, podremos intervenir con tiempo. No con castigos ni con censura, sino con escucha, educación o acompañamiento.
➡️ Te puede interesar: La importancia de la psicología oscura y el lenguaje corporal en la criminología
Técnicamente, el modelo debería alcanzar una precisión razonable (por encima del 80%) sin caer en falsos positivos contantes. Pero mas importante que la cifra es la utilidad práctica. Si sirve para alertar a un docente, a un trabajador social o a un moderador de comunidad, ya habrá valido la pena.
También se va a validar éticamente. No quiero que un sistema como este discrimine por nombre, acento o ideología política. Habrá auditorias externas y mecanismos de corrección.
Y sí, confío en que puede funcionar. Porque he visto como en muchos casos las señales estaban, pero fue muy difícil unir los puntos. Este sistema no resolverá todo, pero puede ayudarnos a no llegar tan tarde.
Conclusión
Este proyecto nace de una convicción: que es mejor prevenir que lamentar. Y prevenir no es vigilar, es entender, anticipar y cuidar. Con las herramientas que nos da hoy la IA, podemos ver con mas claridad lo que antes intuíamos. El lenguaje y las emociones son mapas. Si sabemos leerlos, podemos ver hacia conde se dirigen una persona antes de que cruce limites peligrosos. Este análisis no es solo técnico. Es también una llamada a usar la tecnología con inteligencia y ética. Y sobre todo, con humanidad.
No hace falta tener todas las respuestas. Pero si debemos hacernos las preguntas correctas, y atrevernos a mirar donde antes pasábamos de largo.
➡️ Si quieres adentrarte en el mundo de la Inteligencia, te recomendamos los siguientes programas formativos: