spot_img

Guerra de narrativas: cómo la desinformación moldea el poder global

Análisis

Sebastián Ruda
Sebastián Ruda
Politólogo, Máster en Comunicación y Marketing Político. Actualmente, Máster Profesional de Analista de Inteligencia de LISA Institute y aspirante a Profesional Oficial de Reserva de la Armada. Tiene experiencia en el sector Gobierno en el diseño y coordinación de estrategias institucionales. Se desempeña en el sector privado como Coordinador de Riesgos Sociopolíticos en infraestructura crítica.

La desinformación se ha convertido en una de las armas más poderosas del siglo XXI, capaz de moldear percepciones y redefinir el poder global. En este artículo, Sebastián Ruda, alumno del Máster Profesional de Analista de Inteligencia de LISA Institute, analiza cómo actores estatales y no estatales manipulan percepciones, desde Ucrania hasta el Sahel, en una era donde la verdad es el primer objetivo.

En 2022, mientras tanques rusos cruzaban Ucrania, narrativas falsas inundaban redes sociales, negando la masacre de Bucha y presentando a Kiev como «Fascista». ¿Cómo se libra una guerra cuando el campo de batalla es la mente? En 2025, la desinformación potenciada por inteligencia artificial (IA) y redes sociales, no solo distorsiona la realidad, sino que redefine el poder global, paralizando sociedades y desestabilizando democracias.

Gran cantidad de noticias y del contenido que se consume en redes sociales no es real, pero más allá de eso, resulta preocupante que es contenido perfectamente planificado, delineado y realizado de forma estratégica para influir en las percepciones de los ciudadanos y con esto orientar su toma de decisiones, algo crítico en un contexto geopolítico donde diferentes actores han entrado en la disputa de la hegemonía global.

La mente como campo de batalla

La desinformación trasciende las fake news, configurando una estrategia multidimensional de guerra cognitiva que convierte la mente ciudadana en el campo de batalla clave. Mediante tácticas como el control reflexivo ruso y Sharp power, actores estatales explotan sesgos cognitivos, como el sesgo de confirmación, para polarizar, desestabilizar democracias y erosionar la confianza, como en Ucrania con la negación de Bucha o el Sahel con narrativas antioccidentales.

➡️ Te puede interesar: Desinformación en la guerra de Ucrania: cómo se manipulan los hechos y la opinión pública

Estas campañas amplificadas por redes sociales y IA, generan confusión, radicalización y desmoralización, creando una «niebla de guerra» digital. Actualmente contrarrestar esta guerra de la información exige seguridad epistémica y regulación global, esfuerzos como el código de Conducta de la UE, para proteger la verdad y la cohesión.

Anatomía de una campaña: elecciones europeas 2024

En 2024, las elecciones europeas fueron blanco de una campaña prorrusa que usó deepfakes para mostrar a candidatos franceses apoyando políticas extremistas, viralizadas en X con millones de vistas. Bots coordinados, identificados vía OSINT, amplificaron narrativas anti-UE, acusando a Bruselas de «globalismo opresivo».

La Agencia de Seguridad Cibernética de la UE (ENISA) detectó el 65% de los deepfakes usando IA predictiva, bajo el Código de Conducta 2022. SIGINT vinculó la operación a servidores rusos, pero la polarización creció un 12% en Francia y Alemania, afectando los resultados electorales. Este caso revela cómo la desinformación explota la velocidad digital para manipular percepciones, pero también cómo la ciber inteligencia puede frustrar estas campañas, aunque las lagunas regulatorias persisten, dejando a las democracias vulnerables.

El arsenal de la desinformación

La desinformación moderna combina tácticas sofisticadas: el control reflexivo ruso induce decisiones favorables al enemigo, mientras el Sharp power explota contradicciones internas, como en las elecciones de EEUU en 2016, con bots difundiendo narrativas polarizantes. En el Sahel, Rusia promueve sentimientos anti occidentales, presentándose como aliado frente a los «fracasos coloniales».

En América latina campañas como la de Argentina, Ecuador y Colombia estuvieron bajo la acción coordinada de potencias extranjeras con intereses geopolíticos en la región, generando la manipulación masiva de los votantes. Las nuevas tecnologías logran hacer que el reto sea cada vez más complejo, la IA generativa crea deepfakes hiperrealistas, y los algoritmos de redes sociales amplifican contenido emocional en minutos.

➡️ Te puede interesar: Desinformación, bulos y fake news: la nueva amenaza

Estas tácticas, integradas en una «guerra permanente de la información», aprovechan la velocidad digital para desestabilizar sin disparar un solo tiro, desafiando a los estados a responder con rapidez y precisión.

Impacto psicológico y social

La desinformación fragmenta comunidades al explotar sesgos cognitivos, como la heurística de disponibilidad, que lleva a priorizar información sensacionalista, como narrativas en el Sahel que glorificaron coups militares, aumentando tensiones étnicas un 8% en 2024.

Este bombardeo de narrativas falsas, amplificado por redes sociales, genera ansiedad y fatiga informativa, con un 25% más de casos de estrés relacionados con noticias en América Latina. En Colombia, las fake news electorales de 2022 alimentaron la desconfianza intergeneracional. Al distorsionar la cohesión social, la desinformación debilita la capacidad de las sociedades para responder colectivamente a crisis, como desastres climáticos. En 2023 abordar estos impactos requiere intervenciones psicológicas y educativas para restaurar la unidad comunitaria y la salud mental.

Hacia la resiliencia digital

Combatir la desinformación requiere innovación. La OTAN promueve cuatro pilares: entender el entorno informativo, prevenir amenazas, mitigar incidentes y aprender lecciones. La UE, con su Código de Conducta 2022, exige transparencia en algoritmos de plataformas. La IA ética, como la usada por ENISA, detecta deepfakes con alta precisión.

La alfabetización digital también es un asunto crucial, ejemplo de ello es que programas en Finlandia redujeron la credibilidad en narrativas falsas un 20%. Alianzas público-privadas, como las de la OTAN con empresas tecnológicas, identifican actores maliciosos mediante análisis predictivo. Estas soluciones, combinadas con campañas de comunicación estratégica, fortalecen la resiliencia, permitiendo a las sociedades navegar la «niebla de guerra» digital.

Un protocolo básico para evitar caer en campañas de desinformación

Para protegerse de la desinformación, pueden seguirse cuatro pasos básicos:

  1. Verificar la fuente, priorizando medios confiables y contrastando la información, herramientas como EFE Verifica o Snopes pueden resultar de ayuda.
  2. Analizar el contenido críticamente, cuestionando aquellas narrativas cargadas emocionalmente que buscan explorar el miedo o la ira, y buscando datos objetivos en lugar de aceptar afirmaciones sin evidencia.
  3. Reducir la propagación, evitando compartir publicaciones en redes sociales sin confirmar su veracidad, ya que los algoritmos amplifican bulos rápidamente.
  4. Fortalecer la alfabetización digital mediante cursos, como los ofrecidos por la UE, que enseñan a identificar deep fakes y bots.

➡️ Te puede interesar: Desinformación y FIMI: claves de la ciberguerra cognitiva y estrategias de defensa

Este enfoque proactivo, respaldado por la OTAN, empodera a los ciudadanos para navegar el entorno informativo y resistir manipulaciones cognitivas

En definitiva:

En la actualidad las fake news, orquestadas como operaciones meticulosas, manipulan percepciones para inducir decisiones que los ciudadanos en otras condiciones no tomarían, desde apoyar políticas extremas hasta desestabilizar democracias. Comprender esta guerra cognitiva es crucial.

Los ciudadanos deben verificar fuentes, analizar narrativas críticamente, evitar compartir contenido dudoso y educarse en alfabetización digital. Estas acciones, respaldadas por el Código de Conducta de la UE, fortalecen la resiliencia frente a la desinformación. En un mundo donde la verdad es el blanco, proteger la mente ciudadana es clave para preservar la estabilidad global.

➡️ Si quieres adentrarte en el mundo de la Ciberseguridad, te recomendamos los siguientes programas formativos:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img