Inicio Internacional La inteligencia artificial como herramienta de desinformación en las elecciones de Estados...

La inteligencia artificial como herramienta de desinformación en las elecciones de Estados Unidos

0

En este artículo se examinará la percepción social de la población residente en Estados Unidos acerca de la Inteligencia Artificial (IA), el aumento de su uso, el papel de potencias externas y ejemplos concretos de desinformación. Si quieres saber más, apúntate al Curso de Experto en Estados Unidos de LISA Institute.

El aumento de la desinformación con Inteligencia Artificial (IA) en la campaña electoral de Estados Unidos ha despertado preocupación entre expertos y autoridades. En un año electoral clave, las tecnologías con IA se están utilizando para generar y difundir noticias falsas a una escala sin precedentes. Esto amenaza la integridad de las elecciones y la labor periodística. Desde deepfakes que suplantan a candidatos hasta campañas de memes o falsas llamadas que imitan voces, la IA se ha convertido en una poderosa herramienta para manipular la opinión pública. Este artículo examinará cómo la desinformación impulsada por IA está afectando las elecciones estadounidenses, a la percepción social, y las medidas que se están tomando para contrarrestar esta amenaza.

➡️ Te puede interesar: Curso de Experto en Detección de la Desinformación y Fake News

Estas elecciones presidenciales serán las primeras en la historia del país norteamericano en las que la IA está consolidada. Esta herramienta permite realizar fotografías, vídeos, audios y montajes hiperrealistas que pueden simular una situación real cuando en verdad no lo es. Este auge de desinformación con IA está causando estragos en Estados Unidos. Esto se debe a que hay contenido que se hace pasar por real. Con esto, se provoca que haya una distorsión entre realidad y ficción.

Más de la mitad de estadounidenses preocupados

Una encuesta del Centro de Investigaciones Pew Research Center asegura que el 57% de la población de Estados Unidos están «extremadamente o muy preocupados de que personas u organizaciones que buscan influir en las elecciones utilicen la IA para crear y distribuir desinformación o engañosa sobre los candidatos y las campañas». Este porcentaje es muy similar entre simpatizantes republicanos y demócratas.

➡️ Te puede interesar: ¿Cómo se propagan las fake news en los procesos electorales?

Asimismo, el 39% de los estadounidenses cree que «la IA se utilizará principalmente para malos propósitos durante la campaña presidencial». Por otro lado, solo el 5% estima que la IA «se utilizará principalmente para buenos fines». Y el 27% expresa que «se usará casi por igual para lo bueno y lo malo». Además, una gran mayoría de estadounidenses expresan «poca confianza en las principales empresas tecnológicas para evitar el uso indebido de sus plataformas para influir en las elecciones».

¿Las tecnológicas son responsables?

Ante este panorama desolador, el 77% de los participantes adultos creen que «conglomerados como Facebook, X, TikTok y Google tienen la responsabilidad de evitar el uso indebido de sus plataformas para influir en las elecciones presidenciales de 2024». Pese a esto, tan solo el 20% de los encuestados manifiesta que «tiene mucha o algo de confianza en que estas empresas evitarán que sus plataformas se utilicen indebidamente».

➡️ Te puede interesar: ¿Qué son las Fake News o noticias falsas y cómo podemos detectarlas?

Respecto a la división por partido político, la mayoría sigue creyendo que «las empresas tecnológicas tienen la obligación de evitar que sus plataformas se utilicen indebidamente». Sin embargo, en los simpatizantes del Partido Demócrata de Joe Biden y Kamala Harris este porcentaje asciende al 84%. En los adeptos al Partido Republicano de Trump o JD Vance, este porcentaje baja al 72%.

➡️ Te puede interesar: Emociones, elecciones y desinformación

«Si bien las opiniones de los demócratas han cambiado poco desde 2020, la proporción de republicanos que ahora dicen que las empresas tecnológicas tienen esta responsabilidad es mayor que hace cuatro años. En agosto de 2020, el 64% de los republicanos dijo que las empresas tecnológicas eran responsables de evitar el uso indebido de sus plataformas», asegura el sondeo del think tank.

Descenso de la confianza en las tecnológicas

El manejo de la desinformación impulsada por IA en las principales plataformas tecnológicas ha provocado una disminución significativa de la confianza pública. Los usuarios se muestran cada vez más escépticos ante la capacidad de las empresas para controlar eficazmente la propagación de contenido falso o engañoso generado por IA, como deepfakes y noticias falsas.

➡️ Te puede interesar: Tendencias e impacto de los «deepfakes» en la actividad criminal

Esta preocupación en Estados Unidos ha incrementado debido a la sofisticación creciente de las tecnologías de IA. Esta mejora hace que la desinformación sea más difícil de detectar y combatir. Como resultado, muchas personas cuestionan la integridad de la información que encuentran en línea y la efectividad de las medidas implementadas por las plataformas para proteger a los usuarios de la manipulación y la propaganda digital.

➡️ Te puede interesar: Ataques de desinformación: qué son y cómo podemos evitarlos

Así, en 2024, tan solo el 20% de los estadounidenses creen que «confían mucho o algo en empresas tecnológicas como Facebook, X, TikTok y Google para evitar el uso indebido de sus plataformas para influir en las elecciones presidenciales de 2024». Sin embargo, en 2018, ese porcentaje era de aproximadamente el 33%, lo que ha supuesto un descenso considerable.

Diferencias entre demócratas y republicanos

«El 79% de los adultos dicen que no confían demasiado o nada en que las empresas tecnológicas puedan detener el uso indebido de sus plataformas para influir en las elecciones», aseguran. Respecto a partidos políticos, el 80% de republicanos «no confían en absoluto o no confían demasiado en las empresas tecnológicas para evitar el uso indebido de sus plataformas, frente al 72% que no confiaba en 2018». En cuanto a demócratas, el 79% asegura que «no confía» en que paren el uso indebido, lo que supone un incremento de unos 20 puntos porcentuales desde 2018.

¿La IA se utiliza para el bien o para el mal?

Atendiendo a la encuesta, «los republicanos y los demócratas expresan en gran medida puntos de vista similares sobre cómo la IA podría influir en las elecciones de 2024». El 41% de republicanos y el 39% de demócratas aseguran que la IA se está usando principalmente para «el mal» durante la campaña. Además, porcentajes parecidos (56% de republicanos y 58% de demócratas) aseguran estar «extremadamente o muy preocupados por la influencia de la IA en las elecciones».

➡️ Te puede interesar: ¿Por qué votas lo que votas en la era de la desinformación?

Todos los grupos de edad coinciden casi por igual en este aspecto. «Tan solo porcentajes relativamente pequeños en todos los grupos de edad dicen que se usará principalmente para el bien», muestra el análisis. Sin embargo, «los adultos más jóvenes son más propensos que los adultos mayores a decir que la IA se usará por igual para bien y para mal. Entre las personas mayores, hay más incertidumbre sobre cómo se utilizará la IA durante las elecciones».

➡️ Te puede interesar: Guía Práctica para detectar Fake News

El 35% de los adultos menores de 30 años dice «que la IA se usará para el bien y para mal, y el 17% no está seguro». Entre los mayores de 65 años, el 20% dice que la IA se usará casi por igual para bien y para mal, mientras que el 39% no está seguro de cómo se usará». Asimismo, el 68% de los mayores de 65 años están «extremadamente o muy preocupados» por la influencia de la IA. De diferente modo, en los menores de 30 años este porcentaje desciende al 48%.

China, Rusia e Irán en cabeza de la desinformación IA en Estados Unidos

Según informes de inteligencia estadounidense, China, Rusia e Irán están liderando el uso de inteligencia artificial (IA) para realizar campañas de desinformación y sabotaje en las elecciones presidenciales de EEUU de 2024. Rusia destaca como el actor más activo, generando contenido IA en texto, imágenes, audio y video para influir en la opinión pública. Sus esfuerzos incluyen la manipulación de discursos de la vicepresidenta Kamala Harris y la creación de contenido falso sobre figuras políticas prominentes.

➡️ Te puede interesar: Ciberatacantes iraníes elaboran una red para atacar campañas políticas estadounidenses

Por su parte, Irán utiliza IA para producir publicaciones en redes sociales y artículos de noticias falsas en webs que simulan ser reales. Su objetivo es desacreditar al expresidente Donald Trump y exacerbar divisiones sobre temas como la inmigración y el conflicto en Gaza. China, aunque menos enfocada en candidatos específicos, emplea IA para generar contenido pro-China. También busca amplificar temas divisivos en Estados Unidos como el uso de drogas, la inmigración y el aborto.

➡️ Te puede interesar: TikTok elimina perfiles de medios vinculados a Rusia por «operaciones encubiertas de influencia» dirigidas a las elecciones de EEUU

Las tres naciones han desarrollado redes de sitios web que se hacen pasar por medios de comunicación legítimos para difundir su propaganda. Los funcionarios de inteligencia advierten que, si bien la IA acelera la producción de desinformación, aún no ha revolucionado fundamentalmente estas operaciones. No obstante, la sofisticación de estas campañas va en aumento, especialmente en la creación de deepfakes y contenido sintético convincente. Por ello, esto plantea una gran amenaza al proceso electoral y a la confianza pública en la información en línea.

Ejemplos concretos de desinformación con IA

  • Llamadas automáticas falsas simulando la voz de Joe Biden. Ocurrió en enero de 2024 en New Hampshire. Utilizaron una voz clonada del mandatario para pedir a los votantes demócratas no elegir a Biden en las primarias estatales y «guardar su voto».
  • Voz clonada de Trump. Ocurrió en julio de 2023, cuando se usó IA con voz del expresidente y candidato demócrata, para realizar un anuncio de otro candidato republicano donde simulaba que Trump le atacaba. La campaña de Trump calificó ese incidente de «intento desesperado de engañar al público estadounidense».
  • Contenido IA falso publicado por Trump. El magnate ha compartido en Truth Social, su plataforma, imágenes falsas de Taylor Swift apoyándolo.
  • Memes con IA. Pese a que hay muchos ejemplos, los más destacados son en los que sale Trump montado en un león o robando un supermercado con una pistola en la mano. Estos vídeos, pese a que no son reales, pueden hacer dudar a un determinado tipo de audiencia.
  • Entramado ruso usaba IA para desinformar. El Departamento de Justicia desmanteló esta organización que se hacía pasar por perfiles estadounidenses en redes sociales.
  • OpenAI desarticuló grupo iraní. Usaba ChatGPT para generar contenido y comentarios falsos sobre las elecciones presidenciales de Estados Unidos. Su objetivo era polarizar a los votantes estadounidenses a través de comentarios políticos y contenido engañoso.
  • Caso de la vicepresidenta Kamala Harris. Se han detectado videos manipulados de sus discursos, posiblemente alterados mediante software de edición o tecnologías de IA. Estos videos, creados en gran parte por actores rusos, se han compartido en redes sociales y otros canales, presentándola de manera negativa tanto personal como políticamente.
  • Falso incidente de atropello. Operativos rusos produjeron un video con una mujer que falsamente afirmaba ser víctima de un atropello y fuga involucrando a Kamala Harris en 2011, un evento del que no existe evidencia.

➡️ Si quieres aprender sobre Inteligencia, Análisis Internacional, Ciberseguridad, Criminología, Prospectiva y más campos, te recomendamos visitar la web de LISA Institute.

Artículo escrito por:

Rubén Asenjo MorillasPeriodista apasionado por la actualidad internacional y la geopolítica. Escribo para entender el mundo en constante cambio y compartir perspectivas que despierten la reflexión y el debate. Comprometido con la búsqueda de la verdad y las historias que impacten e inspiren.

SÉ EL PRIMERO EN COMENTAR

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

Salir de la versión móvil