Impulsados por el avance de las GANs, los deepfakes han alcanzado un realismo visual y sonoro casi perfecto. El CEO de Quantum Babylon y alumno certificado del Máster Profesional de Analista de Inteligencia de LISA Institute, Juan Pablo Castillo Cubillo, analiza su evolución tecnológica y los retos que plantea esta innovación.
El origen término deepfake proviene de la combinación de dos conceptos como son «deep learning» (aprendizaje profundo) y «fake» (falso). El primero es una técnica avanzada de inteligencia artificial que permite a las redes neuronales analizar grandes volúmenes de datos. Estas redes aprenden de ellos para generar contenido cada vez más realista.
Al aplicar este procedimiento para crear contenido que diste de la realidad, se obtienen como resultado los deepfakes. Estos no son más que manipulaciones digitales capaces de modificar imágenes, vídeos o audios para hacerlos parecer auténticos. Generalmente, se logra clonando imágenes y voces de personas tras analizar y registrar millones de patrones. Así se determina cómo debería ser la imagen resultante a partir de otros ejemplos.
➡️ Te puede interesar: Neurodivergencia en ciberseguridad y análisis de inteligencia: una ventaja estratégica
El término surgió a raíz de unos acontecimientos en 2017. Un usuario de la plataforma Reddit, bajo el nombre de «deepfakes», comenzó a compartir vídeos manipulados que mostraban a celebridades en situaciones comprometedoras. Este material audiovisual se creó mediante algoritmos de aprendizaje profundo. Dichos algoritmos permitían superponer de manera realista el rostro de una persona sobre el cuerpo de otra. Esto abrió la puerta a nuevas formas de suplantación digital.
Desde entonces, la tecnología deepfake ha evolucionado rápidamente, impulsada por los avances en IA y aprendizaje profundo. Lo que inicialmente era una técnica limitada a manipulaciones de baja calidad ha alcanzado niveles de precisión inquietantes. Esto ha sido posible gracias a algoritmos sofisticados como las Redes Generativas Antagónicas (GANs). Estas han permitido mejorar de manera exponencial la calidad y el realismo de los deepfakes.
Podemos decir que, a día de hoy, un deepfake con la última tecnología, realizado por un equipo experto en imagen IA y corregido en postproducción, resulta indistinguible de una imagen o sonido real sin equipo tecnológico avanzado. Sin embargo, el tiempo y el coste de producción siguen siendo muy elevados.
Es importante señalar que estas herramientas tecnológicas no fueron concebidas para crear contenido falso ni fomentar prácticas poco éticas. Según las directrices de la Comisión Europea, el desarrollo de estas tecnologías responde a la necesidad de innovar en áreas como la inteligencia artificial y la síntesis de datos. Sus aplicaciones legítimas y beneficiosas se encuentran en sectores como la educación, el entretenimiento y la investigación. No obstante, el mal uso de estas herramientas para crear contenido falso contradice los principios éticos y los objetivos originales que guiaron su desarrollo.
Funcionamiento y aplicación de las GANs (Generative Adversarial Networks)
Como señalamos anteriormente de forma sucinta, la red generadora es la encargada de crear elementos falsos a partir de un conjunto de datos de entrenamiento. El propósito es generar resultados lo suficientemente realistas como para engañar a la red discriminadora.
Por otro lado, la red discriminadora evalúa los datos generados. Luego, la red los compara con los datos reales del conjunto de entrenamiento. El objetivo es distinguir entre los datos auténticos y los creados por la red generadora.
El proceso de creación de deepfakes mediante una GAN es iterativo, lo que significa que ambas redes mejoran continuamente a lo largo del tiempo.
El proceso comienza con la recolección de datos. Se recopilan grandes cantidades de información visual de la persona objetivo, como fotos y vídeos desde múltiples ángulos y con diferentes expresiones faciales. Con estos datos se inicia el entrenamiento del modelo. Este utiliza técnicas de deep learning, generalmente una GAN, para aprender las características faciales y los movimientos de la persona.
Una vez entrenado el modelo, se procede a la generación de contenido, donde el modelo es capaz de crear nuevas imágenes o vídeos de la persona objetivo, aplicando las características aprendidas a un cuerpo diferente o en un contexto distinto. La red discriminadora evalúa estos datos generados en comparación con los datos reales y proporciona retroalimentación, permitiendo que la red generadora ajuste su rendimiento.
➡️ Te puede interesar: ¿Cómo la inteligencia artificial está transformando la ciberseguridad?
Durante este proceso, se realiza un ajuste de parámetros en ambas redes. La red generadora mejora la calidad de los datos falsos que produce, mientras que la red discriminadora afina su capacidad para detectar datos falsificados. Este ciclo de ajuste y retroalimentación se repite varias veces, hasta que la red generadora logra crear datos que son prácticamente indistinguibles de los reales.
Aplicaciones de las GANs en deepfake
Las Generative Adversarial Networks (GANs) tienen una amplia variedad de aplicaciones que van más allá de la creación de deepfakes. Estas redes se utilizan para generar imágenes y vídeos realistas, mejorar la resolución de imágenes de baja calidad, crear arte digital y sintetizar datos para entrenar otros modelos de inteligencia artificial. Con el refinamiento constante de las técnicas de GANs, ha sido posible generar contenido audiovisual falso con un realismo cada vez mayor.
Aunque los deepfakes han ganado notoriedad por su uso en la desinformación o la suplantación de identidades, no todas las aplicaciones de las GANs tienen fines malintencionados. En el mundo del entretenimiento, las GANs se utilizan para la creación de efectos especiales en películas. Esto permite generar personajes o escenarios antes imposibles o muy costosos de producir.
En videojuegos, esta tecnología permite superar la calidad de las imágenes por encima de las capacidades reales de las tarjetas gráficas. Asimismo, en el ámbito educativo, las GANs han sido empleadas para generar contenido útil en simulaciones, visualizaciones o enseñanza mediante medios audiovisuales.
Este tipo de tecnología muestra tanto el potencial creativo de las GANs como los riesgos inherentes a su uso. Plantea un dilema sobre la regulación y la necesidad de contramedidas eficaces para evitar abusos en su aplicación.
Detección de deepfakes utilizando Redes Generativas Antagónicas (GANs)
El uso de tecnología para detectar deepfakes ha dado lugar a enfoques innovadores que aprovechan las mismas técnicas que se utilizan para crearlos. Uno de los métodos más destacados es el uso del discriminador de GANs, la red que se encarga de diferenciar entre datos reales y generados.
Este discriminador puede entrenarse específicamente para identificar las características sutiles que distinguen un deepfakede un contenido auténtico. Así se convierte en una herramienta eficaz para la detección.
Otro enfoque es el análisis de frecuencias, ya que los deepfakes generados por GANs suelen dejar rastros en las frecuencias de las imágenes. Analizar estas frecuencias permite detectar anomalías que pueden ser indicativas de contenido generado artificialmente.
➡️ Te puede interesar: ¿Puede la comunidad internacional sancionar los ciberataques?
Además, se han desarrollado modelos conocidos como modelos de percepción, los cuales evalúan diferencias en la calidad visual de las imágenes. Estos modelos pueden detectar inconsistencias en la textura, iluminación y otros detalles finos que resultan difíciles de replicar perfectamente, incluso para las GANs más avanzadas.
Un método adicional es el ensamble de discriminadores, que combina múltiples modelos de GANs en un solo sistema de detección. Al utilizar la fuerza combinada de varios modelos, este enfoque aumenta la precisión de la detección, mejorando la eficacia en la identificación de deepfakes.
En cuanto a ejemplos específicos de herramientas, destacan modelos como MesoNet, que utiliza redes neuronales convolucionales para analizar patrones específicos en las imágenes y detectar deepfakes. También está MRI-GAN, un enfoque que identifica contenido sintetizado al analizar diferencias perceptuales en las imágenes.
Sin embargo, aunque los discriminadores de GANs y estas herramientas avanzadas pueden ser efectivas, aún enfrentan importantes desafíos. Detectar deepfakes de fuentes desconocidas o de alta sofisticación sigue siendo un reto, lo que impulsa la investigación continua para mejorar estos métodos y hacerlos más robustos y aplicables a un amplio espectro de contenidos falsificados.
Soluciones: un enfoque integral frente a las deepfakes
Los deepfakes han pasado de ser una curiosidad tecnológica a una amenaza sistémica. En 2023 el FBI alertó que el 80% de los ciberataques a empresas usaron suplantaciones audiovisuales en su informe anual “Internet Crime Report”.
Por otro lado, el informe de 2024 del crimen organizado en la red (Internet Organised Crime Threat Assessment) de Europol alerta sobre el aumento de ataques cibernéticos.
Estos ataques son perpetrados por ciberdelincuentes mediante el uso de inteligencia artificial. Entre ellos se incluyen el ransomware-as-a-service y el uso de malware avanzado.
Este fenómeno no solo desafía la veracidad de la información, sino que erosiona la confianza en instituciones, medios y hasta en la percepción humana. Combatirlo exige más que algoritmos: requiere un pacto global entre gobiernos, empresas y ciudadanos.
Es el escenario actual es el siguiente, estas nuevas herramientas son un «virus» polimórfico. Avanzan al ritmo de la IA generativa, como los modelos de difusión. Se propagan en segundos gracias a las RRSS y mutan según sus objetivos. Estos objetivos pueden ir desde extorsiones spearphishing hasta injerencias geopolíticas.
➡️ Te puede interesar: Ciberseguridad para contrarrestar ataques externos en la red
Por esta razón, resulta necesaria una estrategia integral para abarcar el problema desde todas las áreas: innovación tecnológica, marcos legales, educación ciudadana y colaboración entre Estados. Esto ayudaría a evitar vacíos legales.
La tecnología como escudo
La velocidad de la IA generativa exige respuestas igualmente ágiles, aquí es donde herramientas como los algoritmos de detección en tiempo real marcan la diferencia.
Estos sistemas, entrenados con millones de ejemplos de deepfakes, buscan imperfecciones invisibles al ojo humano. Puede ser un parpadeo antinatural, ya que los modelos actuales fallan en replicar la frecuencia humana de 15-20 por minuto.
También detectan una sombra mal renderizada en los dientes o fluctuaciones en el espectro de audio que delatan una síntesis artificial. Diversas plataformas, como Microsoft Video Authenticator, emplean redes neuronales transformers para analizar framepor frame. Asignan un «índice de confianza» que alerta si un video contiene trazas de falsedad.
Sin embargo, esto es el «cuento de nunca acabar». Mientras en 2022 las GANs dominaban la creación de deepfakes, hoy modelos de difusión como Stable Diffusion 3 o DALL·E 3 generan contenidos más refinados. Esto obliga a los detectores a reinventarse cada pocos meses.
Pero la tecnología no solo sirve para detectar mentiras; también puede certificar verdades. Aquí entra el blockchain. Proyectos como Project Origin, liderado por la BBC y Microsoft, insertan «huellas digitales» inalterables en los archivos multimedia. Estas marcas, registradas en cadenas de bloques públicas, permiten rastrear el origen de un video para saber quién lo grabó, cuándo, y si ha sido editado.
El tercer pilar es la autenticación reforzada, una necesidad crítica en sectores donde un deepfake podría causar daños irreparables. Existe bancos que ya exigen, para determinados movimientos, una combinación de reconocimiento facial dinámico, pidiendo al usuario girar la cabeza o sonreír para evitar máscaras estáticas, y tokens físicos.
En determinados Estados de la UE también puede aplicarse el doble factor de seguridad para trámites burocráticos. Aún así, hay que recordar que estos métodos no son infalibles, ya que existe la técnica del «voice hacking», donde cibercriminales son capaces de burlar un sistema de voz usando muestras de YouTube.
Cooperación público-privada
Emprender una guerra contra este enemigo de forma individual es una empresa demasiado compleja. Es necesario una respuesta coordinada, donde gobiernos aporten autoridad legal, las empresas su experiencia técnica y la el sector académico un enfoque crítico. Y es que esta alianza no es un ideal, sino una necesidad práctica.
La colaboración debe verse a largo plazo sentando unas bases que midan el grado de confianza. Es por ello que la clave estaría en construir infraestructura preventiva. En este contexto, las bases de datos abiertas son esenciales. El reto principal es garantizar la sostenibilidad estandarizando formatos y etiquetados, evitando que cada «bando» reinvente la rueda.
El primer paso sería la creación de grupos especializados en este campo dentro de las unidades de ciberinteligencia. Estos serían equipos interdisciplinares capaces de operar desde diversos puntos de vista, basándose en sus conocimientos adquiridos.
➡️ Te puede interesar: Las 10 empresas referentes en ciberseguridad en España
El segundo paso sería equipar a estos grupos con herramientas avanzadas de detección, análisis y respuesta frente a amenazas emergentes, deepfakes y otros tipos de suplantación digital.
Además, sería fundamental establecer protocolos de colaboración internacional para compartir información en tiempo real, lo que permitiría identificar patrones comunes y anticipar futuros ataques.
Como tercera y última etapa estaría la formación continua de sus integrantes. Esto garantizaría que las unidades puedan adaptarse a la rápida evolución de las tecnologías. También permitiría enfrentar los desafíos con eficacia y determinación. Estos profesionales serían los cimientos sobre los que se sustentaría una ciberseguridad de nueva generación. Su objetivo sería proteger la soberanía digital en un mundo cada vez más interconectado.
La cooperación público-privada es un equilibrio delicado. Requiere transparencia para evitar que las empresas usen los datos con fines comerciales ocultos, y agilidad para que las burocracias estatales no frenen la innovación. Hay que recalcar que este modelo no es perfecto, pero sí prometedor.
Todo lo dicho requiere, seamos claros, un gran desembolso económico y voluntad política. También exige una adaptación rápida y experta en el campo legal. Este cambio debe tapar el coladero de las actuales legislaciones nacionales y europeas, que están demasiado a la cola de la situación real.
Si no se comprende que estas amenazas son tan importantes como la superioridad de un caza de combate o un misil balístico, no habrá respuesta eficaz posible.
Las GANs y los deepfakes: oportunidad, desafío y futuro de la seguridad digital
Las GANs y los deepfakes representan tanto una oportunidad como un desafío en el terreno de la inteligencia artificial. Si bien estas tecnologías ofrecen posibilidades innovadoras, es igualmente crucial abordar sus implicaciones éticas y legales, de modo que puedan ser utilizadas de forma responsable y beneficiosa para la sociedad.
Sin embargo, como ya se ha destacado en el artículo, la evolución tecnológica no se detiene. Todo apunta a que el siguiente gran avance en la seguridad de las comunicaciones será la incorporación de la física cuántica para mejorar la protección de la inteligencia artificial, ya sea en contextos militares, empresariales o institucionales.
Dado este panorama de cambio constante, el enfoque de seguridad debería evolucionar hacia la protección de los canales de comunicación y de la identidad de los interlocutores, además de la verificación de la autenticidad de la información. Así, podría resultar más práctico y beneficioso desarrollar un sistema que, inspirado en el modelo blockchain, funcione como una «prueba de trabajo para la identidad» / «identity proof of work».
Este nuevo concepto establecería un conjunto de mecanismos que no solo verificarían la identidad del emisor, sino que también interceptarían cualquier intento de suplantación, garantizando que solo individuos autenticados puedan acceder o transmitir información.
En última instancia, la clave para enfrentar estos retos será una combinación de avances tecnológicos y un compromiso entre naciones firme que priorice la seguridad y la veracidad en un mundo cada vez más digitalizado.
La creación de sistemas que combinen identidad verificable y seguridad avanzada no solo protegerá a los individuos, sino que también reforzará la confianza en un entorno en el que la tecnología avanza a pasos agigantados.
➡️ Si quieres ser un experto en Ciberseguridad, te recomendamos el siguiente curso formativo: