ActualidadMuchos 'Deepfakes' ya son indistinguibles de rostros reales

Muchos ‘Deepfakes’ ya son indistinguibles de rostros reales

Análisis

Redacción de LISA News
Redacción de LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Los Deepfakes o “falsedades profundas” son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial de modo que parezcan originales, auténticos y reales. Éstos utilizan el aprendizaje de la inteligencia artificial y tienen una apariencia tan realista que pueden llegar a engañarnos fácilmente.

Según un nuevo estudio realizado por la revista científica PNAS (Proceedings of the National Academy of Sciences of the United States of America), “los rostros generados sintéticamente no sólo son fotorrealistas, sino que son casi indistinguibles de los reales y además se consideran más fiables”. 

La síntesis de audio, imagen y video impulsada por inteligencia artificial (IA) ha democratizado el acceso a la tecnología de efectos especiales de grado Hollywood que era de carácter exclusivo anteriormente. Desde sintetizar el habla en la voz de cualquier persona, hasta sintetizar una imagen de una persona ficticia e intercambiar la identidad de una persona con otra o alterar lo que dice en un video, el contenido sintetizado por IA tiene el poder de entretener pero también engañar.

La diferencia entre una persona real y una réplica robótica siempre había estado clara hasta ahora. Por muy parecidos que pudieran ser, lo que nos permitía diferenciar ambos rostros, es algo conocido como el “valle inquietante”, hipótesis desarrollada en 1970 por el experto en robótica Masahiro Mori, la cual se basaba en que cuando las réplicas robóticas tienden a parecerse demasiado a los humanos, tanto en movimientos como en aspecto, nos causan una especie de rechazo entre los que estamos contemplándolas.

Sin embargo, los investigadores de este reciente estudio han confirmado que este efecto ya se ha conseguido sobrepasar.

En el ejercicio que llevaron a cabo para confirmar esta hipótesis, se utilizaron rostros de hombres y mujeres de raza negra, asiática y caucásica, y se llegaron a recopilar 400 imágenes reales y 400 digitales.

A continuación, se seleccionaron tres grupos de personas para llevar a cabo el estudio. El primero contó con 315 personas que tenían que distinguir entre 128 imágenes cuáles eran reales y cuáles digitales. El segundo grupo, de 219 participantes, recibió formación y soporte por parte de los investigadores para detectar las imágenes falsas. Y el último grupo, de 223 participantes, tenía que valorar en una escala de uno (muy poco fiable) a siete (muy fiable) una selección de 128 imágenes.

El primer grupo obtuvo una media del 48,2% de aciertos al distinguir entre las imágenes verdaderas y las falsas, un porcentaje similar al que hubieran conseguido si hubieran contestado al azar, lo que presumiblemente se achaca a que ya algunas caras sintéticas simplemente no contienen artefactos detectables por percepción.

El segundo grupo, que contó con ayuda de los investigadores, obtuvo solo un 59% de acierto. Y el tercero, el que evaluó la confianza que le generaban los rostros, dio una puntuación media de 4,82 a los rostros sintéticos, superando en fiabilidad a la puntuación de 4,48 que obtuvieron los rostros reales.

“No estamos diciendo que todas las imágenes generadas sean indistinguibles de un rostro real, pero un número significativo de ellas ya sí lo son”, asegura Sophie Nightingale, profesora de psicología en la Universidad de Lancaster, en el Reino Unido, y coautora del estudio publicado en la revista Proceedings of the National Academy of Sciences, de EE.UU.

Sobre todo, los Deepfakes se utilizan para inducir a error a las personas receptoras, por lo que suponen una gran amenaza para la sociedad actual, pudiendo facilitar la desinformación y que la ciudadanía pase a desconfiar de cualquier fuente de información.

La capacidad de parecer tan reales viene dada por la capacidad de modelado que tienen los programas informáticos dedicados a realizar los Deepfakes, que tratan de asemejarse lo más posible al funcionamiento de las redes neuronales y del cerebro humano, facilitando que nuestros sesgos cognitivos y esquemas mentales nos traicionen.

Los Deepfakes utilizan el aprendizaje automático de la inteligencia artificial. Esta tecnología se basa en sofisticados algoritmos que son capaces de analizar si un archivo es real o si está alterado y, de esta forma, la inteligencia artificial puede ir mejorando cada vez más en la labor de falsificar de manera más fidedigna. Los Deepfakes pueden ser generados directamente por softwares u ordenadores especializados en este aprendizaje automático, sin necesidad de intervención humana.

Por ello, los autores del estudio terminaron con una conclusión clave tras enfatizar el peligro de los usos engañosos de las falsificaciones profundas: “Alentamos a quienes desarrollan estas tecnologías a considerar si los riesgos asociados son mayores que sus beneficios”, escriben. “Si es así, desalentamos el desarrollo de tecnología simplemente porque es posible”.

“En este momento crucial, y como lo han hecho otros campos científicos y de ingeniería, alentamos a la comunidad gráfica y visual a desarrollar pautas para la creación y distribución de tecnologías de medios sintéticos que incorporen pautas éticas para investigadores, editores y distribuidores de medios”, concluyeron.

Redacción de LISA News

Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img