spot_img

Tendencias e impacto de los “deepfakes” en la actividad criminal

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Europol ha emitido un informe sobre los nuevos retos y tendencias de seguridad de los deepfakes y su impacto en el crimen. En este artículo damos las claves del informe sobre cómo éstos impactan en la democracia y en la actividad de los cuerpos de seguridad nacionales, el rol de las plataformas digitales y qué hace la Unión Europea para contrarrestar esta amenaza.

En la actualidad, los actores que amenazan la seguridad global utilizan campañas de desinformación y contenido deepfake para desinformar al público sobre los acontecimientos, y de esta manera influir políticamente, como en procesos electorales, contribuir al fraude e incluso manipular a accionistas en contextos empresariales.

Según Europol, los deepfakes son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial de modo que parezcan originales, auténticos y reales. Éstos suelen utilizarse para inducir a error a las personas receptoras de los archivos, ya sea haciendo que un político diga algo en un vídeo que realmente nunca dijo para afectarle en una campaña política cerca de unas elecciones, o incluyendo la imagen de un famoso (o de cualquier persona) en un material pornográfico con el objetivo de perjudicarle o chantajearle.

El objetivo principal de los deepfakes es inducir a error a las personas receptoras, por lo que suponen una gran amenaza para la sociedad actual, pudiendo facilitar la desinformación y que la ciudadanía pase a desconfiar de cualquier fuente de información.

Desde este informe de Europol se ha mostrado la preocupación en este ámbito, donde muchas organizaciones han empezado a ver los deepfakes como un riesgo potencial aún mayor que la suplantación de identidad (para la que también pueden utilizarse), especialmente ahora que la mayoría de las interacciones se han trasladado a Internet desde la pandemia de COVID-19.

Esta preocupación, según señala el informe, también ha sido reflejada en un reciente informe del University College de Londres (UCL) que califica la tecnología deepfake como una de las mayores amenazas a las que se enfrenta la sociedad actual. Así aseguran que suponen un riesgo para los ciudadanos de la Unión Europea. En este sentido, desde Europol se comprometen, en su calidad de centro de información criminal para las organizaciones policiales, a seguir desempeñando su papel clave como apoyo a las autoridades del sector de la seguridad de los estados miembros de la organización, para así contrarrestar esta amenaza.

En el documento previamente mencionado, se ha presentado el primer análisis publicado por la organización desde su función de observatorio del Laboratorio de Innovación de Europol, centrándose en los deepfakes, la tecnología que los sustenta y su posible impacto en las fuerzas del orden para la aplicación de la ley y los ciudadanos de la UE. La función de observatorio de este laboratorio es supervisar los desarrollos tecnológicos que son relevantes para la aplicación de la ley e informar sobre los riesgos, amenazas y las oportunidades de estas tecnologías emergentes.

Entre los recursos con los que cuentan los deepfakes, es el uso de la Inteligencia Artificial, lo que le permite manipular contenidos audiovisuales que muestran de forma convincente a personas diciendo o haciendo cosas que nunca hicieron, e incluso llegando a crear personas que nunca existieron.

El Laboratorio de Innovación de Europol ha organizado tres actividades de prospectiva estratégica con los organismos policiales de los miembros de la UE y otros expertos. Durante el desarrollo de estas más de 80 expertos en aplicación de la ley identificaron y analizaron las tendencias y tecnologías que creen que afectarán a su trabajo hasta 2030. Estas sesiones mostraron que una de las tendencias tecnológicas más preocupantes es la evolución y la detección de deepfakes, así como la necesidad de abordar la desinformación en general.

En el sentido original y estricto, los deepfakes se difunden sobre todo con intenciones maliciosas, aunque ahora también se utilizan con frecuencia para aplicaciones positivas. Los expertos estiman que hasta el 90% de los contenidos pueden ser generados sintéticamente para 2026. Como “medios sintéticos” este informe emitido por Europol hace referencia a los generados o manipulados mediante inteligencia artificial (IA). En la mayoría de los casos, se generan para el juego, como forma de mejorar los servicios o la calidad de vida, pero el aumento de los medios sintéticos y la mejora de la tecnología ha dado lugar a posibilidades de desinformación, que incluyen los deepfakes.

Esta amenaza fue examinada y debatida en profundidad en una de las actividades de prospectiva estratégica del Laboratorio de Innovación de Europol. Los expertos que participaron en estas actividades expresaron su “preocupación por las consecuencias de la desinformación, las noticias falsas y las redes sociales en el discurso político y social”.

“Su impacto en la privacidad y la seguridad personal dará lugar sin duda a en nuevas categorías de delitos que habrá que vigilar. Los participantes se mostraron especialmente preocupados por la militarización de las redes sociales y el impacto de la desinformación en el discurso público y la cohesión social”, aseguran en el informe.

Como ejemplo se ha denunciado la revelación por parte de Estados Unidos de un complot ruso para utilizar vídeos falsos para justificar una invasión de Ucrania este año. Después de que se produjera la invasión funcionarios del gobierno ucraniano también advirtieron de que Rusia podría difundir deepfakes que mostraran al presidente ucraniano Volodymyr Zelenskyy rindiéndose.

Tendencias de los deepfakes en el crimen e impacto en la actividad de los cuerpos de seguridad

Los expertos que participaron en las actividades de prospectiva citaron varias tendencias a las que las fuerzas de seguridad europeas deberían estar atentas. Cabe destacar la delincuencia como servicio (CaaS), en el que los delincuentes venden el acceso a las herramientas, tecnologías y conocimientos para facilitar la ciberdelincuencia.

Se espera que el CaaS evolucione en paralelo con las tecnologías actuales, dando lugar a la automatización de delitos como la piratería, el aprendizaje automático adverso y los propios deepfakes. También avisaron que los actores criminales van a ser los primeros en adoptar las nuevas tecnologías, encontrándose siempre un paso por delante de las fuerzas de seguridad en su implementación, uso y adaptación.

Los expertos prevén que la creciente disponibilidad de desinformación y deepfakes tenga un profundo impacto en la forma en que la gente percibe la autoridad y los medios de información debido al creciente volumen de deepfakes, cae la confianza sobre la veracidad de los hechos oficiales. Sobre todo se teme en cómo afecta en la sociedad, ya que crea confusión sobre la fiabilidad de las fuentes oficiales, denominado como “apocalipsis de la información” o “apatía por la realidad”.

Es esencial ser consciente de esta manipulación y estar preparados para hacer frente al fenómeno, para distinguir entre el uso benigno y el malicioso de esta tecnología. Este informe sobre “Usos y abusos maliciosos de la inteligencia artificial” de Europol, TrendMicro y UNICRI16 incluye un estudio de caso sobre este tema.

El informe también muestra que la tecnología deepfake puede facilitar diversas actividades delictivas incluyendo extorsión y fraude, manipulación de la opinión pública, apoyo de narrativas extremistas o de grupos terroristas y pornografía infantil entre otros.

A pesar de que estas tecnologías, como muchas otras, sigan siendo utilizadas por grupos de ingenieros competentes y grupos de información, las capacidades de deepfake son cada vez más accesibles para las masas a través de aplicaciones y sitios web. El aumento de la demanda de deepfakes también ha llevado a la creación de varias empresas que las ofrecen como producto o incluso como servicio en línea. Recorded Future ha informado que hay actores dispuestos a pagar hasta 16.000 dólares por este tipo de servicio.

Impacto de los deepfakes en la actividad de los cuerpos de seguridad

Los expertos también han advertido sobre el impacto y la forma en la que afecta a los cuerpos de seguridad la generación de deepfakes. El material alterado en las redes sociales sobre eventos como manifestaciones puede hacer que la policía entre en acción donde no es necesario, o en el lugar equivocado.

En las investigaciones, las fuerzas del orden pueden perseguir al sospechoso equivocado de un delito cuando una versión deepfake del sospechoso huyendo de la escena del crimen se hace viral en las redes sociales, dando así al sospechoso la oportunidad de huir.

Utilizando deepfakes, la gente podría representar falsamente a los agentes de policía de la policía para desacreditarla o incluso incitar a la violencia contra los agentes. En una época en la que la desconfianza en las autoridades, los deepfakes y las grabaciones manipuladas pueden utilizarse para afectar negativamente a la opinión pública. El impacto de estas imágenes y filmaciones no debe subestimarse, especialmente cuando se combinan con la revelación de la identidad de los agentes supuestamente implicados.

Cómo deberían actuar los actores clave ante los deepfakes

De manera preventiva deben prestar especial atención las organizaciones que dependen de algún tipo de autorización por biometría facial de cara o de voz y evaluar el proceso de autorización en su conjunto. Actualmente se considera que aumentar la solidez de este proceso es una medida mejor que la mera implantación de sistemas específicos de detección de falsificaciones.

Entre las comprobaciones más comunes están la autorización audiovisual en lugar de solo audio, la petición de una conexión de video en directo, o la petición de extraños y diferentes actos ante la cámara como el mover las manos sobre la cara.

Diferentes empresas de tecnología han tomado diferentes acciones contra los deepfakes.  Los expertos avisan en el informe de que afectará la manera en que empresas tecnológicas como Twitter y Meta regulen la tecnología deepfake, generando un gran impacto en la forma en la que la gente se involucre y reaccione ante ellos.

Meta (propietaria de Facebook e Instagram) ha firmado tener la intención de eliminar deepfakes, o medios editados de otro modo, en los que “la manipulación no es evidente y podría inducir a error, especialmente en el caso de contenido de vídeo”. Así anunció en 2020 una nueva política prohibiéndolas en sus plataformas y dijo que eliminaría los contenidos editados con IA que pudieran engañar a la gente. Sin embargo añadió que la sátira o las parodias con la misma tecnología seguirían estando permitidas en las plataformas.

Por su parte TikTok ha prohibido las “falsificaciones digitales (medios sintéticos o manipulados) que engañan a los usuarios distorsionando la verdad de los hechos y causan un daño significativo al sujeto del vídeo, a otras personas o a la sociedad”.

Reddit “no permite contenidos que suplanten la identidad de personas o entidades de una manera engañosa o equívoca” Esto incluye explícitamente deepfakes “presentados para engañar, o atribuidos falsamente a un individuo o entidad”. YouTube tiene una prohibición existente para los medios manipulados bajo las políticas de spam, prácticas engañosas y estafas de las directrices de la comunidad.

Según Eurpol, las plataformas en línea podrían desempeñar un papel fundamental para ayudar a las víctimas de la tecnología deepfake a identificar al autor, pero aún está por ver en la práctica. Además, los proveedores de tecnología también tienen responsabilidades a la hora de salvaguardar el uso positivo y legal de sus tecnologías y cooperar con las fuerzas del orden.

Además de las políticas, varias empresas tecnológicas están trabajando en tecnologías de detección de deepfakes. El desarrollo de tecnologías de detección se convirtió en una prioridad durante la pandemia de COVID-19 y ha adquirido una nueva atención durante el actual conflicto entre Rusia y Ucrania.

La Unión Europea ante los deepfakes

En cuanto a las tendencias jurídicas, los participantes en las actividades de prospectiva señalaron que, tanto a nivel nacional como regional, la legislación europea lucha por seguir el ritmo de la evolución de la tecnología y las definiciones cambiantes de la delincuencia. Los participantes señalaron la necesidad de establecer nuevos marcos normativos que deben ser sensibles a los retos actuales de la aplicación de la ley (especialmente en el ámbito digital), así como a la evolución de las normas éticas.

La crisis de la COVID-19 trajo consigo un mayor debate sobre la regulación de la desinformación y las herramientas de detección de deepfakes, pero también un mayor uso de las herramientas de videoconferencia con fondos ajustables y otros filtros que introducen realidades digitales “manipuladas” en nuestra vida cotidiana.

El informe del Parlamento Europeo “Tackling Deepfakes in European Policy” explica y muestra que el panorama normativo en la Unión Europea relacionado con los deepfakes “comprende una compleja red de normas constitucionales, así como de regulaciones duras y blandas tanto a nivel tanto a nivel de la UE como de los Estados miembros”.

El marco normativo más relevante para la aplicación de la ley en este ámbito será el marco normativo de la IA (que está aún en fase de propuesta y no es aplicable todavía) propuesto por la Comisión Europea. El marco adopta un enfoque basado en el riesgo para la regulación de la IA y sus aplicaciones.

El software de detección de deepfakes utilizado por las autoridades policiales entra en la categoría de “alto riesgo”, ya que se considera que supone una amenaza a los derechos y libertades de las personas. El software de detección utilizado por las fuerzas del orden en el marco de la regulación de la Inteligencia Artificial sólo se permite bajo estrictas salvaguardias, como el empleo de sistemas de gestión de riesgos y prácticas adecuadas de gobernanza y gestión de datos.

Conclusiones del informe

Como muestra este informe para abordar eficazmente las amenazas de la tecnología deepfake, la legislación y la regulación deben tener en cuenta las necesidades de las fuerzas de seguridad.

Dentro del marco normativo, las fuerzas del orden, los proveedores de servicios en línea y otras organizaciones deben desarrollar sus políticas e invertir en tecnología de detección y prevención. Los responsables políticos y los organismos de la ley deben evaluar sus políticas y prácticas actuales, para adaptarlas para estar preparados para la nueva realidad de los deepfakes.

Las actividades de prospectiva estratégica llevadas a cabo por el Laboratorio de Innovación de Europol identificaron una serie de retos a los que tendrán que enfrentarse en la próxima década. Así identificaron riesgos asociados a la transformación digital, la adopción y el despliegue de nuevas tecnologías, el abuso de la tecnología emergente por parte de los ciberdelincuentes, la adaptación a las nuevas formas de trabajo y el mantenimiento de la confianza ante el aumento de la desinformación.

“Los actores de las amenazas harán un uso cada vez mayor de la tecnología deepfake para facilitar diversos actos delictivos y llevar a cabo campañas de desinformación para influir o distorsionar la opinión pública. Los avances en el aprendizaje automático y la inteligencia artificial seguirán mejorando las capacidades del software utilizado para crear deepfakes“, advierten en el informe.

Según los expertos, las GAN (Generic Access Network), la disponibilidad de conjuntos de datos públicos y el aumento de la potencia informática serán los principales impulsores de su desarrollo en el futuro y los harán más difíciles de distinguir de los contenidos auténticos.

Para hacerles frente a los retos que plantean las falsificaciones profundas, los organismos de la ley deben prepararse y formarse para la detección y garantizar la integridad de las pruebas electrónicas, desarrollando sus capacidades tal y como se describe en este informe. El marco normativo debe apoyar también los esfuerzos de preparación de las fuerzas de seguridad.

Te puede interesar:

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img