spot_img

La realidad vuelve a superar a la ficción: predicción delictiva con IA

Análisis

Paula Aparicio
Paula Aparicio
Criminóloga con formación académica en ciberseguridad, ciberinteligencia e informes criminológicos y experiencia en análisis de datos, gestión de proyectos y comunicación estratégica. Actualmente, en proceso de obtener certificaciones técnicas en OSINT, gestión de incidentes y análisis forense digital y comprometida con el aprendizaje continuo, la contribución al desarrollo de soluciones innovadoras en el ámbito de la seguridad y la prevención del delito.

A medida que la inteligencia artificial avanza, su impacto en la seguridad y la prevención del crimen se vuelve cada vez más evidente. Este artículo analiza el papel de la IA generativa en este ámbito, con un enfoque en el software Dejaview y sus aplicaciones. También exploramos los riesgos éticos y legales que conlleva su uso, así como el debate sobre su implementación en distintos países.

La evolución de la Inteligencia Artificial (IA) es un hecho. Sin embargo, no ha sido hasta la llegada de la IA generativa que hemos comprendido el cambio que está a punto de experimentar nuestra sociedad y el paradigma de la seguridad. Esta tecnología no solo utiliza algoritmos, sino que permite que las máquinas aprendan del pasado y generen escenarios futuros con niveles de precisión y profundidad sin precedentes.

¿Qué es la IA generativa?

A diferencia de los sistemas tradicionales de IA utilizados hasta ahora, que solo identificaban patrones en los datos, la IA generativa tiene la capacidad de generar contenido original. Esto incluye textos, imágenes o modelos predictivos. En el contexto de la inteligencia, esto significa que la IA generativa podrá simular situaciones hipotéticas basadas en datos históricos, comportamientos humanos y factores contextuales.

Así es como funciona precisamente el software coreano Dejaview, desarrollado por el Electronics and Telecommunications Research Institute (ETRI). Este software se basa en el enfoque «change-based approach», el cual permite identificar comportamientos sospechosos y situaciones de alto riesgo mediante el análisis de datos históricos. En concreto, utiliza más de 32.656 incidentes grabados por cámaras de circuito cerrado (CCTV).

➡️ Te puede interesar: Cómo la inteligencia artificial transformará las capacidades humanas, de las empresas y de las instituciones en 2025

Junto con la colaboración del distrito de Seocho en Seúl, ETRI desarrolló un mapeo predictivo del crimen (PCM), el cual categorizaba los delitos violentos, los delitos de tráfico e incluso los incendios, teniendo en cuenta la localización y la hora.

Según Ji-min (2024), Dejaview puede evaluar situaciones en tiempo real, ofreciendo a las fuerzas y cuerpos de seguridad del Estado una herramienta muy útil para garantizar la seguridad ciudadana. Este software ha demostrado una precisión del 82,8%, lo que podría suponer una mejora significativa en la prevención del crimen y en la capacidad de respuesta policial.

Características del software Dejaview

Mapa predictivo de delitos (PCM): es un mapa que incluye una variedad de datos relacionados con los delitos. Esto abarca la probabilidad de ocurrencia de delitos por tiempo y área, así como estadísticas criminales. Su objetivo es permitir a los controladores de delitos anticipar y responder a posibles amenazas.

Basado en estadísticas criminales desde 2018, el sistema identifica áreas con alta probabilidad de actividad delictiva. Además, categoriza los incidentes por localización, tipo de incidente y hora.

Detección en tiempo real: este sistema analiza las grabaciones de cámaras de circuito cerrado (CCTV) y detecta comportamientos sospechosos. Por ejemplo, dos hombres acercándose a una mujer sentada sola a altas horas de la noche.

Change-based-approach (Predicción basada en el comportamiento): este enfoque consiste en detectar individuos de alto riesgo delictivo analizando sus movimientos, comportamientos e incluso emociones.

En el comunicado de prensa del pasado 18 de julio de 2024, Kim Geon-woo, investigador principal del Departamento de Investigación de Seguridad de Convergencia de IA de ETRI, afirmó: «Hemos desarrollado con éxito una tecnología de seguridad de vídeo que utiliza información de CCTV para predecir y prevenir la posibilidad de actividades delictivas, yendo más allá de la simple detección de la ocurrencia de un delito. Gracias a esta tecnología, hemos sentado las bases técnicas que nos permitirán dar el salto al siguiente nivel y desarrollar un sistema de seguridad social avanzado y futurista».

Controversia y debate sobre las herramientas de IA

Como indica Monforte (2023), no consta que en España se empleen oficialmente herramientas de IA predictiva en la actualidad. Sin embargo, es relevante mencionar el sistema de evaluación de riesgos VioGén, desarrollado por la Secretaría de Estado de Seguridad del Ministerio del Interior.

➡️ Te puede interesar: ¿Cómo la inteligencia artificial está transformando la Defensa y la seguridad global?

Este sistema opera en cumplimiento de la Ley Orgánica 1/2004, de 28 de diciembre, de Medidas de Protección Integral contra la Violencia de Género, y fue puesto en funcionamiento el 26 de julio de 2007.

Según Monforte (2023) existen cuatro potenciales riesgos en contraposición a los posibles beneficios.

1. Posible falta de precisión y potencial discriminatorio de los sistemas IA

En el caso de las herramientas de predicción y evaluación de riesgos utilizadas por las fuerzas de seguridad, surge un problema clave: el uso de datos provenientes de bases policiales antiguas. Muchas de ellas fueron recopiladas en una época marcada por los llamados métodos «sucios» o poco regulados, conocida como la era de la «dirty police».

Esto supone un doble riesgo. Por un lado, la baja calidad de los datos puede generar resultados deficientes. Por otro, existe la posibilidad de perpetuar patrones problemáticos que deberían haberse superado.

2. Posible vulneración del derecho a la privacidad y a la protección de datos personales

Esto hace alusión a la posible vulneración del derecho a la privacidad y a la protección de datos personales. En particular, lo dispuesto en el artículo 4 del RGPD, en consonancia con el artículo 5 de la LO 7/2021, de 26 de mayo, sobre protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales, así como para la ejecución de sanciones.

Además, debe considerarse lo establecido en el artículo 18 de la Constitución Española y en la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

3. Posible existencia de brechas de seguridad en los sistemas

La información gestionada en la investigación criminal es extremadamente sensible, y la inteligencia artificial, a su vez, es una tecnología especialmente vulnerable a ciberataques y filtraciones no deseadas. Por lo tanto, es fundamental priorizar la seguridad, ya que cualquier brecha en este ámbito podría desencadenar consecuencias graves e irreversibles.

4. Posible falta de transparencia

Por último, Monforte (2023) considera que la transparencia es el eje en torno al que todo gira, habida cuenta de que resulta absolutamente imposible verificar la calidad de los sistemas (si vulneran o no derechos fundamentales, cuál es la naturaleza de los datos empleados, qué niveles de precisión se manejan, etc.), si estos no son transparentes.

Esta tecnología, aunque pueda parecer más propia de la ciencia ficción, nos recuerda a la película Minority Report. Este filme está basado en la obra de 1956 de Philip K. Dick, titulada «El informe de la minoría», y ambientada en el norte de Virginia en el año 2054.

➡️ Te puede interesar: ¿Cómo la inteligencia artificial está transformando la ciberseguridad?

En la historia, el protagonista trabaja en un departamento de policía especializado, conocido como PreCrimen, que detiene a los delincuentes basándose en el conocimiento previo facilitado por tres psíquicos llamados «precognitivos». Sin embargo, esta tecnología ya es una realidad.

Margarethe Vestager, Vicepresidenta de la Comisión Europea (2019-2024) opina que

 «La IA no es buena ni mala, pero marcará el comienzo de una era global de complejidad y ambigüedad. En Europa hemos diseñado un reglamento que refleja esto. Probablemente, más que cualquier otra pieza de legislación de la UE, ésta requirió un cuidadoso acto de equilibrio: entre poder y responsabilidad, entre innovación y confianza, y entre libertad y seguridad».

➡️ Si quieres adentrarte en el mundo de la Inteligencia y la ciberseguridad y adquirir habilidades profesionales, te recomendamos los siguientes programas formativos:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img