DDHHUn programa de "policía inteligente" podría socavar DD. HH. en Grecia

Un programa de “policía inteligente” podría socavar DD. HH. en Grecia

Análisis

Redacción de LISA News
Redacción de LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Grecia estaría trabajando en un nuevo programa policial para escanear caras y huellas dactilares de las personas. Según denuncia Human Rights Watch y Homo Digitalis, este programa para recopilar información biométrica “a gran escala” es “inconsistente con las normas internacionales de derechos humanos sobre privacidad”.

Las organizaciones advierten que es probable que “amplifique la discriminación” y la “práctica ilegal de elaboración de perfiles raciales”. También destacan su preocupación, sobre todo, en lo relativo a los derechos de las personas migrantes.

En este sentido, el programa, financiado por la UE, permitiría a la policía recopilar información biométrica a “gran escala” y compararla con las bases de datos de la policía, inmigración y sector privado. Para Belkis Wille, investigador senior de crisis y conflictos de Human Rights Watch, “la Comisión Europea está financiando un programa que ayudará a la policía griega a atacar y acosar a refugiados, solicitantes de asilo y grupos minoritarios”.

Según el comunicado de las organizaciones, la policía recibirá dispositivos inteligentes con software integrado que les permitirá escanear matrículas de vehículos, recoger huellas dactilares y escanear caras. Según las especificaciones técnicas, el sistema eliminará los escaneos de huellas dactilares inmediatamente si no hay coincidencia, pero almacenará fotografías durante siete días.

Si el sistema encuentra una coincidencia para las huellas dactilares, fotografías o escaneos faciales, los datos se conservarán durante un período de tiempo no especificado.

Según denuncian las organizaciones, en su forma actual, el nuevo programa no cumpliría con la ley griega y europea. La Directiva 2016/680 de la UE, conocida como Directiva de Autoridades de Policía y Justicia Penal o Directiva de Aplicación de la Ley (LED), es una legislación paralela al GDPR, el régimen de protección de datos y privacidad de la UE, que se ocupa del procesamiento de datos personales con fines policiales.

Desde agosto de 2020, la Autoridad Helénica de Protección de Datos (DPA) ha estado investigando la legalidad de este programa de “policía inteligente”, a raíz de una solicitud relacionada presentada por la organización griega de derechos digitales Homo Digitalis.

“Las autoridades griegas tienen otras herramientas a su disposición para hacer cumplir las leyes de inmigración”, dijeron los grupos. Recopilar esta información biométrica a través del programa de “policía inteligente” y la intrusión significativa en la privacidad y la amenaza a los derechos de no discriminación que representa no es necesario ni proporcionado. “Grecia no debería avanzar con el programa”, aseguran.

El programa “Policía Inteligente” se anunció en una publicación de 2017 que anunciaba los próximos programas del Fondo de Seguridad Interna de la Comisión Europea, que existieron de 2014 a 2020 para promover “la implementación de la Estrategia de Seguridad Interna, la cooperación policial y la gestión de las fronteras exteriores de la Unión“. 

La policía griega dice que la nueva herramienta policial será una forma más “eficiente” de identificar a las personas con estatus migratorio irregular que el protocolo actual de llevar a las personas sin documentos de identificación a la estación de policía más cercana.

El programa costará aproximadamente 4,5 millones de euros, el 75% financiado por el Fondo de Seguridad Interior de la Comisión Europea. El inicio del programa se planeó inicialmente para principios de 2021 y luego se retrasó hasta agosto debido a las restricciones relacionadas con Covid-19.

Uso policial de la inteligencia artificial en la UE

El pasado octubre, el Parlamento Europeo lanzó un comunicado de prensa en el que se expresaba en contra de la vigilancia masiva y aseguraba que el uso de la inteligencia artificial en el trabajo policial requiere garantías sólidas y debe prevenir la discriminación y garantizar el derecho a la privacidad.

En una resolución adoptada con 377 votos a favor, 248 en contra y 62 abstenciones, los eurodiputados advierten de los sesgos en que incurren los algoritmos y enfatiza la necesidad de incorporar supervisión humana y controles jurídicos para evitar discriminación, en particular cuando se utiliza la inteligencia artificial en los controles fronterizos. Las decisiones finales siempre deben adoptarlas personas, recalcan los eurodiputados, y las personas sujetas a este tipo de herramientas han de poder apelar sus decisiones.

La resolución hacía hincapié en que muchas tecnologías de identificación basadas en algoritmos cometen más errores al identificar y clasificar a personas racializadas o pertenecientes a determinadas comunidades étnicas, a personas LGBTI, a niños y personas mayores, y también a mujeres.

Para garantizar el respeto de los derechos fundamentales, los eurodiputados piden que los algoritmos sean transparentes, rastreables y dejar huella documental. Siempre que sea posible, las autoridades deben utilizar programas de código abierto para contribuir también a la transparencia.

En aras de la privacidad y la dignidad humana, los eurodiputados instar a prohibir de manera permanente los sistemas de reconocimiento automático en espacios públicos, y dejan claro que los ciudadanos sólo deben ser sometidos a vigilancia si son sospechosos de haber cometido un delito. Las bases de datos privadas de reconocimiento facial (como Clearview, que ya funciona) y las técnicas predictivas basadas en datos de comportamiento deben quedar también prohibidas, agrega el PE.

Los eurodiputados rechazan, asimismo, los sistemas de puntuación social de los ciudadanos a los que se otorga una clasificación en función de su comportamiento o personalidad.

El Parlamento también está preocupado por la utilización de datos biométricos para la identificación a distancia de personas. El texto alude en concreto al proyecto iBorderCtrl, un «sistema inteligente de detección de mentiras» y que se ha usado en pruebas en Hungría, Letonia y Grecia en el marco del control de entradas en territorio europeo. Los eurodiputados animan a la Comisión a iniciar procedimientos de infracción contra los Estados miembros en caso necesario.

Redacción de LISA News

Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img