spot_img

¿Cómo sería una Ley de Inteligencia Artificial de la Unión Europea?

Análisis

María Belén Agüera Martínez
María Belén Agüera Martínez
Estudiante de Relaciones Internacionales con gran interés en análisis de los conflictos armados, tecnología y ciberseguridad.

El próximo 11 de mayo la Unión Europea votará la propuesta de Ley de inteligencia artificial (IA) en un contexto de alerta ante el desarrollo y avance de IA generativas como ChatGPT o Midjourney. En este artículo te explicamos cuál es la propuesta y qué podemos esperar.

En los últimos meses, la popular Inteligencia Artificial, también conocida por sus siglas, IA de OpenAI, ChatGPT, ha tenido que lidiar con dos problemas en Europa. El primero ha sido la carta en la que un millar de referentes del mundo tecnológico admiten su preocupación por GPT-4 y piden una reflexión profunda antes de seguir con IAs más avanzadas. El segundo fue la decisión de las autoridades italianas de bloquear la herramienta entre recelos por su uso de los datos y el efecto dominó que podría desarrollarse en la Unión Europa a raíz de esta decisión.

Pero el debate sobre cómo regular la Inteligencia Artificial en la Unión Europea no es nuevo. La Ley de Inteligencia Artificial (IA Act) fue propuesta originalmente por la Comisión Europea en abril de 2021. Sin embargo, no fue hasta finales de 2022 cuando el Consejo Europeo adoptó una posición de enfoque general sobre la legislación, que es la que actualmente se está debatiendo en el Parlamento Europeo.

Esta propuesta de ley europea sobre Inteligencia Artificial (IA) y la primera ley sobre IA por un regulador importante en cualquier lugar, se votará el 11 de mayo en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios. De este acuerdo saldría la propuesta para el Parlamento Europeo y que se votaría en el pleno de la UE. El Reglamento Europeo de la IA que se está preparando en la actualidad se aplicará, al ser un reglamento, inmediatamente a los 27 sin necesidad de transponerlo a la normativa nacional.

Te puede interesar: Curso de Experto en la Unión Europea

Aun así, la propuesta que se presentará en la UE en las próximas semanas no será definitiva, y aún podrá cambiar hasta su puesta en vigor como normativa general en Europa. Según algunos expertos, aunque todavía no es concluyente y puede que se tarden años hasta que se convierta en una ley, puede que estemos ante una normativa histórica.

Cómo decimos, a pesar de que aún esta propuesta está en el aire, varios países de la Unión ya se han mostrado contrarios al camino que están siguiendo las empresas de Inteligencia Artificial como es el caso de Italia donde se prohibió por considerarse que no se estaba respetando la privacidad de los usuarios. El organismo italiano encargado de la protección de datos, el GPDP —Garante para la Protección de Datos Personales—, decidió bloquear la IA en el país tras detectar dos peculiaridades: una recogida de datos ilícita y la falta de un sistema que permita verificar la edad de los menores. La medida es temporal y ha dado a la compañía 20 días para que demuestre su cumplimiento de la ley. De momento, se ha abierto una investigación.

El organismo italiano lamenta la falta de información y pone la lupa en la recogida de datos personales. “No se proporciona información a los usuarios ni interesados cuyos datos recopila OpenAI. Y lo que es más importante, no parece haber ninguna base jurídica que justifique la recopilación y procesamiento masivos de datos personales para ‘entrenar’ los algoritmos en los que se basa la plataforma”, concluye.

Por su parte, los reguladores de Francia e Irlanda se han comunicado ya con sus homólogos italianos para lograr más información sobre el paso que acaban de dar. El ministro francés para la Transición Digital, Jean Noël-Barrot, se mostraba contrario a prohibir ChatGPT. En Alemania, se ha señalado que se podría dar alguna acción de este tipo. La Agencia de Protección de Datos en España no ha recibido ninguna reclamación sobre ChatGPT, pero aclara que “la Agencia sigue de cerca estos desarrollos tecnológicos, que pueden tener una relevante afectación para los derechos de las personas”.

OpenAI ha publicado un artículo en su blog en el que, entre otras cuestiones, aborda el uso de los datos y la privacidad de los usuarios. La firma, que responderá a Italia, señala que “queremos que nuestros modelos aprendan sobre el mundo, no sobre particulares. Nos esforzamos por eliminar información personal del conjunto de los datos de entrenamiento siempre que es posible”.

Ursula Pachi, subdirectora de la Organización Europea de Consumidores (BEUC), reivindicaba hace poco en una entrevista que el paso dado en Italia debe ser “una especie de llamada de atención para la Unión Europea”. “Aunque las instituciones europeas han estado trabajando en la Ley de IA, no será aplicable hasta dentro de cuatro años. Y vemos cómo de rápido se desarrollan”.

Te puede interesar: ¿Qué es ChatGPT y cómo puede revolucionar la Inteligencia artificial?

¿Cuál es la propuesta de Ley de Inteligencia Artificial de la Unión Europea?

La nueva propuesta de legislación de la Unión Europea que Ursula Pachi menciona se trata de la Ley de Inteligencia Artificial (IA Act). La ley se enfoca en mejorar las normas sobre calidad de datos, transparencia, supervisión humana y rendición de cuentas en el uso de la IA. Además, incluye un sistema de clasificación de cuatro niveles de riesgo para determinar el nivel de peligro que una tecnología de IA puede presentar. Los sistemas con riesgo limitado y mínimo pueden ser utilizados sin requisitos adicionales, mientras que los sistemas con riesgo inaceptable están prohibidos con pocas excepciones.

La Ley de Inteligencia Artificial propuesta por la Unión Europea establece un marco jurídico para regular el desarrollo y empleo de la IA. Se centra en reforzar las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas, abordando cuestiones éticas y retos de aplicación en distintos sectores. Incluye un sistema de clasificación de cuatro niveles de riesgo y exige pruebas rigurosas, documentación y supervisión humana para los sistemas de IA de alto riesgo. También establece normativas en torno a la IA de propósito general, que incluyen sistemas de IA generativa como ChatGPT.

Te puede interesar: Las amenazas de ChatGPT según Europol

“Con esta ley, la UE toma la iniciativa en el intento de hacer que los sistemas de IA se adapten al futuro que queremos como humanos”, declaró Kay Firth-Butterfield, responsable de IA del Foro Económico Mundial. Además, la Ley de Inteligencia Artificial propone sanciones severas para aquellos que no cumplan con ella, incluyendo multas de hasta 30 millones de euros o el 6% de los ingresos globales para las empresas.

La normativa busca así garantizar la confianza en la IA y proteger los derechos fundamentales de los ciudadanos de la UE. Además, la propuesta de ley contempla la creación de una Junta Europea de Inteligencia Artificial, encargada de supervisar la aplicación uniforme del reglamento en toda la UE y emitir dictámenes y recomendaciones sobre cuestiones relevantes.

Una vez que el Parlamento Europeo adopte su posición sobre la legislación, se iniciarán los diálogos tripartitos para llegar a un acuerdo sobre la aplicación de la ley. Según los funcionarios de la UE, este proceso suele ser largo, especialmente para textos legislativos complejos como la Ley de Inteligencia Artificial.

La aplicación de la Ley de Inteligencia Artificial de la Unión Europea en España

A partir de octubre de 2023, España será el primer país en probar este primer reglamento europeo con el objetivo de que el proyecto no tome a los países desprevenidos y que la experiencia obtenida en España se aplique luego en el resto de los países de la UE. El gobierno invertirá 4,3 millones de euros de los fondos de recuperación para sufragar los gastos del proyecto piloto, y la coordinación correrá a cargo de la Secretaría de Estado de Digitalización e Inteligencia Artificial —SEDIA—.

La SEDIA colaborará con expertos de Bruselas y con instituciones internacionales de investigación durante el desarrollo de las pruebas sobre las medidas de control de la IA. Además, el gobierno lanzará una convocatoria de interés para reclutar a empresas e instituciones que estén interesadas en participar en el proyecto piloto. 

Además, España destinará 5 millones de euros a la creación de una nueva Agencia de Supervisión de Algoritmos, cuyo lanzamiento definitivo está previsto para finales de este año. Una de las ideas es que las agencias de supervisión de algoritmos del continente puedan compartir información y coordinar sus acciones.

Te puede interesar: La Inteligencia Artificial y el futuro de la guerra

La aplicación de la Ley de Inteligencia Artificial de la Unión Europea en Francia

Por otro lado, el gobierno francés está desafiando a la UE al plantearse la aprobación de un proyecto de ley que permita el uso de cámaras de vigilancia con algoritmos de Inteligencia Artificial para garantizar la seguridad en los Juegos Olímpicos y Paralímpicos de París en 2024. La tecnología permitiría detectar movimientos sospechosos u objetos abandonados y notificar a la policía en tiempo real.

Sin embargo, esta medida ha generado preocupación en grupos de derechos humanos y la oposición debido a la posible violación de la privacidad y los derechos fundamentales. La Comisión Nacional de Informática y Libertades ha recomendado modificar algunos aspectos del proyecto para reforzar las garantías de protección de la privacidad siguiendo la propuesta de ley de la UE.

Mher Hakobyan, asesor de Amnistía Internacional, ha expresado su preocupación por la decisión de Francia, ya que podría socavar las iniciativas en curso de la Unión Europea para regular la IA y proteger los derechos fundamentales. Además, legalizaría el empleo de la vigilancia asistida por IA por primera vez en Francia y la UE. La tecnología de vigilancia masiva asistida por IA plantea serias preocupaciones sobre la privacidad y los derechos humanos, aunque puede ser útil para la seguridad pública.

Te puede interesar: ¿Qué es la Vigilancia Tecnológica? 

“Podemos temer que el reconocimiento facial sea el siguiente paso (…) Lo vimos con Rusia que puso el reconocimiento facial para la Copa del Mundo, ahora unos años más tarde, la tecnología se utilizó para detener a manifestantes pacíficos”, apuntó Katia Roux, responsable de tecnología y derechos humanos en Amnistía Internacional.

Varios grupos de defensa de los derechos y la oposición francesa consideran que el uso de cámaras con algoritmos es una línea roja, aunque el gobierno francés se defiende sosteniendo que la instalación de cámaras “aumentadas” es simplemente experimental y tiene un límite de tiempo y espacio. El camino que marquen Francia e Italia, de la mano -o no- de la Unión Europea podría marcar el futuro de la regulación europea en relación a la Inteligencia Artificial.

Tal y como asegura la Organización Europea de Consumidores (BEUC), la federación de 46 organizaciones de consumidores europeos, “ChatGPT es la punta del iceberg”. BEUC, que ha emitido un requerimiento a la UE y a las autoridades nacionales para investigar OpenAI y organizaciones similares, asegura estar alarmada por la velocidad con la que ChatGPT y sistemas similares se están desarrollando e implantando con la correspondiente desprotección de los usuarios, a los que la Ley de IA aún dejará desprotegidos un par de años hasta entrar en vigor. 

Además, hay que tener en cuenta que las herramientas basadas en IA cuando se presentó la propuesta de reglamento hace ya casi dos años no estaban tan desarrolladas como en la actualidad. Esto plantea el debate de que si bien la UE sí está a tiempo de incluirlas en esta normativa, ¿qué ocurrirá con los avances que se hayan desarrollado y evolucionado de aquí a que finalmente se apruebe?.

Te puede interesar:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img