spot_img

La Unión Europea aprueba la primera ley del mundo para regular la inteligencia artificial

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.

Las instituciones europeas cierran un acuerdo provisional tras superar sus diferencias en torno a la vigilancia biométrica y la regulación de los modelos funcionales como ChatGPT.

La Unión Europea será la primera región del mundo en regular de forma completa los usos de la inteligencia artificial (IA). Tras tres días de intensas negociaciones, a principios de diciembre de 2023 la Eurocámara y los Estados miembros han aprobado un acuerdo sobre el texto de la primera normativa para regular la inteligencia artificial. Aunque queda pendiente que el Parlamento Europeo y el Consejo de la Unión ratifiquen el acuerdo, Brando Benifei, legislador italiano que codirige los esfuerzos de negociación del organismo, aseguró que ya está cerrado y eso no es más que una formalidad. Está previsto que el Parlamento Europeo vote sobre la ley a principios del próximo 2024.

La Comisión Europea propuso por primera vez en 2021 un marco jurídico uniforme para el desarrollo, comercialización y uso de la inteligencia artificial en la Unión Europea. En 2023, tras el acuerdo político de los eurodiputados con el Consejo, el Parlamento Europeo afirma en una nota de prensa que “este reglamento tiene como objetivo garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la IA de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en líder en este campo. Las reglas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto”. 

➡️ Te puede interesar: Cómo la Unión Europea se está adaptando a la era digital

Tras su publicación definitiva se abrirá un plazo de dos años para su aplicación plena, aunque se podrá adelantar la entrada en vigor de algunos puntos, asegura el Consejo Europeo. La ley en su totalidad no entrará en vigor hasta al menos 2025 o 2026. Sin embargo, está previsto que la Oficina de IA empiece a funcionar en cuanto se ratifique el reglamento, mientras que la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los doce.

Principales elementos del acuerdo provisional

“La Ley de IA establece normas para los grandes y potentes modelos de IA, garantizando que no presenten riesgos sistémicos para la UE y ofrece sólidas salvaguardias para nuestros ciudadanos y nuestras democracias frente a cualquier abuso de la tecnología por parte de las autoridades públicas. Protege a nuestras empresas, refuerza nuestra capacidad para innovar y liderar en el campo de la IA y protege a los sectores vulnerables de nuestra economía”, resume el eurodiputado Dragos Tudorache.

El Parlamento Europeo enumera los principales logros del marco normativo:

  • Se acuerdan salvaguardias sobre la inteligencia artificial de propósito general;
  • Se limita el uso de sistemas de identificación biométrica por parte de las autoridades;
  • Se prohíben las aplicaciones de puntuación social y de IA utilizadas para manipular o explotar las vulnerabilidades de los usuarios;
  • Se garantiza el derecho de los consumidores a presentar quejas y recibir explicaciones significativas;
  • Se establecen multas que van desde 35 millones de euros o el 7% de la facturación global hasta 7,5 millones o el 1,5% de la facturación global.

Clasificación de la IA por sus riesgos 

El marco regulador se define en cuanto al nivel de riesgo de la IA: inaceptable, alto, limitado o mínimo/ nulo. Los sistemas clasificados con un riesgo inaceptable, es decir, “considerados una clara amenaza para la seguridad, los medios de vida y los derechos de las personas”, serán prohibidos. 

Dentro de los sistemas de alto riesgo se incluyen: 

  • Infraestructuras críticas. Por ejemplo, el transporte;
  • Formación educativa o profesional. Por ejemplo, la puntuación de los exámenes;
  • Componentes de seguridad de los productos. Por ejemplo, la aplicación de IA en cirugía asistida por robot;
  • Empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia. Por ejemplo, programas informáticos de selección de currículos para los procedimientos de contratación;
  • Servicios públicos y privados esenciales. Por ejemplo, calificación crediticia que deniegue a los ciudadanos la oportunidad de obtener un préstamo;
  • La aplicación de la ley que pueda interferir con los derechos fundamentales de las personas. Por ejemplo, evaluación de la fiabilidad de las pruebas;
  • La gestión de la migración, el asilo y el control fronterizo. Por ejemplo, verificación de la autenticidad de los documentos de viaje;
  • La administración de justicia y procesos democráticos. Por ejemplo, aplicación de la ley a un conjunto concreto de hechos.

El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia, los usuarios deben ser conscientes de que están interactuando con una máquina al utilizar sistemas como los chatbots. Por último, las aplicaciones como videojuegos habilitados para IA o filtros de spam son de riesgo mínimo o nulo. 

➡️ Te puede interesar: Inteligencia Artificial: tipos y legislación

Estricta regulación de la vigilancia biométrica 

“Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a estrictos requisitos”, afirma la propuesta. Uno de los puntos más controvertidos de las negociaciones fue el uso de cámaras de identificación biométrica para garantizar la seguridad nacional y prevenir delitos como el terrorismo o la protección de infraestructuras. La norma prohíbe las cámaras de reconocimiento facial en espacios públicos, pero los gobiernos han presionado para permitirlas en casos concretos, con previa autorización judicial.

Estas tecnologías, como se puede ver en algunos países que no cumplen los requisitos democráticos, permiten una supervisión y control estatal que puede poner en peligro los derechos fundamentales de los ciudadanos. Por tanto, quedarán prohibidos los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza), los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales), sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).

Este tipo de sistemas de vigilancia sólo podrán ser empleados en tiempo real en espacios públicos por las fuerzas del orden, con previa autorización judicial y la lista de crímenes que lo autorice será muy restrictiva. “La RBI en tiempo real cumpliría condiciones estrictas y su uso estaría limitado en el tiempo y el lugar, a efectos de: búsquedas específicas de víctimas (secuestro, trata, explotación sexual), prevención de una amenaza terrorista específica y actual, o la localización o identificación de una persona sospechosa de haber cometido delitos como terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva o contra el medio ambiente”, según recoge la Eurocámara en un comunicado.

Transparencia obligatoria para los sistemas de inteligencia artificial generativa 

Otro punto caliente de las negociaciones fue la regulación de los sistemas de inteligencia artificial generativa en los que se basan modelos como Chat GPT, de OpenAI, o Bard, de Google. Estos sistemas, también conocidos como modelos lingüísticos de gran tamaño, se entrenan con enormes cantidades de obras escritas e imágenes extraídas de internet. Proporcionan a los sistemas de IA generativa la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas siguiendo reglas predeterminadas.

➡️ Te puede interesar: ¿Qué es ChatGPT y cómo puede revolucionar la Inteligencia artificial?

A finales de noviembre 2023  Alemania, Francia e Italia pidieron regular la aplicación de estos sistemas, pero no la tecnología en sí. Sin embargo, la Eurocámara se ha opuesto a esta posición. Finalmente, estos sistemas de IA tendrán que cumplir criterios de transparencia, como especificar claramente que los sonidos, imágenes y textos se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor. 

Además, los modelos fundacionales más avanzados que planteen los mayores “riesgos sistémicos” serán objeto de un escrutinio adicional, que incluirá la obligación de revelar más información, como la potencia de cómputo utilizada para entrenar los sistemas. Los investigadores han advertido que estos potentes modelos fundacionales podrían utilizarse para potenciar la desinformación y la manipulación en línea, los ciberataques o la creación de armas biológicas.

➡️ Te puede interesar: Curso de Experto en Detección de la Desinformación y Fake News

Sanciones

A diferencia de los códigos de conducta voluntarios de ciertos países, la legislación europea estará dotada de medios de vigilancia y sanciones, con multas de entre 35 millones de euros o el 7% de la facturación global y 7,5 millones o el 1,5% de la facturación, dependiendo de la infracción y el tamaño de la empresa.

No todos están contentos 

Algunas tecnológicas europeas temen perder competitividad. 150 directivos de empresas como Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour, firmaron en junio una carta abierta contra la regulación en la UE al considerar que la norma afectará a “la competitividad y la soberanía tecnológica de Europa sin abordar de manera efectiva los desafíos que enfrentamos y enfrentaremos”.

Asimismo, la Asociación de la Industria de la Informática y las Comunicaciones (CCIA Europa) ha emitido un comunicado en el que han criticado que «se sacrificó una legislación sobre IA preparada para el futuro en aras de un acuerdo rápido». Aseguran que al acuerdo le faltan detalles importantes y advierten que es posible que ralentice la innovación en Europa. 

Artículo escrito por:

Laura Ruiz Sancho. Periodista. Apasionada de la geopolítica y siempre con un ojo puesto en la actualidad internacional. Experta profesional en terrorismo yihadista por la UNED y Máster en Verificación Digital y Periodismo de datos (CEU).

Te puede interesar:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img