Las claves para entender la ley de inteligencia artificial de la Unión Europea

Análisis

Gabriela Andreea Gherghel
Gabriela Andreea Gherghel
Licenciada en Periodismo por la Universidad Complutense de Madrid. Apasionada por las Relaciones Internacionales y redactora polifacética con especial interés en la geopolítica y las interdependencias entre las principales potencias mundiales. Alumna certificada del Máster Profesional de Analista Internacional y Geopolítica de LISA Institute.

La Unión Europea será la primera región del mundo en regular el uso de la inteligencia artificial (IA). En este artículo, la alumna del Máster Profesional de Analista Internacional y Geopolítico de LISA Institute, Gabriela Andreea Gherghel, explica las claves para entender en qué consistirá esta nueva ley y cuáles son sus principales objetivos.

La inteligencia artificial (IA) se ha convertido en una herramienta diaria para algunos usuarios a través de la plataforma ChatGPT. Sin embargo, este sistema de chat es solo el principio, ya que esta tecnología ya es capaz de generar imágenes, audios e incluso vídeos con los datos recopilados de Internet. La IA cada vez desarrolla procedimientos más complejos y sofisticados en la obtención y elaboración de dicha información. Su evolución tecnológica e importancia son de tal magnitud que incluso se están desarrollando avances significativos de su uso en el ámbito militar y sanitario

Cabe mencionar que la IA funciona mediante el Machine Learning; es decir, los software de las máquinas son capaces de generar un aprendizaje automático a través de la continua recopilación de datos con el fin de mejorar su rendimiento y actualizar sus servicios. Esto es un hecho que preocupa a los expertos en ciberseguridad, ya que, si la inteligencia artificial no está regulada y no existe un control de su desarrollo y podría descontrolarse. Ese descontrol puede propiciar un verdadero peligro para los usuarios como consecuencia de la falta de protección de sus datos en la red. 

➡️ Te puede interesar: Masterclass | Geopolítica de la Tecnología en el nuevo orden internacional

En el way of living europeo este escenario es impensable. Desde el año 2018, la Unión Europea ha comenzado su carrera para garantizar la seguridad de los usuarios en lo que a inteligencia artificial respecta. Este objetivo se materializó con la publicación de la Estrategia europea sobre la inteligencia artificial en 2018, un documento que ha marcado la hoja de ruta en el sector.

Posteriormente, el 21 de abril de 2021, la Comisión Europea propuso un innovador marco regulatorio en materia de inteligencia artificial con el fin de fomentar su desarrollo, así como adopción en todo el mercado único europeo. La vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital, Margrethe Vestager, resumió esta acción en que:

“En cuanto a la inteligencia artificial, la confianza es una obligación, no un adorno. Mediante estas reglas de referencia, la UE lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA. Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar porque la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”.

No obstante, hasta el año 2023 no se llegó a un acuerdo político provisional entre el Consejo y el Parlamento Europeo para poner en marcha este marco jurídico tecnológico y que sea vinculante para los 27 Estados miembros. Sin embargo, cabe destacar que aunque por el momento sea un documento provisional todo apunta a que el resultado de la votación de este proyecto de ley será favorable cuando los eurodiputados ejerzan su voto en el Parlamento Europeo a principios del año 2024. 

➡️ Te puede interesar: Curso de Experto en la Unión Europea

Tal como se recoge en la normativa: “El proyecto de Reglamento tiene por objeto garantizar que los sistemas de IA introducidos en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. Esta propuesta histórica también tiene por objeto estimular la inversión y la innovación en materia de IA en Europa”. La presidenta de la Comisión Europea, Ursula von der Leyen, también se hizo eco del resultado favorable del acuerdo provisional. La presidenta destacó el papel prioritario que la Unión Europea le está otorgando a la alineación de la utilización de la inteligencia artificial con los valores europeos

Aunque el proyecto de ley solamente podrá aplicarse dos años después de su entrada en vigor, es decir, que hasta 2025 o 2026, esta normativa no sería vinculante en su totalidad. También se debe tener en cuenta que en 2024 se celebrarán las elecciones europeas y el papel protagonista que se le está dando actualmente a la regulación de la inteligencia artificial podría verse eclipsado por las directrices prioritarias surgidas tras la formación del nuevo Parlamento Europeo. A este condicionante también se suma el hecho de que en 2024 varios Estados miembros también celebran elecciones presidenciales como Portugal y Rumanía. 

➡️ Te puede interesar: Masterclass | Cómo analizar unas elecciones políticas: técnicas y métodos

No obstante, si esta ley queda ratificada por el Parlamento Europeo a principios de 2024, la Unión Europea se convertiría en la primera región del mundo en regular por completo el uso de la inteligencia artificial. Lo que colocaría a la Unión Europea nuevamente en la carrera tecnológica y competitiva en el campo de la inteligencia artificial en el que de momento Estados Unidos lleva la delantera. Sin embargo, ¿qué puntos comprende esta regulación legislativa? 

Principales objetivos del proyecto de ley de inteligencia artificial

La iniciativa legislativa funciona a través de un sistema basado en el riesgo, es decir, a mayor riesgo más estrictas serán las reglas a cumplir. Lo que se quiere conseguir es el establecimiento de un estándar global regulatorio de la inteligencia artificial que también se termine aplicando a otras jurisdicciones a nivel mundial, al ser la primera la europea. Con ello, la Unión Europea no solo garantizará el desarrollo de una inteligencia artificial fiable y segura para sus ciudadanos, sino también podrá exportar su modelo a otros Estados y seguir desempeñando su poder blando en el panorama internacional

➡️ Te puede interesar: La geopolítica de la tecnología, un vector de sofpower y de hardpower

Sistema revisado de gobernanza en el proyecto de ley de inteligencia artificial

La Comisión Europea propone la creación de un sistema revisado de gobernanza en el que los propios Estados miembros sean los que se encarguen de vigilar el mercado y hacer que se controlen las nuevas normas en materia de inteligencia artificial. De igual modo, se optará por la construcción de un Comité Europeo de Inteligencia Artificial que será quien desempeñará la función de la aplicación y la creación de normas sobre lA según esta vaya evolucionando. 

La labor de garante del cumplimiento del marco regulatorio no solamente deberá realizarse a nivel legislativo, sino también a nivel económico. Esto podría afectar a los proveedores, ya que la inteligencia artificial exportada a la Unión Europea deberá cumplir con unos estándares concretos de fabricación que garanticen el cumplimiento de los requerimientos de esta ley. De igual modo, la IA fabricada en la UE también deberá importar a otros países fuera de la Unión un producto conforme a lo que se exige de los proveedores. 

Las obligaciones en concreto consisten en revelar cierta información sobre sus productos para que haya una transparencia que permita comprender el funcionamiento de estos modelos. Así como contar con políticas que aseguren el respeto de la ley de derechos de autor a la hora de capacitar sus modelos. 

➡️ Te puede interesar: ¿Es la capacidad artificial una amenaza para la ciberseguridad?

Prohibición de la identificación biométrica en tiempo real

El proyecto de ley de la inteligencia artificial limita el uso de la identificación biométrica remota en tiempo real. Es decir, el reconocimiento facial mediante CCTV en espacio públicos, incluso con fines policiales siempre y cuando no se esté se trate de uno de los 16 delitos específicos recogidos en el documento. Estos delitos son el terrorismo, la trata de seres humanos, la explotación sexual infantil, el tráfico ilegal de armamento, el asesinato, las lesiones corporales graves, el tráfico ilegal de órganos o de materiales nucleares o radioactivos, los crímenes de la competencia de la Corte Penal Internacional, la incautación ilícita de aeronaves, la violación, los delitos contra el medio ambiente, el robo organizado o a mano armada y la participación en una organización criminal. 

Asimismo, las autoridades también podrán hacer uso de la identificación biométrica en aquellos casos en los que haya una búsqueda selectiva de víctimas específicas o la prevención y la seguridad física de las personas. A excepción de estos casos, queda prohibido hacer uso de la identificación biométrica remota en tiempo real con el fin de proteger a la población de los riesgos que supone la inteligencia artificial como la creación de deep fakes. De igual modo, las autoridades policiales deberán pedir una autorización previa de una autoridad judicial o administrativa independiente y cuya decisión sea vinculante. 

➡️ Te puede interesar: HOTSPOT, el programa de Interpol que utiliza datos biométricos para reconocer a terroristas

Sistema de clasificación basado en riesgos

Según el potencial de riesgo de la inteligencia artificial y teniendo en cuenta para qué fines se utiliza y cómo esto podría afectar a la población, la Comisión Europea ha propuesto la creación de un sistema de riesgos basado en cuatro niveles. 

  • Riesgo mínimo. Sistemas de inteligencia artificial que cumplen los requisitos legales vigentes siempre y cuando no necesiten obligaciones legales adicionales. La mayoría de los modelos de inteligencia artificial entran en esta categoría. 
  • Alto Riesgo. Se trata de sistemas de inteligencia artificial que puede afectar negativamente a la seguridad de las personas o la violación de los Derechos Fundamentales de los Derechos Humanos. Según señala la normativa se «considerarán de alto riesgo cuando estén sujetos a una evaluación de la conformidad por parte de terceros en virtud de dicha legislación sectorial». 
  • Riesgo Inaceptable. En esta categoría, entraría la prohibición de identificación biométrica remota en tiempo real en espacios públicos, el uso de técnicas subliminales, reconocimiento de emociones en el lugar de trabajo, raspado no dirigido de Internet. En conclusión, se consideran riesgos inaceptables aquellas actividades que vayan en contra de la defensa de los derechos humanos de la Unión Europea. 
  • Riesgo específico de transparencia. Los fabricantes y proveedores deberán dejar claro a los usuarios cuando estos estén interactuando con una inteligencia artificial. Es decir, no se permite hacer pasar información creada por una inteligencia artificial como si se tratase de una persona o una fuente de información real.

Aunque la ley de inteligencia artificial de la Unión Europea destaca estas cuatro categorías de riesgos, también reconoce y tienen en cuenta la existencia de los riesgos sistémicos, en los que se incluyen los grandes modelos de IA generativa. 

El incumplimiento de esta ley basada en un sistema de riesgo se respalda en un mecanismo de multas, cuya cuantía va desde los 35 millones de euros o el 7% de la facturación global hasta los 7,5 millones o el 1,5% de la facturación global. Sin embargo, dicha Ley solo podrá aplicarse a nivel comunitario en aquellas áreas donde la Unión Europea tiene competencia, con lo que quedaría excluida la seguridad nacional de los países miembros. 

Te puede interesar:

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí