spot_img

La UE aprueba la primera ley mundial de inteligencia artificial

Análisis

LISA News
LISA News
Contenido creado por el Equipo de Redacción de LISA News con el apoyo del equipo docente de LISA Institute.
  • La ley de inteligencia artificial se introducirá y adaptará de forma gradual hasta el 2026.
  • Este año quedará restringida la categorización biométrica de datos sensibles.

La Unión Europea ha completado la adopción de la primera legislación integral a nivel mundial destinada a regular el uso de la inteligencia artificial (IA). La nueva normativa, conocida como la ley de inteligencia artificial, ha recibido el respaldo final de las instituciones europeas y se espera que marque un hito en la regulación tecnológica global.

La norma tiene como objetivo establecer un marco legal que garantice que el desarrollo y uso de la IA se realicen de manera segura y ética. Su aplicación completa está prevista para 2026, y se irá adaptando poco a poco a las legislaciones nacionales. «La legislación sigue un enfoque basado en el riesgo. Esto significa que cuanto mayor sea el riesgo de causar daños a la sociedad, más estrictas serán las normas», asegura una nota de prensa del Consejo Europeo.

Según las autoridades europeas, «la ley tiene por objeto fomentar el desarrollo y la adopción de sistemas de IA seguros y fiables en todo el mercado único de la UE por parte de agentes públicos y privados». Además, busca «garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en materia de inteligencia artificial en Europa». También advierten que la norma «solo se aplica a ámbitos de la legislación de la UE y prevé exenciones. Por ejemplo, para los sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación».

«La adopción de la Ley de IA es un hito importante para la Unión Europea. Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías. Con la Ley de Inteligencia Artificial, Europa hace hincapié en la importancia de la confianza, la transparencia y la rendición de cuentas a la hora de abordar las nuevas tecnologías. Además, garantiza que esta tecnología en rápida evolución pueda prosperar e impulsar la innovación europea», aseguró Mathieu Michel, secretario de Estado belga de Digitalización, Simplificación Administrativa, Protección de la Privacidad y Normativa de Construcción.

Clasificación de los modelos

La ley de inteligencia artificial introduce una clasificación de riesgos, asignando diferentes niveles de regulación y control dependiendo del potencial daño que cada aplicación de IA pueda causar. Por ejemplo, los programas de categorización biométrica, la captación indiscriminada de imágenes para elaborar bases de datos de reconocimiento facial, los programas que modifiquen el comportamiento humano, el reconocimiento de emociones o los programas de puntuación social estarán prohibidos. También se vetarán los modelos que recojan la información más íntima, como las creencias políticas o religiosas o la orientación sexual.

«Los sistemas de IA que presenten un riesgo limitado estarían sujetos a obligaciones de transparencia muy ligeras, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE», aseguran. «La manipulación cognitivo-conductual y la puntuación social estarán prohibidos en la UE porque su riesgo se considera inaceptable. La ley también prohíbe el uso de la IA para la vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual», sentencian.

La única excepción al uso biométrico lo tendrán las autoridades públicas. Aunque siempre bajo orden judicial y para una serie de casos concretos como secuestros, delitos contra la salud sexual, terrorismo o crímenes. También se podrán utilizar estos programas con la finalidad de encontrar a personas desaparecidas o víctimas, siempre bajo el control de las autoridades.

Además, los programas de IA que traten sobre la salud, la seguridad, el medio ambiente o derechos esenciales estarán considerados de «alto riesgo». Las IA que impacten en resultados electorales o modifiquen la conducta de los votantes también será clasificada de grave peligro y tendrán muchas limitaciones. Además, programas específicos como ChatGPT o los miles que existirán sufrirán reglas específicas «adaptadas» a cada uno de ellos.

Creación de órganos de gobierno

La nueva ley prevé constituir varios grupos y órganos. «Una oficina de IA dentro de la comisión para hacer cumplir las normas comunes en toda la UE. Un grupo científico de expertos independientes para apoyar las actividades de aplicación de la ley. Un Comité de IA con representantes de los Estados miembros para asesorar y asistir a la Comisión y a los miembros sobre la aplicación coherente y eficaz de la Ley de IA. Un foro consultivo para que las partes interesadas aporten conocimientos técnicos al Consejo de IA y a la Comisión».

Sanciones por incumplimiento

El incumplimiento de la norma tendrá consecuencias. Las multas más graves serán entre 35 millones de euros o el 7% de su negocio global. Las más laxas serán de aproximadamente 8 millones de euros. Sin embargo, la ley estipula que las sanciones variarán dependiendo del volumen de ventas o el tamaño de la empresa. «Las pymes y las empresas emergentes están sujetas a multas administrativas proporcionales».

El propósito, según las autoridades europeas, es impedir que esta tecnología limite o destruya los derechos fundamentales. Además, tiene como objetivo garantizar la seguridad para que no se utiliza con fines autoritarios.

En 2024 habrá primeras regulaciones

Las primeras regulaciones llegarán en noviembre de 2024. Los programas de IA que categoricen datos sensibles como las creencias religiosas, los ideales políticos, las opiniones filosóficas o cualquier dato personal como la raza o la orientación sexual estarán prohibidos. Cada uno de los países deberán adaptar sus legislaciones nacionales para velar por su correcto uso. Después de esto, comenzarán otro tipo de regulaciones. Por ejemplo, los programas deberán detallar si cualquier texto, música, fotografía o vídeos se han generado por medios de la inteligencia artificial. Esto servirá para asegurarse de que la programación empleada para elaborar estos modelos respetan los derechos de autor.

Artículo escrito por:

Rubén Asenjo Morillas. Periodista apasionado por la actualidad internacional y la geopolítica. Escribo para entender el mundo en constante cambio y compartir perspectivas que despierten la reflexión y el debate. Comprometido con la búsqueda de la verdad y las historias que impacten e inspiren.

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img