spot_img

¿Se pueden proteger nuestros datos en la era de la inteligencia artificial?

Análisis

EOM
EOM
El Orden Mundial (EOM) es un medio de análisis internacional en español privado e independiente orientado a la divulgación de asuntos internacionales.

Europa quiere liderar revoluciones tecnológicas como la de la inteligencia artificial. Pero esta ambición choca con el deseo de Bruselas de proteger el derecho a la privacidad: la IA necesita datos para desarrollarse. Una nueva regulación europea promete compatibilizar ambos objetivos, aunque no resuelve todos los problemas.

Dos años después, las carpetas de correo electrónico de millones de europeos se llenaban de mensajes de empresas que les pedían permiso para seguir procesando sus datos, cumpliendo con el nuevo Reglamento Europeo de Protección de Datos (RGPD). Pese a sus imperfecciones, esta normativa ha servido de referencia para leyes en Brasil o Japón y dio comienzo a la era de la protección de los datos de los usuarios. 

Sin embargo, lo que fue celebrado como un triunfo ahora es visto como un impedimento para que Europa compita en el desarrollo de tecnologías digitales, y en concreto la inteligencia artificial. ¿Puede la ley europea proteger la privacidad de sus ciudadanos frente al desarrollo de una tecnología que no siempre es transparente?

¿Priorizamos los derechos digitales o la innovación?

Un sistema de inteligencia artificial (IA) es una herramienta creada a partir de técnicas informáticas que permiten al algoritmo aprender de los datos para ofrecer correlaciones, predicciones, decisiones o recomendaciones. Esta capacidad de ofrecer nuevas percepciones al decisor humano hace de la IA la base de la economía de datos.

La capacidad de tomar decisiones más eficientes y rápidas gracias a la IA también tiene consecuencias geopolíticas. Cada vez más Estados invierten en este tipo de tecnología bajo el lema de aquello que dijera Vladímir Putin en 2017: “Quien domine la inteligencia artificial dominará el mundo”. Ya en 2019, Estados Unidos invirtió casi un 200% y Japón un 1.109% más que en 2015.

La sensación de urgencia también se ha contagiado a otras agendas, como la de los derechos digitales en Europa. Los reguladores europeos legislan a favor de la privacidad, luchan contra los monopolios de las grandes plataformas digitales o crean espacios para atesorar los datos sensibles de los ciudadanos de forma segura. Pero estos avances en derechos digitales podrían amenazar la prosperidad económica del continente.

Con la entrada en vigor del RGPD en 2018, las empresas ya avisaban de que tener que cumplir con las altas demandas de protección de datos sería un obstáculo para innovar en tecnología. Entre los argumentos más repetidos están que el RGPD reduce la competitividad, que cumplirlo es demasiado complicado o que frena la capacidad europea de producir “unicornios”start-ups jóvenes con más de mil millones de dólares en capitalización de mercado, que buscarían prosperar en lugares con menos regulación.

Del otro lado, Bruselas argumenta que el atractivo de su mercado, de más de quinientos millones de habitantes, y garantías como la estabilidad política y la libertad económica, seguirán atrayendo a los inversores. La propia comisaria europea de Competencia, Margrethe Vestager, añadió este año que el mercado solo se interviene cuando hay peligro para los derechos fundamentales de los europeos.

Reconciliar inteligencia artificial y privacidad

Cumplir con el RGPD puede ser un problema añadido para el desarrollo de la inteligencia artificial. Los sistemas de IA necesitan muchos datos para entrenarse, pero la normativa europea limita la capacidad de las empresas para conseguir, compartir y usar esos datos.

De la misma forma, si esta regulación no existiera, el uso masivo de datos comprometería la privacidad de los ciudadanos. Para mantener el equilibrio, el RGPD dejó margen de desarrollo a la IA a costa de que el lenguaje de la ley sea a veces vago, según critican asociaciones proprivacidad como European Digital Rights.

Con todo, sigue habiendo algunos aspectos delicados. Uno de ellos es el principio de transparencia, que supone que todas las personas deben ser capaces de acceder y entender lo que pasa con sus datos y que esta explicación debe ser clara y concisa. Pero mantener esa transparencia puede ser más difícil cuando los que procesan estos datos son sistemas de IA.

Las empresas e instituciones de desarrollo de IA llevan tiempo trabajando en asegurar las llamadas “explicabilidad” e “interpretabilidad”, es decir, que una persona no especialista debe poder entender un sistema de IA y por qué toma unas decisiones u otras. No es tarea fácil: muchos de estos sistemas funcionan como cajas negras, una metáfora muy usada en el gremio, en las que ni siquiera quienes construyeron el algoritmo ni quienes implementan sus decisiones entienden qué pasa.

Otro dilema es el “derecho al olvido”. Celebrado como una victoria del RGPD para la privacidad, obliga a las empresas a borrar los datos de una persona si esta se lo pide. En el caso de los sistemas de IA, en teoría una empresa podría borrar los datos de la persona que entrenan al algoritmo, pero no así el rastro que esos datos individuales han dejado en el propio sistema, lo que haría imposible el “olvido” total.

Una nueva regulación europea, ¿la solución?

Aunque parezca haber principios irreconciliables, no todo está perdido. La Comisión Europea publicó en abril una propuesta para regular la inteligencia artificial. Pese a que ha recibido muchas críticas, como la de que no se posiciona sobre la prohibición de sistemas de reconocimiento facial, es una pieza innovadora que obligará a las empresas a abrir la caja negra para garantizar la transparencia.

Con todo, lo que puede sonar a victoria para la protección de datos también alimenta el argumentario de que más obligaciones de transparencia frenaría la innovación y llevaría a las empresas a otros lugares.

En paralelo a esta iniciativa, en octubre de 2021 las instituciones europeas llegaron a un acuerdo sobre el texto de la Ley de Gobernanza de Datos, que regula la reutilización de los datos y la creación de piscinas y cooperativas de datos públicas, de las que pueden beneficiarse las empresas para lanzar sus innovaciones.

Esta norma permitirá que las empresas busquen en estos espacios los datos que necesiten sin tener que comprarlos a otras empresas ni obtenerlos con medios poco éticos como a través del rastreo de los usuarios en línea. Es una visión rompedora porque también incluye la “donación de datos” como forma de alimentar estas piscinas, lo que cuestiona el consenso sobre que la economía digital tenga que basarse en los datos como mercancía.

El mundo aún no se ha puesto de acuerdo para regular la inteligencia artificial, pero la Unión Europea puede ser pionera con una posible ley en 2022 o 2023 que aplicaría a sus veintisiete Estados miembros. Esta ley, además, contempla una clasificación por riesgos de los sistemas de IA.

Por ejemplo, los que se usen en el ámbito sanitario serán de “alto riesgo” y ello implicará obligaciones adicionales para quienes los desarrollen e implementen. Pese a que agencias como el Comité Europeo de Protección de Datos afirman que esta nueva regulación asegura la compatibilidad, solo cuando esté implementada se sabrá si resuelve dilemas como el de la transparencia o el derecho al olvido.

*Este artículo ha sido publicado el 6 de enero de 2022 en EOM y ha sido escrito por Andrea G. Rodríguez.

Este artículo, publicado bajo una licencia CC BY-SA 4.0., forma parte de la European Data Journalism Network (EdjNet), un consorcio periodístico internacional que cubre temas paneuropeos usando periodismo de datos, y el proyecto Panelfit, apoyado por el programa Horizon 2020 de la Comisión Europea (acuerdo de financiación n. 788039). La Comisión no ha participado en la producción del artículo y no es responsable de su contenido.

Formación relacionada

Masterclass relacionadas

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img