spot_img

Inteligencia artificial, sí, pero, ¿siempre y para todo?

Análisis

Isabel López Ramos
Isabel López Ramos
Jurista especializada en Ciberseguridad y Protección de datos. Amante del Derecho Penal y las nuevas tecnologías. Estudiante de Máster en Ciberdelincuencia en UNIR.

La Inteligencia Artificial sí es una tecnología en auge que poco a poco se va introduciendo en la vida cotidiana de los ciudadanos y hasta en la Administración Pública. Aunque sin duda tiene aplicaciones muy favorables, en LISA News repasamos cuando esta tecnología puede ser contraproducente.

La Inteligencia Artificial es descrita comúnmente como la capacidad que tiene un sistema para interpretar datos, aprender de los mismos y utilizar esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible.

Así, muy brevemente, la IA es la inteligencia llevada a cabo por las máquinas. Una máquina inteligente percibe su entorno y lleva a cabo acciones para maximizar las posibilidades de éxito del objetivo para el que ha sido creada. Se trata de máquinas que intentan actuar como un humano, pero de manera más eficiente.

¿Para qué puede ser útil la Inteligencia Artificial?

La IA puede hacer la vida más sencilla simplemente realizando acciones tediosas para el hombre, o haciendo que cualquier acción del día a día se haga de manera “perfeccionada”. Además, puede suponer un gran ahorro para empresas y particulares.

Por ejemplo, un robot que se dedique a la distribución y envío de paquetería en una gran empresa, ahorraría grandes cantidades de dinero a corto, medio y largo plazo. Por otra parte, un humanoide que se dedique a estudiar un historial clínico de un paciente, sus síntomas y todos los diagnósticos posibles estaría más capacitado para dar un diagnóstico adecuado mucho más rápido que un médico de carne y hueso.

¿Para qué situaciones puede no ser tan útil?

Existen algunos ámbitos en los que la IA no es tan efectiva. Cuando se trata de reconocimiento facial, la realidad es que es un sistema que, ya sea por probabilidad de semejanza con otros sujetos, o por problemas sociales actuales o pasados, no ha terminado de funcionar como se buscaría.

Un estudio llevado a cabo por la Unión Estadounidense por las Libertades Civiles en julio del 2018 demostró que el programa de reconocimiento facial de Amazon (que se planteaba ser utilizado por algunos cuerpos de la policía estadounidense y otras agencias de la ley) no era fiable cuando se utilizó en el Congreso. De hecho, este mismo programa identificó a 28 de los congresistas como criminales al comparar sus fotografías con los datos policiales del país.

¿El motivo? La gran mayoría de ellos eran pertenecientes a etnias minoritarias.

Por tanto, problemas como el racismo o la posibilidad de similitud facial hacen que este software, a simple vista de una tecnicidad extremadamente sofisticada, falle, suponiendo además, una falta de respeto y una vulneración de los derechos a la igualdad y a la no discriminación de las personas.

Una situación similar sucedió con el software de reconocimiento facial de Google, que identificó a personas de etnia negra como primates, hecho que supuso un gran golpe para la marca –aunque no tan grande como se debería esperar-.

¿Es legítimo que se utilice la Inteligencia Artificial en cualquier ámbito de la sociedad?

Los ejemplos citados anteriormente pueden no tener una gran relevancia más allá de cómo se sienta un individuo con ello, o más allá de suponer un retrato de una sociedad racista y xenófoba.

Sin embargo, hay que tener la mente abierta a que uno de los objetivos tecnológicos al menor plazo posible para los grandes gobiernos y las grandes empresas es la implantación de la IA en todos los ámbitos de la vida humana y de la relación con las personas.

Si bien es cierto que quizás es óptimo que se utilice este tipo de tecnologías para intentar mejorar la vida de la sociedad; hay que prestar mucha atención a otras situaciones en las que la IA puede ser más un inconveniente que una ventaja para las personas.

El ejemplo más claro y –no tan- radical es el de las armas autónomas.

¿Armas autónomas?

Las armas autónomas (Lethal Autonomous Weapons) son los comúnmente llamados “robots asesinos”, concepto que a priori parece más cercano a la ciencia ficción que a la realidad. Estas armas están dotadas de Inteligencia Artificial y, gracias a ello, son capaces de seleccionar y disparar a los objetivos fijados anteriormente sin la necesidad del control de un humano.

Estos robots pueden ser programados para que ataquen a un perfil determinado, como por ejemplo, a hombres de una altura determinada y con unos rasgos determinados, y ellos mismos salen a buscarlos y cumplen con el objetivo.

Aunque pueda parecer sencillo de entender, aún no existe ni siquiera un consenso sobre cuál es la definición oficial o internacional de “autonomía” o “independiente” para los LAWs, pero se puede entender que este tipo de armas tienen tres características básicas:

  1. Pueden moverse independientemente a través de su entorno a lugares que ellos escogen de manera arbitraria (sus características son la movilidad, la persistencia y orientación, y la navegación)
  2. Pueden seleccionar y disparar contra objetivos en su entorno (sus capacidades son identificación propia de objetivos, discriminación para categorizar objetivos, priorización de objetivos y selección del tipo de arma apropiada al objetivo)
  3. Pueden crear y/o modificar sus objetivos incorporando la observación de su entorno y la comunicación con otros agentes. Sus capacidades son autodeterminación, auto compromiso, comunicación autónoma con otros sistemas, auto modificación de objetivos basada en información adquirida de fuentes autónomas, planificación de objetivos, y aprendizaje y adaptación constantes.

El uso de esta tecnología puede abarcar desde humanoides, diseñados y programados para no tener que utilizar personal humano en las guerras, hasta drones dotados de explosivos que pueden detonarlos al localizar un objetivo con las características de un sujeto similar al que se les ha ordenado previamente atacar.

Aunque a día de hoy las grandes potencias mundiales aseguran no haber desarrollado en gran medida esta tecnología, la realidad es que cada vez nos encontramos más cerca del mundo distópico que se muestra en la novela “Yo, robot”, de Isaac Asimov, en el que los robots creados para el bienestar de la sociedad se volvían en contra de la misma.

Para los que no sean conocedores de la novela, la trama explica cómo en un mundo futuro los robots creados para mejorar la vida de los humanos y realizar las tareas menos favorables, acaban pensando por sí mismos y decidiendo que ellos deberían ser la raza superior y, por tanto, intentando aniquilar a la raza humana.

Cabe aclarar, que con la afirmación anterior no se busca hacer referencia a que pasará esto mismo, sino a que, simplemente, la tecnología de la robótica y la inteligencia artificial, empleadas conjuntamente en la armamentística y con autonomía propia, pueden acabar deviniendo un peligro, más que una ventaja, para la raza humana.

Podemos ver ejemplos de cómo tecnologías desarrolladas por y en beneficio del hombre se han vuelto en su contra en lo que se refiere a la energía nuclear (con las bombas nucleares o bombas de hidrógeno), en las bombas de racimo, o en las minas antipersona.

Todas estas se han prohibido de manera internacional –o se han intentado prohibir y algunos países han rechazado esta prohibición-, precisamente por sus efectos negativos, más que positivos, para el hombre, y por sus consecuencias nefastas en el campo de batalla. Y, probablemente, si se hubiera sabido de antemano ese “efecto negativo” que conlleva para todo el mundo, se habrían intentado prohibir antes de utilizarlas, y se habría intentado prohibir su desarrollo.

Te puede interesar:


Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img