En un contexto en el que las grandes potencias ya se plantean dotar de inteligencia artificial a dispositivos de combate para que tomen decisiones independientes y los ciberdelincuentes la emplean como un arma más, el CEO de Quantum Babylon y alumno del Máster Profesional de Analista de Inteligencia de LISA Institute, Juan Pablo Castillo Cubillo, aborda cómo debería regularse su uso para abordar la seguridad en la red y por qué todo lo que se ha legislado hasta ahora puede quedar en papel mojado.
Historia de una hoja de ruta completamente alterada
Desde que surgió la inteligencia artificial como aliada para ayudar en las investigaciones científicas, no han sido pocas las esperanzas puestas en esta tecnología. Es cierto que a mediados del siglo XIX, el matemático George Boole ya formuló la posibilidad de trasladar el razonamiento humano a una serie de operaciones lógicas con el fin de poder traducirlo matemáticamente. Aun así, hemos necesitado más de 150 años para poder materializarlo en una herramienta útil.
Los primeros pasos de la inteligencia artificial (IA) datan de la década de los 30 del pasado siglo. Por aquel entonces, un artículo de Alan Turing presentó aspectos como «noción de algoritmo» y «procedimiento efectivo». Ambas piezas son esenciales para lo que se conoce como «máquina de Turing», pieza esencial para entender la lógica de la computación moderna. En esa línea, el escritor Isaac Asimov estableció unos años más tarde las conocidas como «leyes de la robótica» en su libro Círculo Vicioso. A partir de entonces, nace un universo literario que ha influenciado notablemente a las generaciones posteriores de todas las áreas científicas.
Fue el propio Turing quien publicó otro artículo, esta vez titulado «¿Pueden las máquinas pensar?», en la revista Mind. Aquí se sentarían las bases teóricas de la IA a raíz de un proceso científico que más tarde pasaría a denominarse «Test de Turing». Por otro lado, existe la corriente científica que opina que no fue hasta 1956, en la Conferencia Darmouth Summer Research Project on Artificial Intelligence, cuando se produjo el nacimiento de este proceso tecnológico. Allí se acuñó por primera vez el término que hoy se conoce como tal por John McCarthy, Marvin Minsky y Claude Shannon.
Tanta relevancia ha alcanzado con el paso del tiempo la desviación del «modelo humanista» de Asimov que, hasta el Parlamento de la Unión Europea, estableció seis directrices en 2016. Con ello, la organización europea buscaba reducir el impacto de esta nueva tecnología.
➡️ Te puede interesar: Masterclass | Geopolítica de la Tecnología en el nuevo orden internacional
En 2018, la Comisión Europea «Inteligencia Artificial para Europa» enmarcó una definición para dicho término entendido como aquel en el que «se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos». Es decir, el conjunto de procesos, técnicas o herramientas para seleccionar la opción más satisfactoria mediante métodos matemáticos y lograr así su objetivo.
La toma de decisiones de la inteligencia artificial se fundamenta en la transformación de los datos que se le otorgan para poder convertirlos, mediante su razonamiento, en otros que sirvan al usuario para su posterior aplicación. Esto conlleva un aprendizaje en el cual la máquina, gracias a diversos procesos y técnicas, es capaz de ofrecer cada vez mejores resultados. Para lograr esto, es fundamental saber usar dicha herramienta.
En estos momentos, cuando los ciberdelincuentes usan la inteligencia artificial como una herramienta más y las grandes potencias ya se plantean dotar de IA a dispositivos de combate o drones para que tomen decisiones independientes para atacar objetivos o personas, queda claro que todo lo que hemos legislado va a quedar en papel mojado. Por ello, y tras entender el concepto moderno de inteligencia artificial y los puntos importantes vamos a explorar esas vulnerabilidades que Asimov no tuvo en cuenta.
Sistemas de aprendizaje de la inteligencia artificial
A pesar del enfoque del concepto de inteligencia artificial, poner de acuerdo a la comunidad científica y a los diversos campos profesionales donde se trabaja con esta herramienta siempre ha sido muy complejo. Sin embargo, en lo que sí parecen estar de acuerdo todos es en un punto clave: la imitación del comportamiento humano. Esto no quiere decir precisamente que la máquina desarrolle un comportamiento inteligente, sino que quedaría amparada por los actos de una persona que realice acciones destacables para poder reflejarlo a continuación.
Una primera aproximación a la hora de clasificar los modelos sería según su capacidad de imitación. Si nos detenemos en el campo de la visión computacional, nos adentraríamos en acciones como el reconocimiento de imágenes, mientras que si nos encontráramos ante el entendimiento y procesamiento del lenguaje natural (NLP), nos hallaríamos dentro del campo de la robótica o de la informática y la computación pura. Ejemplo de esto último son ChatGPT o Bard.
Machine Learning
El método que se utiliza para lograr que las máquinas adquieran la capacidad de aprendizaje se conoce como «Machine Learning». No debemos entenderlo como otra rama dentro de la IA, sino que hay que apreciarlo como un pilar básico que otorga la posibilidad de interrelacionar los programas informáticos entre sí para lograr mejor el objetivo: aprender. Esa es la vía para que los algoritmos encargados de reconocimientos de patrones y otros procesos mencionados anteriormente logren completar el objetivo programado en la tarea que se les ha propuesto. Esta nueva perspectiva es la que ha hecho posible el gran salto en la última década.
Redes neuronales
Entiéndanse como una disparidad de capas formadas por unidades de procesamiento no lineal. Es decir, neuronas (entendidas como unidades computacionales con una lógica determinada), que poseen la virtud de transformar la información que se les introduce para proporcionar un resultado deseado. Lo que las diferencia de otras alternativas y métodos es que están construidas a imagen y semejanza de un cerebro humano (o mejor dicho inspiradas, pues todavía desconocemos muchos procesos de la mecánica neuronal). Además, están constituidas por un proceso donde la acción que acabamos de describir se realiza una y otra vez para que el porcentaje de éxito sea cada vez mayor.
El aspecto a destacar sobre el resto es su aprendizaje de manera jerarquizada. Eso significa que el primer nivel ejecuta una comprensión muy específica en referencia a la información de entrada. De esta forma, las capas posteriores parten de este resultado para poco a poco desarrollar conceptos de mayor complejidad.
Estas redes con una multitud de niveles profundos se entienden como el embrión del popular concepto «Deep Learning» o aprendizaje profundo. Así pues, podemos entender el Deep Learning como un tipo de Machine Learning que procesa información a través de múltiples capas de transformación. Unas capas que podemos considerar como una serie de filtros que van desde lo más sencillo a lo más complejo.
En la primera capa, el modelo aprende a reconocer características muy básicas sobre los datos de entrada. A medida que avanzamos a través de las capas, el modelo aprende a reconocer características cada vez más complejas, construyendo sobre las características que ha reconocido en las capas anteriores.
Por ejemplo, pongamos el caso de un modelo de Deep Learning diseñado para el reconocimiento de imágenes. La primera capa podría aprender a reconocer bordes y colores, la siguiente capa podría aprender a reconocer formas básicas combinando los diferentes bordes, y las capas posteriores podrían aprender a reconocer objetos completos combinando las formas básicas como cubos, esferas, cuadros y rectángulos planos o círculos. Otra capa podría distinguir luego las sombras que estos elementos proyectan, luego la siguiente los materiales y así sucesivamente.
➡️ Te puede interesar: ¿Es la Inteligencia Artificial una amenaza para la Ciberseguridad?
Por lo tanto, el Deep Learning puede considerarse como una extensión del Machine Learning. Se utilizan redes neuronales con muchas capas (de ahí el término «deep» o «profundo») para aprender representaciones de los datos a diferentes niveles de abstracción. Estas representaciones permiten al modelo realizar tareas complejas de predicción o clasificación.
Sin embargo, aún quedan cosas por mejorar. Hasta el momento, la adversidad principal de las redes neuronales había sido la imperiosa necesidad de proporcionarles un gran volumen de datos para su consiguiente entrenamiento. Cuanto más complejo y avanzado sea el resultado que queramos obtener, mayor cantidad que deberemos otorgarles. Pero este obstáculo parece haberse solventado gracias a lo que se conoce en la actualidad como la era de la información, con lo que ya es posible una gran acumulación de datos, proceso que conocemos hoy en día como Big Data.
➡️ Te puede interesar: Brain Computer Interface o cómo la inteligencia artificial puede leer la mente humana
Tipos de aprendizaje en la inteligencia artificial
La evolución del ser humano ha sido consecuencia de su capacidad de aprendizaje. Como resultado de este proceso, cada persona puede progresar en la vida incorporando su experiencia con el transcurso de los acontecimientos. Para enfrentar cada nuevo desafío, el individuo puede emplear las facultades, las capacidades, las enseñanzas y los comportamientos asimilados hasta el momento. Para que los algoritmos de Machine Learning evolucionen, ocurre algo similar. Básicamente, se basan en tres aspectos:
- Aprendizaje supervisado. Se basa en el proceso de establecer la relación entre variables de entrada y salida. Se obtiene al enseñar a los algoritmos el resultado deseado, utilizando ejemplos.
- Aprendizaje no supervisado. Aquí se busca obtener resultados únicamente a partir de los datos de entrada proporcionados, de tal forma que no se considera de ninguna manera ofrecer una explicación del resultado que se espera.
- Aprendizaje reforzado. Significaría el punto intermedio entre el supervisado y el no supervisado.
A pesar de que los tres paradigmas que acabamos de describir representan la práctica totalidad de los procesos de entrenamiento, no es menos cierto que en estos momentos hay otras dos opciones que están de actualidad:
- Aprendizaje por transferencia. Es la forma de aprovechar que un modelo ya cuenta con un recorrido de entrenamiento con un gran volumen de datos, de manera que se considere óptimo continuar para obtener resultados en una tarea más concreta.
- Aprendizaje federado o colaborativo. Creado por la empresa Google, es un contrapunto en referencia a la metodología llevada hasta ese momento. Se trata de una técnica para entrenar de forma descentralizada en la que diversas fuentes hacen evolucionar a un modelo común.
Lo que es preciso comprender es que hasta este momento los sistemas de inteligencia artificial desarrollados se habían programado para tareas muy concretas. Esto los hacía muy útiles para lo que estaban diseñadas pero sin posibilidad de extrapolar ese procesamiento a otras. Esta situación se conoce como inteligencia artificial débil, buscando poder realizar todo lo que hasta ahora nos está vetado y poder alcanzar la denominada inteligencia artificial fuerte.
➡️ Te puede interesar: Cómo la tecnología está revolucionando los sistemas políticos
Hacia la ciberdelincuencia, el salto definitivo de la inteligencia artificial
La ciberdelincuencia siempre ha utilizado la automatización, pero la llegada de la inteligencia artificial la ha llevado a un nivel completamente nuevo y preocupante. La IA, con su capacidad para aprender y adaptarse, ha permitido a los ciberdelincuentes crear ataques más rápidos, eficientes y efectivos, creando así un nuevo perfil de ciberdelincuencia.
Con el tiempo, el mundo de la ciberdelincuencia ha desarrollado sus propias versiones para llevar a cabo actos delictivos en línea. Su nueva herramienta se llama FraudGPT, en referencia a la creada por la empresa OpenAI, y con la palabra «fraude» para dejar claro su propósito. Es además hermana de WormGPT. Este recurso innovador permite a los ciberdelincuentes automatizar varios aspectos de sus ataques, desde escanear vulnerabilidades hasta generar correos electrónicos de phishing personalizados, lo que aumenta la eficiencia y frecuencia de estos actos.
➡️ Te puede interesar: Ciberperfilación criminal: cómo Internet ha cambiado las reglas del crimen
Sin embargo, la evolución no se detiene ahí. La IA también puede ser utilizada para crear malware personalizado y evadir las defensas tradicionales. Los atacantes con este recurso pueden adaptar sus programas maliciosos a las especificidades de su objetivo, dificultando la detección y respuesta por parte de las soluciones de seguridad.
Otro uso en el cibercrimen es la creación de perfiles falsos convincentes en redes sociales y sitios web, lo cual facilita los ataques de ingeniería social. Los ciberdelincuentes pueden aprovechar la IA para personalizar mensajes y aumentar las posibilidades de éxito en sus ataques. Este método implica la manipulación psicológica de individuos o grupos para revelar información confidencial o realizar acciones que beneficien al atacante.
Por ejemplo, hay videos y audios generados por IA que se hacen pasar por figuras internacionales como el expresidente estadounidense Barack Obama y que se difunden en plataformas como Tiktok. En resumen, la IA ha convertido la ingeniería social en una herramienta más convincente y peligrosa en manos de los ciberdelincuentes, resaltando la importancia de la ciberseguridad y la vigilancia constante en un mundo digital cada vez más complejo.
Riesgos de la inteligencia artificial en las videollamadas
Otro avance significativo que ha creado nuevas oportunidades en diversos campos es el uso de la inteligencia artificial para suplantar a otra persona en una videollamada. A través de ello, utilizan la voz e imagen con el objetivo de robar datos o dinero e incluso, incitarnos a cometer delitos. La ingeniería de voz e imagen aprovecha estos avances para generar audios y videos que parecen auténticos, pero en realidad son sofisticadas falsificaciones.
Estas técnicas de generación, como la síntesis de voz y la síntesis de imágenes, permiten manipular y crear contenidos audiovisuales muy convincentes. Por lo tanto, la suplantación de identidad en videollamadas es un escenario preocupante. Con el uso de la inteligencia artificial, es posible recrear la voz y los gestos faciales de una persona de manera tan realista que resulta difícil distinguir la diferencia entre la versión falsa y la auténtica. Esto puede llevar a situaciones en las que las víctimas confíen en la persona falsa y compartan información confidencial o realicen acciones perjudiciales
Para hacer frente a estos riesgos, es importante tomar medidas de prevención y protección. En primer lugar, es necesario crear conciencia entre los expertos en derecho acerca de este problema y capacitarlos para que puedan identificar posibles casos de suplantación de identidad en las videollamadas. Además, es fundamental contar con herramientas de detección y verificación de autenticidad que permitan validar la identidad de las personas durante las videollamadas. Estas herramientas no deben basarse en los mecanismos y algoritmos tradicionales de identificación del emisor. Debemos de tener en cuenta que bastaría con robar un smartphone y el conocimiento de su información biométrica para que otro sistema diera por auténtica una videollamada falsa.
La utilización de la IA para la suplantación de identidad en videollamadas plantea serios desafíos en el ámbito legal y ético. Es crucial que los expertos en Derecho estén al tanto de los peligros asociados a esta tecnología y tomen las medidas necesarias para proteger a las personas de posibles fraudes y delitos. Asimismo, es fundamental que se promueva la investigación y el desarrollo de soluciones de seguridad que mitiguen estos riesgos y protejan la privacidad y la integridad de las personas en las videollamadas.
La seguridad cibernética debe ser una prioridad tanto para individuos como para organizaciones en un mundo en constante evolución. Para hacer frente a esta nueva situación, tanto las empresas como las agencias de seguridad utilizan sus propias versiones de inteligencia artificial para detectar y defenderse contra ataques cibernéticos. La IA se utiliza en la detección de amenazas, el análisis de comportamiento anómalo y la respuesta rápida a incidentes.
Aun así, es importante tener en cuenta que esto supone un nuevo desafío en el que puede prevalecer la ley del más fuerte, sin reglas claras y donde la voluntad del más fuerte tiene un papel dominante. En este punto, España, que actualmente ostenta la Presidencia de la Unión Europea, tratará alcanzar un acuerdo definitivo para impulsar un Reglamento que aborde aspectos relacionados con este nuevo escenario tecnológico.
El texto, entre otras cosas, debería abordar la importancia y la ética en el uso de la IA en la ciberdelincuencia. Es crucial destacar los desafíos que surgen cuando su utilización se aleja de la legalidad y se emplea para actividades delictivas. Asimismo, sería recomendable establecer bases sólidas para evitar que el texto normativo se vuelva obsoleto y requiera constantes parches. La convergencia entre la IA y la ciberdelincuencia plantea desafíos significativos, pero con educación, inversión en tecnología de seguridad avanzada y colaboración, es posible mitigar los riesgos y protegerse de manera efectiva en esta era digital cada vez más compleja.
➡️ Te puede interesar: Cómo la Unión Europea se está adaptando a la era digital
El impacto de un nuevo perfil de ciberdelincuencia en el sector sanitario
La complejidad de los problemas médicos y sus evidentes implicaciones éticas han condicionado y complicando, la aparición y evolución de los sistemas de IA en medicina. Aunque existe información en este campo, una gran parte todavía no está apropiadamente digitalizada. Además, las instituciones responsables de su custodia son reticentes a compartirla por cuestiones de competitividad entre centros o para evitar consecuencias legales asociadas a compartir información confidencial o privada con lo que el reto aumenta.
Debemos de tomar en cuenta el momento tecnológico en el que nos encontramos y apreciar las cosas como son y no como nos gustaría. Esto quiere decir que si un máquina es capaz de imitar un comportamiento, por muy espectacular que resulte, sería un gran error recibirlo como un acto de inteligencia propia de la IA.
Es por ello que si una máquina es capaz de reflectar los precisos movimientos de un cirujano dibujados con anterioridad, es un gran asistente, pero no el resultado de un proceso cognitivo individual como lo haría un ser humano.
En 2011, la empresa IBM presentó un sistema llamado WATSON10 al concurso JEOPARDY. Este programa se basaba en la inteligencia artificial y era capaz de contestar a todo tipo de cuestiones realizadas en lenguaje natural. La empresa lo describía como «una aplicación de tecnologías avanzadas diseñadas para el procesamiento de lenguajes naturales, la recuperación de información, la representación del conocimiento, el razonamiento automático, y el aprendizaje automático al campo abierto de búsquedas de respuestas». El sistema se erigió gracias a la tecnología DeepQA de la empresa norteamericana para «la generación de hipótesis, la recopilación de pruebas masivas, el análisis y la calificación».
➡️ Te puede interesar: Inteligencia sanitaria o MEDINT: una prioridad ante el aumento de la ciberdelincuencia
Tal fue el éxito que se crearon altas expectativas demasiado pronto. En 2015, IBM anunció de forma oficial el inicio de la unidad Watson Health enfocada a producir un salto cualitativo en la atención sanitaria. El problema es que pasó el tiempo y se vio como la demanda no podía cubrirse al nivel solicitado cerrando la división por completo.
A pesar de ello, consiguió ganar batallas como el papel que tuvo asistiendo al Instituto Neurológico Barrow en la clasificación de más de un millar de genes de nuestro genoma para posteriormente identificar la vinculando de diez que eran clave para una posible predicción una la aparición de la Esclerosis Lateral Amiotrófica (ELA).
Sin embargo, más de una década después de aquel hito televisivo hemos visto como todo ha dado un giro. Ahora, el liderazgo lo sustenta OpenAI respaldado por Alphabet. Esto también conlleva varios riesgos. Cuanto más fructífero son los resultados de las investigaciones en curso, mayor es la recompensa a ganar si un ciberdelincuente utiliza sus armas para lograr dicha información.
El modelo, además, es puramente mercantilista, lo que reduce la probabilidad de que la información acabe en malas manos. Suponemos que los lectores ya habrán adivinado que nos referimos a la deriva hacia el sector privado que ha adoptado OpenAI tras su reordenación con Robert Altman a la cabeza y el respaldo a un modelo cerrado y comercial que impulsa Alphabet (Google).
Puede resultar una paradoja, pero aunque los modelos privados pueden adoptar niveles de seguridad más efectivos con estructuras defensivas más eficientes, bien es cierto que quedan sin supervisión comunitaria. La experiencia nos dice que el factor humano tiende a vender la información en busca de beneficios al mejor postor, desactivando cualquier contramedida tecnológica con suma facilidad. Esto nos lleva a resaltar de nuevo la importancia de la contrainteligencia en el sector de la IA.