¿Es la inteligencia artificial una amenaza para la ciberseguridad?

Análisis

Gabriela Andreea Gherghel
Gabriela Andreea Gherghel
Licenciada en Periodismo por la Universidad Complutense de Madrid. Apasionada por las Relaciones Internacionales y redactora polifacética con especial interés en la geopolítica y las interdependencias entre las principales potencias mundiales. Alumna certificada del Máster Profesional de Analista Internacional y Geopolítica de LISA Institute.

En 2015, Elon Musk y Sam Altman iniciaron la revolución de la Inteligencia Artificial. Ocho años después, la preocupación alrededor de su uso y el impacto que puede tener en la Ciberseguridad alienta a gobiernos y población civil. En este artículo la alumna del Máster Profesional de Analista Internacional y Geopolítico de LISA Institute, Gabriela Andreea Gherghel, expone algunas de las razones por las que la Inteligencia Artificial sí puede ser una amenaza para la Ciberseguridad.

La Inteligencia Artificial (IA) ha llegado para quedarse, y todo apunta a que será la principal promotora de la Quinta Revolución Industrial, una era digitalizada en la que la IA podría encargarse de todas o de la gran mayoría de las labores realizadas por los seres humanos. De hecho, con la llegada del ChatGPT, muchas personas afirman que no podrían prescindir de esta herramienta tan útil para hacer textos y búsquedas en Internet.  Sin embargo, parece que sus creadores están preocupados por su propia creación y cómo controlarla antes de que sea demasiado tarde. 

En 2015, Elon Musk y Sam Altman crearon la Open AI, una herramienta que ayudaría a desarrollar una Inteligencia Artificial que pudiese servir al ser humano y facilitar su vida. No obstante, desde noviembre de 2022 con el lanzamiento del ChatGPT, la Inteligencia Artificial no solamente ha cogido una importante popularidad, sino que esta tecnología ha evolucionado y sigue evolucionando a una velocidad desmedida. Un hecho que preocupa a sus creadores, ya que no comprenden del todo cómo se está desenvolviendo, es que puede terminar por convertirse en un arma de doble filo. 

Te puede interesar: ¿Qué es ChatGPT y cómo puede revolucionar la Inteligencia artificial?

La IA funciona mediante lo que se denomina como Machine Learning, un aprendizaje automático de las máquinas con el fin de mejorar su rendimiento y sofisticar sus servicios. Las nuevas inteligencias artificiales están desarrollándose a través de este aprendizaje demasiado rápido y quizá de manera descontrolada, lo que ha provocado que varios expertos en la materia se hayan reunido para debatir sobre cómo hacerle frente. Una preocupación que ha desembocado en una carta abierta firmada por más de 1.000 personas entre las que se encuentran Elon Musk o el cofundador de Apple, Steve Wozniak.

Algunos expertos en Inteligencia Artificial aseguran que su desarrollo se trata de “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable. Razón por la que en la mencionada carta abierta exige que, de cara a la creación de nuevas inteligencias artificiales, haya seis meses de investigación para analizar las consecuencias que esta tecnología podría traer consigo.

La regulación europea de la Inteligencia Artificial

La Unión Europea es líder en proyectarse internacionalmente a través de su poder blando, y la tecnología es uno de los campos en los que Bruselas no se permite quedarse atrás. Sin embargo, la Inteligencia Artificial es un tema delicado y un factor determinante en el futuro de la humanidad. 

Recientemente, la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager se reunió con el Consejero Delegado de Google, Sundar Pichai para fomentar un pacto voluntario acerca de la regulación de la Inteligencia Artificial a nivel comunitario e internacional. La necesidad de llegar a una regulación en esta materia se debe a que “la Inteligencia Artificial evoluciona de manera extremadamente rápida. Por tanto, necesitamos ya un pacto voluntario sobre reglas universales”, señala Vestager. 

La Unión Europea no ha sido el único espacio donde se ha hablado de una posible regulación de la Inteligencia Artificial. En Estados Unidos y Reino Unido también hay un debate abierto sobre cómo se debe o deberá actuar legalmente con esta tecnología. 

Te puede interesar: ¿Cómo sería una Ley de Inteligencia Artificial de la Unión Europea?

Riesgos de la Inteligencia Artificial para la Ciberseguridad

La Inteligencia Artificial es capaz de generar imágenes e incluso vídeos basándose en los datos recogidos en Internet, y aunque por el momento se puede identificar fácilmente los materiales creados por esta IA, su sofisticación podría poner el peligro la protección de la identidad de las personas e incluso usarse con fines malintencionados como es el caso de las ‘deepfakes’ 

Los algoritmos de la IA también son utilizados para equipos de reconocimiento facial o la creación de perfiles de personas, lo que podría suponer riesgos para la privacidad y la protección de los datos de los usuarios en la red. Asimismo, el análisis de datos de la IA podría desencadenar una nueva técnica propagandística dirigida a las masas y controlar así la opinión pública. De igual modo, la Inteligencia Artificial y los datos de los usuarios almacenados en la nube propicia que las webs sean más fáciles de hackear y, por tanto, sufrir ciberataques.

Muchos ciberdelincuentes ya emplean sistemas de Inteligencia Artificial para analizar y suplantar el comportamiento humano, lo que dificulta a los usuarios cada vez más distinguir las estafas cibernéticas y ser víctimas de múltiples técnicas de ciberataque como el phishing o el spoofing. 

Te puede interesar: Inteligencia artificial, sí, pero, ¿siempre y para todo?

Por otro lado, lo que más preocupa es que esta Inteligencia Artificial pueda acceder a códigos atómicos, los cuales en malas manos podrían suponer un gran riesgo. En una entrevista al medio de comunicación BBC, el consejero delegado de OpenAI, Sam Altman, señala que es probable que con el tiempo necesitemos algo parecido a un OIE–Organismo Internacional de Energía Atómica– para los esfuerzos de superinteligencia”.

De igual modo, Altman afirma que la Inteligencia Artificial a corto o medio plazo deberá someterse a una autoridad internacional que pueda inspeccionar los sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad, imponer restricciones sobre los grados de despliegue y los niveles de seguridad”. La Inteligencia Artificial puede ser de gran ayuda en nuestro día a día, pero debe desarrollarse bajo una regulación y conociendo detalladamente cómo se comporta y cuáles pueden ser sus consecuencias.

Además, puede ser utilizada como otra herramienta más en las guerras híbridas como está siendo el caso del Kremlin, en el que Rusia también se ha unido a la carrera por la IA y ha creado GigaChat, un ChatGPT ruso que cuenta con las mismas capacidades además de presentarse como un modelo multimodal, es decir, compaginar habilidades y comunicarse exclusivamente en ruso. Este GigaChat podría ser incluso una herramienta propagandística con respecto a la guerra en Ucrania.

Te puede interesar:

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí