spot_img

El falso optimismo de la inteligencia artificial: un libro para calmar las expectativas

Análisis

Miguel Fernández Matía
Miguel Fernández Matía
Graduado en Relaciones Internacionales y Máster en Negocios e Innovación Digital por la IE University. Sus principales intereses son la tecnología, la geopolítica y la economía.

Una reseña sobre el libro “El mito de la Inteligencia Artificial: Por qué las máquinas no pueden pensar como nosotros” en el que se abordan algunos de los problemas que tiene el enfoque de investigación de la IA moderna y que impactan indirectamente en la geopolítica al tener estas tecnologías usos militares o que afectan a la geoeconomía.


El mito de la inteligencia artificial: por qué las máquinas no pueden pensar como nosotros los humanos

Erik J. Larson

Editorial Shackleton Books (2022)

Puedes comprar el libro aquí


Erik J. Larson está muy quemado. Durante décadas ha visto cómo futurólogos, filósofos, tecnólogos y algún que otro economista presagian una nueva revolución industrial y humana que vendrá de la mano de la inteligencia artificial, su campo de estudio científico.

Desde sus inicios como disciplina de estudio formal, allá por los años cincuenta en la llamada Conferencia de Dartmouth e, incluso, previamente con el trabajo de Alan Turing, el estudio de la IA ha ido acompañado de ambiciosas promesas que la mayoría de veces no se han cumplido.

En paralelo al desarrollo técnico y comercial de ordenadores, perceptrones y redes neuronales, de cara al público se nos ha hablado de máquinas pensantes, de una automatización del trabajo sin precedentes y de la existencia futura de una inevitable singularidad tecnológica. Este concepto, acuñado por el famoso matemático John Von Neumann, describe una aceleración en el progreso tecnológico a partir del cual el comportamiento de la especie humana no se puede ni predecir ni comprender.

El término “singularidad” es muy popular. Normalmente, se considera que su llegada depende del desarrollo de una IA de propósito general que en algún momento superará al ser humano; esta sería una IA capaz de analizarse a sí misma, de automejorarse y alcanzar así un nivel de comprensión inimaginable para nuestro intelecto.

La cuestión de las IA’s generales y de la singularidad es tan cautivadora que ha sido objeto de discusión desde que fue formulada. Por todos es conocida la presencia de androides como C3PO o el mal encauzado asistente de nave Hal 9000, personajes ya consagrados en nuestra cultura popular. 

En tiempos recientes, a intelectuales como Nick Bostrom, Stuart Russell y Ray Kurzveil les preocupan las máquinas inteligentes por sus potencialmente catastróficas consecuencias para la civilización y demandan que sean tratadas con seriedad y medidas de control; mientras a otras personas como Martin Ford, Jeremy Rifkin o Eryk Brynjolfsson les fascinan por los cambios que sospechan que traerán para la economía debido a que la obsolescencia productiva del hombre supuestamente traerá desigualdad y colas de parados interminables.

Hay otros pensadores relevantes en esta tecnoesfera, pero los nombrados son algunos de los más importantes y los principales autores de los libros que luego leen y recomiendan al público general personajes influyentes como Bill Gates y Elon Musk.

Y todos ellos, según Erik Larson, se equivocan en sus elaborados análisis. ¿Por qué? Según el autor estos están construidos sobre un pilar inexistente, una pieza clave que tiene más de ficción que de ciencia, pues no encuentra su base en la realidad: la idea de que la inteligencia artificial general es posible con las herramientas y conocimientos de los que actualmente disponemos.

En su libro “El mito de la inteligencia artificial: por qué las máquinas no piensan como nosotros” (Shackleton Books) Larson nos explica tanto el origen de la falacia tecnológica como sus causas. A continuación mencionamos la esencia de su crítica.

La limitación fundamental de las matemáticas

De entrada, toda la inteligencia artificial existente está inextricablemente ligada a la informática, y con ello constreñida a lo que es válido bajo la lógica formal de un sistema matemático.

Que esto sea así se ha demostrado de gran utilidad, pues poco a poco ha permitido que con gran esfuerzo ingenieril se puedan construir sistemas y sistemas sobre sistemas que realizan de manera automática operaciones aritméticas demasiado tediosas y complejas para un ser humano. Antes de que llamásemos a los ordenadores con este otro nombre, la palabra “computadora” justamente se empleaba para referenciar la ocupación de un asistente que ejecutaba cálculos manuales con un propósito muy específico, con frecuencia empleando un algoritmo ya dado.

No obstante, a pesar del indiscutible éxito para mejor que nos ha traído la informática, según Larson haríamos mal equiparando conceptos. Ser capaz de calcular, en tanto que requiere la manipulación de entes abstractos con las instrucciones provistas por unas instrucciones previas, no es lo mismo que el acto de pensar. Si usted coge la calculadora de su teléfono y escribe una multiplicación larga la máquina le dará la solución, pero usted es consciente de que la calculadora no ha reflexionado; ha cogido una serie de inputs escogidos por usted, pasado esos datos por una función pre progamada y entregado el output deseado.

Ya en el siglo anterior hubo matemáticos que se plantearon si algo tan flexible y dinámico como es el concepto de inteligencia se podía condensar a un nivel puramente mecánico, siguiendo las instrucciones de un determinado sistema matemático. Hay todavía hoy un debate sobre si la mente humana es una máquina de Turing. Si bien parece que no está del todo claro, los famosos teoremas de incompletitud del lógico Kurt Gödel publicados en los años treinta demostraron que dentro de un sistema formal existen proposiciones verdaderas que, sin embargo, no son demostrables dentro del propio sistema.

Los resultados de los teoremas de incompletitud de Gödel con frecuencia se emplean para argumentar que existe una limitación en el corazón de las matemáticas. De ser así, los sistemas basados en ellas serían incapaces de alcanzar la inteligencia general de la que hacemos uso los humanos. Nos quedamos, entonces, con una inteligencia artificial de aplicación específica, que de hecho es lo que tenemos hoy y con lo que tanto se ha innovado en los últimos años.

Abducción, la lógica olvidada

Larson también se sirve de un concepto poco conocido y de un científico respetado pero generalmente inframencionado, Charles Sanders Peirce, para realizar su crítica al tecnooptimismo de la IA. En clases de filosofía o de lógica comúnmente se les enseña a los alumnos que hay dos tipos de razonamiento inferencial, deductivo e inductivo, y no que de hecho existe un tercer tipo: el razonamiento abductivo.

La lógica deductiva se sirve de premisas verdaderas para alcanzar una consecuencia o conclusión que es imposible que sea falsa, es decir, que es irrefutablemente verdadera derivándose de la propia certeza de las premisas.

La lógica inductiva se sirve de premisas verdaderas para formular una conclusión que cree que puede ser cierta, pero no puede afirmar con absoluta seguridad. Su naturaleza es probabilística, y, por lo tanto, esta lógica se emplea más en campos que en conjunto conforman la llamada “ciencia de datos”, como la estadística, que en gran parte contienen el compendio de técnicas de inteligencia artificial actuales.

La tercera lógica, la abductiva, consiste en formular una teoría que, actuando como premisa, serviría para explicar la conclusión de un hecho observado en primer lugar por el espectador. La abducción en este aspecto es distinta a la deducción porque no garantiza la validez de la premisa como el detonante de la conclusión y porque opera en base a conjeturas; permite así ser falaz. Abducir es la acción de emplear nuestra imaginación e intuición para encontrar la explicación de un fenómeno, sin ser la explicación necesariamente verdadera.

Y el problema más importante para Larson reside en el desconocimiento del que disponemos para programar una lógica abductiva artificial. Según él —que ha trabajado en proyectos para ello— nadie sabe cómo programar formalmente la abducción, lo que en términos prácticos implica que nadie sabe cómo crear una máquina que imagine, que pueda hacer suposiciones y formular hipótesis autónomamente.

La consecuencia que esta falla en la disciplina de la informática ha traído consigo es la fijación por parte de científicos, ingenieros y programadores en decantarse por técnicas inductivas y computables que eran prometedoras en el corto y medio plazo. Entendiblemente, al haber tomado este camino los profesionales de la inteligencia artificial han logrado grandes avances para aplicaciones con fines específicos, donde los problemas a resolver se pueden enmarcar dentro de una estructura de procesamiento de datos.

No obstante, Larson cree que los tecnooptimistas no deberían engañarse. Ninguna inteligencia artificial general va a surgir a base de profundizar en las variantes de técnicas ya existentes. La IA se centra en metodologías matemáticas antiguas y en sí lo que en las últimas décadas ha cambiado no son tanto los fundamentos técnicos como el poder de procesamiento de las propias máquinas.

Debido a la democratización de lenguajes de programación abiertos como Python y a fenómenos como la Ley de Moore —la densidad de los transistores de un circuito se duplica cada dos años—, los ordenadores han incrementado su potencia de computación a un ritmo que ha permitido que el uso de estas técnicas sea ahora factible. Si los científicos de la IA quieren llegar a una inteligencia general, algunos de ellos tendrán que lanzarse al vacío y cambiar de enfoque.

Las limitaciones en la comprensión del lenguaje

Para ejemplificar los límites de las técnicas de IA actuales Erik Larson cubre brevemente unos cuantos proyectos que fracasaron en su propósito, que recurrieron a trucos baratos o que no pudieron traspasarse a otros una vez tuvieron éxito en el original. En su libro, de trescientas cincuenta páginas, Larson recurre especialmente al análisis del lenguaje natural, últimamente en boga por el lanzamiento de las IAs GPT de OpenAI.

En 2014, por ejemplo, un equipo de ingenieros ganó cien mil dólares tras engañar a un jurado al pasar una versión del denominado “test de Turing.” Eugene Goostman estaba diseñado para conversar como lo haría un chico de trece años, esquivando preguntas complejas con las expresiones y el desinterés típico de una persona de su edad. El engaño fue tal que algunos jueces interpretaron que se trataba de una persona real. No obstante, el programa no se podría considerar inteligente. El propio hecho de que respondiera con evasivas evidenciaba la incapacidad de mantener una conversación que se saliera del esquema programado.

Las limitaciones de la IA en el análisis del lenguaje natural van más allá de lo que un astuto fraude mostró en su día. Incluso IAs más avanzadas como el Watson de IBM o las GPT fracasan en comprender realmente los miles de millones de líneas de texto que contienen en sus bases de datos. Si usted le pide a ChatGPT que le proporcione la descripción de un evento histórico o que le encuentre el error a un párrafo de código, el programa lo hará de un modo excelente, digno de la Wikipedia; más tenga cuidado si a la misma IA le pregunta cuál es el color favorito de una persona que siempre va vestida de rosa, si esta no lo ha expresado explícitamente en algún texto.

Conclusiones

Larson cubre más temas en su libro y proporciona otros argumentos para defender su postura como escéptico. Hay temas asociados que no toca, como la paradoja de Moravec o la discusión que mantuvieron el premio nobel de física Roger Penrose con Marvin Minsky sobre la computabilidad de la consciencia en los años noventa, que tal vez despierten curiosidad en el lector.

De la lectura de su libro hay una cosa bien clara: si se tiende a creer a Larson, entonces se puede estar seguro de que la singularidad no está cerca y de que aquellos que aseguran su inevitabilidad están exagerando. Si ello es algo malo o razón para alegrarse es cuestión que se deja al juicio personal de cada uno.

Te puede interesar:

Artículos relacionados

Masterclass y eventos relacionados

Formación relacionada

spot_imgspot_img

Actualidad

Dejar respuesta:

Por favor, introduce tu comentario!
Introduce tu nombre aquí

spot_img