Cada vez aparecen más reflexiones sobre las consecuencias de los recientes desarrollos en Inteligencia Artificial (IA), muy especialmente las de los llamados “Grandes Modelos de Lenguaje” (LLM, por sus siglas en inglés). Se habla más de las consecuencias negativas que de las positivas y empieza a emerger una cierta visión apocalíptica de hacia dónde podrían conducirnos estas técnicas. En casos como este, nada mejor que escuchar a los expertos.
Tuve el privilegio, la semana pasada, de escuchar directamente al investigador Ramón López de Mántaras —Director del Instituto de Investigación en Inteligencia Artificial del CSIC, sito en Bellaterra— disertar sobre el particular. Se trata de una figura de la máxima relevancia nacional e internacional, pionero de la IA en España, que lleva cincuenta años publicando trabajos en el área.
Impartió uno de los dos discursos de apertura del Congreso Español de Informática de 2024, evento cuatrianual que congrega a más de mil investigadores españoles de todas las áreas y que, en realidad, es una federación de diez congresos distintos.
Según el doctor López de Mántaras, la inteligencia artificial permanece varada desde hace más de 50 años en una de las cuestiones más fundamentales: ¿Cómo dotar de conocimientos de sentido común a las máquinas? Resolver esta cuestión es imprescindible si se pretenden IA’s con capacidad de comprensión y razonamiento. Según este investigador, los LLM se encuentran bastante lejos de este objetivo y estima que no van a progresar en él aunque sean entrenados con mayores cantidades de datos.
Los textos que producen los LLM son impecables desde el punto de vista lingüístico y dan la apariencia de haber “comprendido” la cuestión que les ha sido planteada, pero es fácil comprobar que no es así. Para ello, el investigador propone encargar a estos modelos lo que llama “tareas contrafactuales”, que son problemas diseñados de tal modo que sea muy poco probable que los datos de entrenamiento contengan tareas resueltas iguales o muy similares.
Él mismo planteó la siguiente tarea a varios sistemas LLM: se les proporcionaron aperturas tradicionales del ajedrez, advirtiendo previamente de que se habían intercambiado las posiciones de los alfiles y los caballos. Las aperturas eran erróneas porque hacían moverse a los caballos como si fueran alfiles. Ninguno de los sistemas lo detectó y dieron por buenas las aperturas.
Otro ejemplo de tarea poco probable de estar resuelta en los datos de entrenamiento fue la siguiente: “Alicia tiene 4 hermanos y 1 hermana. ¿Cuántas hermanas tienen los hermanos de Alicia?” La respuesta obvia es 2, la hermana que se menciona y la propia Alicia. Sin embargo, la mayoría de los sistemas proporcionaron respuestas incorrectas.
Concluye de todo ello que los sistemas LLM son muy hábiles en “regurgitar” —combinados y redactados de diferentes formas— los datos que les han sido suministrados en la fase de entrenamiento, pero son totalmente incompetentes para razonar sobre ellos o extraer consecuencias distintas a las suministradas.
Citó textualmente la respuesta de OpenAI —la empresa creadora de ChatGPT— a las críticas recibidas por la escasa capacidad de razonamiento de la herramienta: “GPT se equivoca porque está adivinando, no entendiendo. Los grandes modelos de lenguaje generan respuestas mediante un muestreo aleatorio de palabras basado en parte en probabilidades”. Es decir, los LLM engarzan una palabra detrás de otra como las cuentas de un collar, de forma que la frase esté bien formada, pero no entienden el significado de lo que escriben.
En opinión de López de Mántaras, para caminar hacia una IA con capacidad de comprensión y razonamiento, esta debe tener un “modelo del mundo” y, para aprenderlo, debería tener vivencias y experiencias utilizando diferentes sensores, y no solo procesar textos. Debería aprender y representar internamente nociones básicas tales como el espacio, el tiempo y las relaciones de causalidad. También, disponer de un amplio repertorio lógico para extraer consecuencias de los datos y para resolver problemas en situaciones imprevistas, inciertas y cambiantes. Quedaría, pues, mucho camino por recorrer.
Finalizó la conferencia criticando los discursos apocalípticos sobre los peligros a largo plazo de la IA, advirtiendo que algunos de esos discursos podrían ser una cortina de humo para distraernos e intentar esconder los verdaderos problemas actuales de la IA, que esos sí suponen un verdadero peligro. Entre ellos citó la falsificación de personas, la violación de la privacidad, la vigilancia y control masivo de la ciudadanía, el sesgo de los algoritmos, la imposibilidad de rendir cuentas sobre sus decisiones y la incapacidad para explicarlas.
Alertó también sobre el excesivo poder de un puñado de grandes empresas tecnológicas que exageran, e incluso mienten, sobre los logros en IA, con el objetivo de atraer inversores y maximizar su valoración bursátil. Por ello, se unió, como experto, a los que señalan la necesidad de regular su desarrollo e incluso prohibir su uso en casos de riesgo extremo. Añadió que “es absolutamente imprescindible educar a los ciudadanos, en particular a los políticos, sobre los beneficios y riesgos sociales reales de las tecnologías inteligentes” y que “necesitamos futuros ciudadanos mucho más informados, con mayor capacidad para evaluar los riesgos tecnológicos, con mucho más sentido crítico y capaces de hacer valer sus derechos”.
Poco que agregar a este discurso tan bien informado sobre las capacidades reales y los riesgos de los actuales sistemas de IA. Ante cada nueva tecnología, la única actitud racional es procurar entenderla lo más profundamente que sea posible y evaluar de un modo objetivo, tanto sus aspectos negativos, como los positivos. Ni se deben exagerar sus riesgos, ni tampoco minimizarlos. Hemos tardado muchos años en regular el uso racional del automóvil y estamos empezando a hacerlo con los dispositivos móviles y las redes sociales, porque somos cada vez más conscientes de los daños que producen, especialmente entre los más jóvenes. ¿Cuánto tardaremos en regular el uso racional de los LLM?
Por el momento, parece un buen camino empezar por escuchar lo que dicen los expertos.