En mi anterior artículo señalaba que, en el mundo actual, los Gobiernos y los responsables políticos deben de dedicar una atención prioritaria a la ciencia y apoyar la investigación, y a las empresas que trabajan en lo que se conoce como “la industria de la ciencia”. Las innovaciones tecnológicas son hoy un factor clave para el crecimiento económico y el bienestar.
Al mismo tiempo, deben de ser activos en una cuestión que cada vez está siendo más importante: la regulación, desde el punto de vista de la ética, de los nuevos avances. Un ejemplo destacado en el campo de la investigación genética, es la puerta que abrió la clonación de la oveja Dolly hace ya 27 años que la reciente clonación de un macaco en China, abre aún más al hacer más posible la clonación de humanos.
Pero más cercano y generalizado, y con más implicaciones directas posibles, es el tema de la regulación ética de la Inteligencia Artificial. En EEUU, pionero en IA, muy por delante de Europa, la preocupación por este tema surgió hace años. Basta seguir la evolución de la entidad OpenAI desde su origen en 2015, y las sucesivas versiones de ChatGPT hasta la última aparecida hace unos meses. Las posibilidades que ofrece este modelo con un procesamiento de lenguaje humano muy desarrollado, abre posibilidades enormes para que una máquina “inteligente” sustituya muchas actividades que hasta hoy solo pueden hacer personas. Un estudio realizado en EEUU el año pasado reflejaba que un 85% de los trabajadores pueden ver sustituidas sus tareas por sistemas de AI y para un 19% el porcentaje de sustitución puede alcanzar el 51%. Pero, ojo!, esta sustitución no es comparable con lo que supone la sustitución de un trabajador u operario manual por una herramienta o un robot en una línea de producción. En el caso de la AI, lo que es sustituido es la persona que, siguiendo unas instrucciones y unos criterios definidos, da respuesta e indicaciones a una consulta o a una cuestión que exige una respuesta. Una máquina, programada, con capacidad de analizar un número de ingente de datos, interpreta y da la respuesta a la cuestión planteada.
Obviamente, el hecho de que haya sido programada por una persona, que tiene unos valores subjetivos, y los datos con que ha sido alimentada, hace que haya riesgos de sesgos que pueden atentar contra derechos de las personas en general o de algunos colectivos en particular. Y por supuesto puede también introducir voluntariamente sesgos interesados alimentando intereses políticos concretos.
De ahí que ante el uso creciente que va a tener la IA en muchos ámbitos de la actividad humana, incluido muchos servicios, desde selección de personal a citas médicas, los riesgos que pueden surgir plantean un claro desafío y un reto a los Gobiernos.
La UE con su propuesta de Reglamento que será previsiblemente aprobado en breve, es un claro intento por parte de Europa de poner límites en este tema. La distinción entre riesgos inaceptables, desde el punto de vista de los derechos fundamentales, altos riesgos, y riesgos mínimos, marca unos criterios sobre hasta donde puede llegar la IA.
Este gran reto, pone sobre la mesa, con una nueva perspectiva, el papel de la Ciencia y la Tecnología en las decisiones políticas. No se trata ya sólo de apoyar los avances de la Ciencia y las innovaciones tecnológicas, e incorporar la visión del conocimiento científico en muchas de las decisiones. Como decimos los economistas, esto es una condición necesaria, pero no es suficiente. Hay que replantearse además la influencia que muchas innovaciones pueden tener en la propia acción de los Gobiernos y en la creación de opinión en los ciudadanos. Y ello por dos motivos: el avance científico ya no es lineal, y la relación del hombre y la máquina ha cambiado con la digitalización.
Por una parte, los avances científicos y las innovaciones ya no se producen de un modo progresivo y en cierto modo lineal, perfeccionando avances anteriores. Se producen de modo disruptivo, cambiando completamente el paradigma anterior. Los ejemplos son numerosos, desde la aplicación del ARN mensajero en las vacunas, a uno de los que está por venir y cambiará muchas cosas como es la computación cuántica.
Por otra parte, en un mundo en que la digitalización es creciente, y con los avances conseguidos en el procesamiento del lenguaje natural, el diálogo entre máquinas y humanos tiene cada vez más relevancia. Entre otras cosas, nada nos garantiza que las máquinas y los sistemas de aprendizaje o machine learning más sofisticados garanticen unas respuestas que beneficien la corrección de las desigualdades entre las personas, y una mayor justicia social, aunque el objetivo que justifica su utilización sea conseguir una vida más fácil y un mayor bienestar para todos. En definitiva, y como han señalado Manuel Desantes y Alex Rayó, del Think tank jurídico económico FIDE, en un artículo reciente, “el dialogo de los androritmos con los algoritmos marca el paso de la nueva era tecnológica”.
En este nuevo marco, por tanto, es en el que los Gobiernos, los responsables políticos, y los ciudadanos, debemos situarnos a la hora de considerar el papel crucial de Ciencia y la Tecnología en el mundo actual. En un mundo tan cambiante, actuar siguiendo la inercia no es bueno.