En la anterior capítulo de balance de fin de año, dejaba patente que la ‘toxicidad’ es peligrosa no sólo por su opacidad sino porque al segmentar las noticias falsas en las redes sociales y destinarlos a pequeños grupos de población, esto permite a oscuros grupos de presión (los partidos políticos son sólo meras herramientas, la intencionalidad es mucho mayor) sembrar dudas sobre los procesos electorales, sobre las intenciones de otros partidos, o directamente incitar al odio mediante desinformación y campañas de descrédito.
Porque analizar qué piensa cada votante gracias a su huella digital y enviarle una noticia personalizada evitando el escrutinio y la fiscalización pública es algo ya demostrado: por ejemplo, cuando este ‘microtargeting’ se hace a través de canales encriptados -como es el caso de WhatsApp- la opacidad aumenta al punto de hacer imposible cualquier tipo de monitorización.
Dos informes independientes, uno de la Universidad de Oxford y otro de la compañía norteamericana New Knowledge, sobre las elecciones presidenciales norteamericanas de 2016 y los procesos de manipulación llevados a cabo por la Internet Research Agency (IRA) rusa para el Senado de los Estados Unidos, nos revelan las maniobras de manipulación llevadas a cabo para influir en el resultado electoral y empujar a Trump hacia la Casa Blanca.
En dichos análisis se mencionaba que, mediante la utilización, a una escala nunca conocida antes, de plataformas y redes sociales, se exacerbaba el racismo para generar la mayor polarización posible (sobre todo en los votantes de raza negra y sobre los más conservadores) y generar una deriva de radicalización.
Las consecuencias del uso extremo de la política de adversarios entre los partidos no son muy difíciles de pronosticar: más polarización, más cerrazón y menos diversidad y pluralidad en un debate político que no ya no busca convencer al adversario sino derrotarlo y, si es posible también, humillarlo.
Esto conlleva el crecimiento exponencial de las empresas de consultoría electoral; pero, sobre todo, son las que giran alrededor de la minería de datos las que se encuentran en brutal expansión (sólo hay que conocer la demanda actual de ingenieros, informáticos y matemáticos para percatarse de ello).
No sólo están claros los efectos de la segmentación y la demostración incontestable de que se puedan cambiar algunas tendencias electorales manipulando perfiles psicográficos. En el ámbito de la psicología social estamos descubriendo que ya no es sólo que la ciudadanía se encierre en su burbuja, sino que los algoritmos detrás de las redes sociales (o de los buscadores, ojo) proporcionan textos y vídeos que confirman creencias y prejuicios profundamente sentidos: la inteligencia artificial suprime opiniones contrarias que podrían concienciar a un usuario y genera, al mismo tiempo, una dinámica social donde mucha gente sólo es propensa a aceptar la comunicación y la información que está hecha a su medida. La pescadilla que se muerde la cola.
La magia del algoritmo -que proviene de la creciente potenciación de la inteligencia artificial en los entornos del big data- acentúa el protagonismo de los argumentos morales y emocionales por encima de los ideológicos y racionales.
Nos encerramos en nuestra burbuja sólo para recibir información (de redes sociales, pero no nos olvidemos los canales tradicionales: periódicos, radio, televisión) que coincide con nuestros prejuicios emocionales. Este planteamiento inicial puede llevar más fácilmente a creer falsedades que luego resulten difíciles o imposibles de corregir. De ahí el creciente peligro de las ‘fake news’, de las noticias falsas o de la manipulación informativa, pues en estas condiciones juegan a placer con el patrón psicológico del votante. Y aquí en España nos espera el 26 de mayo.