Tecnolatría y fetichismo digital

Mitos de la Inteligencia Artificial, tecnolatría y fetichismo digital.
Publicado en el nº 23 (junio 2023) de la revista Crisis (Erial Edidiones).
Texto e ilustraciones de Ernesto Sarasa.

Es descarada la facilidad con la que se obtiene beneficio económico de una necesidad vital, un conflicto social, una incertidumbre, un temor o una crisis. Han quedado al descubierto las vergüenzas del capitalismo, cada vez más necesitado de productos incuestionables que incluyan promesas esperanzadoras. Sería un producto perfecto aquel que haga milagros asombrosos, que su poder de persuasión (o disuasión) haga innecesaria la democracia, el juicio o la acción infectada de humanismo imperfecto, sensible y vulnerable. Convencidos de nuestra incapacidad social e institucional, consolidada nuestra fe en las decisiones de un mercado mediado por la tecnología, hay un terreno abonado para ese producto perfecto, que incluso podría convertirse en la nueva religión.

Se dice que la inteligencia es origen de perfección, llave para el mérito, para lo sublime en general. Sin embargo lo inteligente no siempre es lo éticamente aceptable. La posibilidad que da la inteligencia para hacer y crear no anticipa resultados positivos ni neutrales. Pero la publicidad mercantil resignifica en positivo y consigue incluso subvertir el concepto artificial, que siempre tuvo connotaciones negativas: falso, ficticio, adulterado, postizo, engañoso, trucado, aparente, ilusorio. Esta enorme campaña global en favor de ese novedoso producto-marca llamado Inteligencia Artificial (IA), intenta abstraernos de una realidad que resulta frustrante: nada puede fabricarse fuera de nuestra experiencia y conocimiento, incluirá los mismos conflictos y contingencias con los que conviven sus fabricantes. Soslayada esta realidad, el valor del producto-marca IA es ilimitado.

Partimos de un contexto en el que los parámetros mercantiles condicionan la visión del mundo que nos muestran las pantallas, lo que vemos en ellas existe a golpe de capital, su posición y visibilidad es el resultado de una competición y unas luchas de poder que parten de una línea de salida sin igualdad, con trampas. Así, la Inteligencia Artificial que es construida por los ganadores de esta competición, reproduce y acelera mecánicamente las mismas dinámicas que les hizo ganadores y hunde a los perdedores hasta hacerlos invisibles.
El código, los datos y los algoritmos contienen política. Ignorar esto cuando se utilizan dispositivos tecnológicos en asuntos sociales, culturales, educativos, judiciales y policiales tiene resultados catastróficos, como demuestra la matemática e investigadora Cathy O’Neil en su libro «Armas de destrucción matemática» (Capitán Swing, 2018). O’Neil denuncia por ejemplo cómo se están utilizando aplicaciones como PredPol que se basan en sesgos sociopolíticos (raza, clase social, barrio, salud) para predecir quién, dónde y cuándo cometerá un delito. No es difícil imaginar la escena y las consecuencias del impulso motivacional en la actuación de un policía que crea firmemente en la fiabilidad de este dispositivo. El caso es que instituciones políticas, empresas, organizaciones y usuarios aceptan ortopedias digitales totalmente opacas, abducidos por una confianza ciega en las etiquetas App, BigData, AI, Smart, Tech o Digital. Lo mismo ocurre con las noticias que se difunden en redes sociales, cuando inconscientemente se les otorga veracidad simplemente porque proceden de sofisticados (también desconocidos) sistemas tecnológicos. Se impone la creencia de que la tecnología, automáticamente y por arte de magia, revela la verdad.

Toda producción tecnológica se desarrolla mediante procesos de comparación, a partir de objetivos y resultados que de alguna manera conocemos previamente. Cualquier resultado inesperado o incomprensible necesita un complicado trabajo de investigación para explicarlo e identificarlo como positivo o negativo desde nuestro conocimiento, criterio y deliberación. Los modelos matemáticos construidos con datos y algoritmos nos pueden ayudar a detectar rápidamente un problema, pero su solución puede estar en otra parte. Es necesaria la intervención humana continuamente, incluso previamente cuando decidimos qué datos serán procesados, cuáles son útiles y cuáles no. Es resumen: nuestra mediación es imprescindible. Crear algo que trascienda este proceso es una fantasía recurrente, pero es que la fantasía siempre ha sido el recurso favorito de la publicidad cuando trabaja por encargo del mercado capitalista.

Es posible hacer máquinas más rápidas o más fuertes que un ser humano, pero existen evidentes limitaciones materiales que deben resolverse (de manera poco artificial y, quizá, poco inteligente). Un sistema basado en la rapidez, la productividad y el crecimiento infinito, necesita procesos automatizados que solo funcionan en condiciones materiales específicas, lo que desmiente que los instrumentos tecnológicos estén a nuestro servicio. Es al revés, son las personas las que deben adaptarse para que funcionen. Quienes trabajamos habitualmente con tecnología lo sabemos, y sufrimos las eufóricas expectativas de quienes todavía creen que cualquier cosa es posible pulsando un botón. Avanza la tecnología mientras desconocemos sus límites y su complejidad. Es paradójico el culto a todo lo smart desde la ignorancia, o más bien desde la posición de no hacerse cargo, o desde una confianza ciega que nos hace tolerar e incluso facilitar que nuestros teléfonos con sus múltiples sensores y aplicaciones informen de cada detalle de nuestra vida a cualquiera que pueda pagar por ello.

Se ha extendido una fe casi religiosa en la tecnología, que ya parece de procedencia divina, salvadora, auto-generada, sin límites materiales ni ambientales, sin conflicto político ni filosófico. Y desde una especie de cuarta dimensión neutral y aséptica, ese producto-marca llamado Inteligencia Artificial se está convirtiendo en un ente supremo capaz de todo, incluso de convertir la democracia en una cosa obsoleta.