Por: Adalid Contreras

Talvez porque no soy afecto a la ciencia ficción, así porque creo que las tecnologías, cualquiera sea, son herramientas, dispositivos y medios, y porque pertenezco a una generación que piensa desde realidades situadas atadas a horizontes utópicos asibles con la energía transformadora de sus sujetos colectivos, para mí las posibilidades de que los robots nos pongan bajo su dominio, son falsos temores. En realidad, si algo parecido llegara a suceder, sería por obra y gracia de un destino (des)programado por los mismos seres humanos.

Lo que está pasando para el surgimiento de visiones fatalistas sobre los alcances invaluables de la inteligencia  artificial (IA), es que su disrupción llega de sopetón, acogiéndose a las predominantes formas mercantilizadas de gestión de las tecnologías digitales, por lo que la generalización del ChatGPT (Generative LaPretrained Transformer), nos encuentra en un momento postpandemia especialmente crítico de deshumanización, en el que nosotros mismos nos victimizamos ralentizando valores, sublimando las desconfianzas, habitando la incertidumbre, legitimando las noticias falsas, ignorando las normas, dejando de conmovernos y de sentir ira frente a las injusticias, y moviéndonos con comodidad en los límites de la polarización en este período del capitalismo tardío.

La gestión mercantil de las tecnologías digitales es terreno fértil para que se mal-encaminen los temores expresados en el Foro Económico Mundial por el economista principal de Microsoft, Michael Schwarz, advirtiendo que la inteligencia artificial podría causar mucho daño si la usaran personas como los spammers, que como su nombre lo indica, buscan echar basura (spam) en las redes sociodigitales. Pero sería un problema de gestión de la política y de la cultura, y no un atributo de la IA, si se dispusiera el ChatGPT para la desinformación mediante la creación y distribución de noticias falsas, la manipulación de datos o la invasión de la privacidad, como ya ocurre en las desreguladas burbujas digitales.

De todas maneras, es cierto que ordenadores y robots empiezan a asumir múltiples funciones operativas, manuales y cognitivas que tienen la capacidad de hackear, suplantar y superar en calidad a la actividad humana. Es cierto, algunas actividades humanas tendrán que redefinirse en la capacidad creativa y explicativa de la mente que la inteligencia artificial no emula porque sus capacidades son probabilísticas, o sea que la forma por la cual encadena información es siempre un algoritmo. Esto pasa con los chatbot, que son algoritmos vinculados a la red internet que permiten construir respuestas inteligentes cada vez más precisas en distintos temas, pero sabiendo que esas respuestas operan siempre en función de probabilidades estadísticas. Estos son sus límites y sus posibilidades. La mente se dinamiza por la ciencia y por la historia.

Otra razón que se esgrime para creer que la tecnología podría acabar dominando y esclavizando al ser humano, se refiere a disfunciones socioculturales tales como el hecho que los enjambres digitales no conforman colectivos, sino que desintegran la esfera pública, o que los flujos de información se procesan en espacios privados para enviarse a otros espacios privados, sin pasar por el espacio público, ampliando la comunicación sin comunidad y reduciendo la información a la calidad de un commoditie. En este sentido, Byung-Chul Han habla del fin de la acción comunicativa, lo que supondría el fin del discurso, de la comunicación y de la democracia, reemplazándola por un sistema de infocracia, con predominio del dato, por la tendencia humana a la entropía, ensimismada, ignorando al otro.

Otras visiones fatalistas se labran en un balance de las formas predominantes de aprendizaje que se han hecho funcionales al mercado, sometiendo los procesos formativos a la adquisición de competencias técnicas, porque los sujetos han sido reducidos a una condición de recursos humanos. Hacen lo mismo que el ChatGPT habilitando robots. Este es tiempo para dinamizar capacidades reflexivas críticas y creativas, cuya epistemología y ontología son irreductibles a las herramientas digitales. Entonces, por obra humana más que de las tecnologías, los procesos de capacitación están robotizando ejércitos de adoctrinados y de operadores que se despojan del valor de su conciencia.

Un elemento más lo encontramos en el pesimismo matizado de Yuval Harari, que proporciona algunas pistas de superación de las visiones fatalistas, cuando sostiene que al menos en las próximas décadas no tendremos que habérnoslas con la pesadilla de la ciencia ficción por la que la IA adquiera conciencia y decida esclavizar o aniquilar a la humanidad, puesto que domina la ciencia, pero no siente amor, dolor, alegría, ira, ni genera sentipensamientos, así como tampoco siente pasión ni sueña ni construye utopías. Este es el pequeño pero fundamental espacio de recomposición humanizada de las tecnologías y de las sociedades.

Hay que desandar caminos, humanizar la vida en un período histórico de transición de la era del conocimiento (con predominio de la tecnología) a la era de la sabiduría (con predominio de los valores y del sentipensamiento crítico). Como dice Deepak Chopra, es el momento de la supervivencia del más hábil, del más humano y del más solidario, y no del más apto ni del más competitivo en la carrera desbocada por la acumulación de riquezas. Los alcances de la inteligencia artificial dependen de cómo la utilicemos, a sabiendas que se trata de una herramienta, dispositivo y medio de grandes capacidades cuyos alcances se programan. (Re)humanizada, la IA puede contribuir con mayor celeridad, y calidad, al desarrollo de una ciencia que se suma con inteligencia a los propósitos inclusivos del desarrollo sostenible.

Adalid Contreras Baspineiro es sociólogo y comunicólogo boliviano