Cuando Raymond Queneau creó su libro Cent mille milliards de poèmes, se inspiró en un libro para niños intitulado Têtes folles (“Cabezas locas” en español). Este último, un álbum, mostraba treinta y dos personajes que estaban seccionados horizontalmente en partes estratégicas de sus cuerpos: la cabeza, el tronco y sus extremidades inferiores. Si se cambiaba de recorte se podía obtener una nueva iteración de personaje, que podía resultar cómico o extraño. Queneau escribió un poemario que cumplió con características similares; la particularidad fue que él escribió diez sonetos que se imprimieron en diez páginas y después recortó en tiras horizontales los catorce versos. Así, se podía leer el libro empezando con el primer verso del quinto soneto, el segundo verso del séptimo soneto, el tercer verso del sexto soneto, etc. El cálculo de las posibilidades conduce al título del poemario, el resultado de elevar 10 a la catorce potencia: 1014.. Queneau bromeó con la idea de cuánto tomaría leer todos los poemas: “Contando 45 segundos para leer un soneto y 15 segundos para cambiar las tiras, 8 horas de lectura al día, 200 días de lectura al año, se tiene para un millón de siglos de lectura”. Al igual que con Têtes folles, Queneau escribió sonetos, que tienen una estructura específica e invariable y procuró que estos encajaran en sus millones de variantes.

Queneau sonnets por Thomas Guest
Este experimento de Queneau, quien era parte de Oulipo, el Taller de Literatura Potencial, remite a los generadores de texto. Queneau buscaba “nuevas formas y estructuras que puedan ser usadas por escritores de cualquier manera que prefieran”. Quizá un libro como Cent mille milliards de poèmes sirve ahora como un hito analógico para los programas que se han conocido como “generadores de poesía”. Con la aparición de computadoras, una operación como 1014 se volvió sencilla. Cristopher Strachey, un colaborador de Alan Turing, desarrolló en 1952 un programa que creaba cartas de amor. Observar el algoritmo de Strachey permite acercarse a las instrucciones para un generador de texto. Podrá variar su grado de “creatividad”, pero los generadores de texto suelen partir de un conjunto de palabras o frases que se organizan según una estructura que el programador decide. A eso se le añade la aleatoriedad, que influye en qué elementos del conjunto serán seleccionados y en qué orden. El algoritmo de Strachey tenía la siguiente estructura:
1. Imprimir dos palabras de una lista de saludos.
2. Hacer lo siguiente cinco veces:
a. Elegir una de dos estructuras de oración según un valor aleatorio.
b. Llenar la estructura de la oración con una lista de adjetivos, adverbios, sustantivos y verbos.
3. Imprimir el cierre de la carta.
En su ensayo “The “Thinking” Machine” de 1954, Strachey reflexiona sobre las posibilidades de su algoritmo. Entrecomilla “Thinking”, es decir, “pensante”. Tras explicar cómo funciona su programa, insiste en la simplicidad del esquema y el conjunto de reglas que operan detrás. Compara estas sencillas instrucciones con la diversidad enorme de las cartas que pueden crear. Strachey afirma que su algoritmo parte de un simple truco y, de manera categórica, que la computadora no está realmente pensando, sino que aparenta hacerlo. Tras un análisis, la máquina responde a trucos que varían en complejidad. Lo que rescata es que aquellos, aunque sigan los caminos lógicos de las reglas definidas, pueden tener resultados “muy inesperados”. Concluye que las computadoras pueden como máximo otorgar un material primitivo para nuevas ideas y que es el ser humano quien debe reconocer si aquellas merecen atención o son válidas.
Hace casi 70 años, Strachey estaba reflexionando sobre la posible subjetividad de la máquina. En la actualidad, con los sistemas de predicción y el machine learning, es inevitable preguntarse cuánto de lo que los programas devuelven o imprimen pueden surgir de sí mismos y no de las reglas definidas por sus programadores. La posibilidad de que una máquina cobre una consciencia individual es una idea recurrente en la cultura popular y la ciencia ficción; recientemente, uno de las series de televisión más emblemáticas sobre este tema fue Westworld, que plantea la posibilidad de la agencia de seres artificiales. La belleza de este tipo de cuestionamientos reside en que terminan por ser barruntos sobre la propia consciencia humana y sus límites.
El programador y escritor Milton Laüfer ha abordado el tema de la subjetividad de un programa en la literatura digital y cómo el sujeto humano puede mecanizarse. Läufer se refiere a un cambio de paradigma del sujeto poshumanista, quien no solo es uno sino múltiples sujetos y cada uno de ellos se ocupa de procesos algorítmicos “simples y no autoconscientes”, que resultan en una cognición distribuida. A partir de esta definición, Läufer considera la posibilidad de que los softwares puedan ser sujetos encargados de crear o producir “textos electrónicos”. Con respecto a aquello, es inevitable topar el tema de la literatura digital, debido a que varias exploraciones de herramientas informáticas ocurrieron en aquel campo y sus géneros multimodales. La crítica literaria Katherine Hayles, teórica del poshumanismo, llamó intermediación al diálogo entre humano y máquina, que disuelve la idea de que el entorno proponga o determine un “universo conceptual” y que “la determinación de los sentidos” esté asentado en lo humano. Esta posición alternativa consiste en que haya codeterminaciones, interacciones sucesivas a partir de la tecnología y lo humano.
La idea que Läufer propone es que la subjetividad se puede asignar a una máquina y que aquella “consciencia” se puede tornar evidente en los errores del programa, debido a que mostraría que aquel posee una creencia falsa. El error permite inferir el funcionamiento de procesos algorítmicos. De cierta manera, Läufer coincide con Starchey en que el error también es un resultado de “una cadena inteligible de procedimientos definidos”. No obstante, Läufer difiere en que los errores tienen un significado y abren la puerta a una subjetividad. Pensar lo contrario involucraría tener un prejuicio sobre la imposibilidad de que exista un sujeto no orgánico, cuando “las condiciones de conocimiento no son tan heterogéneas entre entes humanos y no humanos”. Läufer concluye que una de las características de la literatura computacional es atender a los errores como la puerta a un universo de nuevos significados, “formal pero no por eso menos dotado de sentidos”.
Obras como las de Strachey trastocan versos o líneas originales y ofrecen al lector nuevas iteraciones de texto y nuevos significados bajo un halo de “desautomatización”, común en la poesía. Belén Gainza Cortés describe aquel asombro de la siguiente manera: “Lo que define a la literatura digital es la existencia de una poética, donde, en una especie de neoformalismo, podemos decir que la manipulación y extrañamiento del lenguaje, característico del trabajo literario, se encuentra en la imbricación y relación que se halla en los flujos de lenguajes diversos. La manipulación del lenguaje de código para un fin literario permite desnaturalizar su funcionamiento, descentrarlo de sus funciones de eficiencia y operabilidad, para darle una función poética”. ¿Es acaso la desnaturalización del proceso detrás de la creación el mayor camino o la señal más evidente de la creatividad computacional?
Los generadores de texto son de las primeras obras de literatura digital en el siglo XX, aunque hubo antes de ellos autómatas o conceptos de máquinas con la función de crear con un conjunto de instrucciones una multiplicidad de mensajes. De aquellos se puede señalar una tradición que los conecta con los chatbots y demás programas que procesan lenguajes naturales. Entre el generador de texto de Strachey y los modelos generativos de la actualidad hay un salto inconmensurable. Aquí surge la cuestión de si es posible que exista una subjetividad en programas tan populares como ChatGPT o character.ai. En aplicaciones como esta última, se otorga voces a los personajes y el usuario puede entrenar al programa con conversaciones existentes (chats de Whatsapp, por ejemplo). La personalización lleva a una ilusión de subjetividad. Quien haya usado estos programas sabrá de su juego especular, sus preguntas evasivas y abiertas.
Es posible crear un generador de texto simple con un banco de palabras. Cuando se habla de procesamiento de lenguaje natural se ingresa en un territorio diferente. Se trabaja con modelos extensos de lenguaje o LLMs para referirse a sistemas que son entrenados con tareas de predicción de strings o cadenas de caracteres. Estos sistemas predicen la posibilidad de repetición de un token (un caracter, una palabra o conjunto de palabras) según el contexto precedente o el contexto circundante. Cuando toman texto de entrada, elaboran predicciones usando estadística. Aunque a Claude Shannon como el creador del primer modelo extenso de lenguaje en 1949, aquellos fueron implementados industrialmente al principio de los años ochenta en programas de reconocimiento automático de habla, traducción y clasificación de documentos.
El primer chatbot registrado de la historia se llamó Eliza. Este contaba con una cantidad limitada de reglas y palabras con las que trabajar. Cuando recibía alguna instrucción de un usuario, el programa reconocía en las palabras un patrón y otorgaba una respuesta relacionada o hacía preguntas abiertas. Hoy existen chatbots cada vez más sofisticados trabajando en diferentes áreas y funcionan con predicciones y enormes bases de datos con los que entrenan y aprenden en cada iteración. A programas con la función de aprender y entrenarse con bases de datos, se les conoce como Generative PreTrained Model o GPT. Con la palabra “generar” se apunta a que estos sistemas no repiten la información disponible, sino que la entienden y la transforman. Aprenden patrones, estructuras y relaciones dentro de los datos y con ello crean nuevos textos. Se ha comprobado esta “novedad” u originalidad con estadísticas de cuánto se diferencian aquellos de los datos que sirven para entrenarlos, lo que indicaría una transformación posible por el entrenamiento con terabytes de información. Algunas bases de datos para sistemas como GPT han sido Wikipedia y Reddit, que ayudan a que tengan una plataforma de información de la que aprender.

Una conversación con Eliza.
En la crítica sobre las inteligencias artificiales ha surgido el concepto de loro estocástico. La metáfora fue introducida en el artículo de Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, que le valió a Gebru su despido de Google por negarse a retractar sus afirmaciones. Los autores mencionaron los límites de los modelos de lenguaje entrenados con bases de datos de dimensiones mayúsculas, pues presentaban sesgos ideológicos. El loro ilustra la nula comprensión de los modelos de lenguaje y las respuestas basadas más en cálculos que la comprensión profunda y respuesta adecuada a una petición. La palabra estocástico significa “relativo al azar” y señala la limitación de los cálculos de un modelo de lenguaje. Dado que solo pueden responder a partir de las bases de datos con las que fueron entrenados, estos modelos se valdrían únicamente de información sesgada más que verdadera y sin entender realmente lo que están diciendo.
Considerar a chatbots que funcionan con algoritmos correlacionales y estadística como la mayor muestra actual y cotidiana de inteligencia artificial es ceder a la publicidad y al hype: más se puede hallar dentro de aquella inteligencia y los GPT tienen sus particularidades para ser funcionales y potables. En su libro Tecnología y barbarie, Michel Nieva ilumina una historia para “biteratura”, concepto mencionado por Stanislaw Lem, que contempla a aquella literatura de origen no humano, elaborada por autómatas o programas. Nieva destaca cómo fue necesario censurar las bases de datos con las que aprende ChatGPT. OpenAI contrató a un grupo de trabajadores en Kenya, a través de la empresa Sama, a quienes les pagó dos dólares por hora para catalogar contenido violento o perturbador, primero en texto y luego en imágenes, en jornadas largas de trabajo. El contrato tuvo que concluir de manera temprana, debido a que los empleados debían examinar material ilegal en Estados Unidos. Los empleados de Sama también se vieron afectados por palpar cada día “contenido” violento.
La crítica medioambiental a estos sistemas suele centrarse en el gasto de energía para mantener servidores y enfriarlos. Por virtual y etéreo que parezca, un programa requiere recursos concretos para funcionar, como la mano de obra de humanos o recursos ambientales como el agua. Para escribir un email de 100 palabras, GPT-04, en 2023, consumió 519 mililitros de agua, un poco más de una botella de agua mediana, y 0.14 kilowatts, lo que se necesita para mantener 14 luces LED encendidas por una hora. Este es un elemento diferenciador determinante entre la creatividad humana y la creatividad computacional. La limpia, blanca o beige interfaz de los chatbots apenas insinúan todo el gasto humano y medioambiental detrás de cada iteración y pregunta.

Lo que dijo una inteligencia artificial ante la acusación.
Con la creación cada vez más acelerada de nuevos modelos de inteligencia artificial que responden a instrucciones o prompts, ¿dónde se observa la creatividad computacional? ¿Se halla en cada respuesta a las instrucciones? ¿O en el error como afirma Laüfer, en los vacíos y las fronteras donde no llegó el entrenamiento del modelo extenso de lenguaje? ChatGPT inventa respuestas, como se ha observado en casos célebres, y burla la confianza ciega que han puesto usuarios en el programa. El término técnico para los errores y la invención de las inteligencias artificiales es “alucinación”. A diferencia de las alucinaciones humanas, aquellas de la inteligencia artificial son errores factuales, no relacionados con la percepción. En 2023 se estimó que el 46% de textos creados por ChatGPT tenían algún error factual, evidentes cuando se le hace preguntas sobre temas no incluidos en las bases de datos de entrenamiento.
Los delirios de un modelo de lenguaje extenso son difíciles de caracterizar. Quizá la sensación de presenciarlos se acerque al valle inquietante, por el rechazo que puede ocasionar en quien lee las alucinaciones y presencia la velocidad en que el programa escribe. Lo que crea GPT tiene una sintaxis ordenada, es coherente, pero hay un elemento que no cuadra, que despierta la necesidad de hacer fact checking, de cruzar información con otras fuentes. Ante una consulta sobre la novela El pinar de Segismundo, GPT ubicó la autoría en Ángela Vallvey. Las alucinaciones son claros límites de hasta dónde llega la variedad de una base de datos de entrenamiento (no sabe suficiente de literatura ecuatoriana del siglo XXI) pero a la vez el lugar donde la estadística falla.

Una invención de ChatGPT.
Hay una aproximación en las alucinaciones que se considera un error o un sinsentido. En ese choque, que se lee en una interfaz ordenada, hay un momento de desautomatización o de despertar en el interlocutor del chatbot, cuando aquel comprueba que una herramienta sofisticada se desvía y presenta el vaciamiento de la verdad con una sintaxis comprensible, una invención como un hecho. El escritor chileno Benjamín Labatut se maravilla con estas invenciones: “Nuestra percepción es aproximativa, es ensoñada, así operamos nosotros. Y ChatGPT, al parecer no puede operar en el lenguaje sin tener estos sueños, estas fantasías, todos estos datos que apuntan a una realidad que no existe. Y la realidad que no existe es el centro de la literatura”. Otra vez el error indica una falencia en el programa y, a la vez, como no puede desinscribirse del lenguaje, muestra una versión distorsionada de lo que consideramos creíble y lógico, lo que puede pasar como verdad. Quizá son estos momentos en los que más se desnuden las debilidades del programa, pero el valle inquietante se puede prolongar a qué es la verdad y las verdades que, en general, se presentan con palabras. En su versión más extrema, aquello puede conducir a una duda metafísica. En su versión más diluida, a una desconfianza en general de las fuentes de información digitales. Las alucinaciones son otra manifestación de la creatividad computacional y un espacio amplio para recordar que una secuencia de palabras creada por un LLM, por probable que sea, no apunta a una verdad y menos a una prueba. Quizá sea una pieza desconcertante que condensa consciencias, estructuras y sensibilidades que, aunque acierte, se asemeja a un juego de espejos. Hay valor, novedad y hasta una especie de burla en esa invención, en la distorsión de lo más probable, el camino más hollado.