POR QUÉ LA IA NO PUEDE PENSAR

Por David P. Goldman
Law & Liberty
30 de mayo del 2023

Tan sólo por diversión, en mis momentos libres le doy un buen golpe a ChatGPT [sistema de chat basado en el modelo de lenguaje por inteligencia artificial desarrollado por la empresa OpenAI]. Los chatbots [asistentes que se comunican con los usuarios a través de mensajes de texto] no poseen un ser; esto es, ningún propósito para existir, y, por tanto, no pueden pensar. No existe tal cosa como pensamiento en el abstracto: aunque pensar es siempre pensamiento de alguien, y la actividad mental no constituye pensamiento a menos que provenga de alguien que piensa tiene una razón para pensar. Para pensar, debemos distinguir entre objetos de pensamiento importantes e insignificantes; esto es, aquellos que nos importan y aquellos que no (la excepción que prueba la regla es la esquizofrenia paranoica, que hace importante a todo).

El pensamiento superior es autoconsciente, en que involucra darse cuenta de cómo pensamos. Kant distinguió entre Vernunft, usualmente traducido como “razón,” en oposición a Verstand, la simple función categorizadora y clasificadora de la mente o “entendimiento.” La traducción al español no transmite exactamente la diferencia: Vernunft se deriva de la misma raíz que Vernehmen, “interrogar.” Implica un examen crítico de cómo pensamos.

Eso ayuda a explicar por qué a ChatGPT le va tan mal con chistes autorreferentes que no haya escuchado antes. GPT no tiene ser, y el cambio del punto de vista del sujeto -lo que, para empezar, hace que sean tan divertidos los chistes autorreferentes- lo confunde.

Por ejemplo, ChatGPT no podría lograr sentido de un chiste autorreferente que le puede contar un niño de ocho años.
He aquí un intercambio reciente, copiado y pegado del sitio en la red ChatGPT:

“YO: Explique por qué este chiste es divertido: ‘Toc-Toc.’ ‘¿Quién está allí?’ ‘Una vaca que interrumpe groseramente.’ ‘Que interrumpe groseramente…’ ‘¡Muu!’

ChatGPT: Este chiste es divertido pues se basa en el formato del chiste tradicional del ‘Toc-Toc,’ pero subvierte la línea chistosa esperada. La configuración de la broma es la esperada, con una persona preguntado, ‘¿Quién está allí?’ y la otra persona ofreciendo una respuesta. Sin embargo, la respuesta es inesperada y divertida porque interrumpe la frase a medias de la otra persona con un escandaloso sonido ‘¡Muu!’

También, el chiste descansa en un juego de palabras, en cuanto que la ‘vaca que le interrumpe,’ que es lo que la vaca está haciendo al interrumpir la frase de la otra persona. El hecho que la vaca es descrita como ‘grosera’ agrega al humor pues es inesperado que un animal exhiba tal comportamiento.”

Por supuesto, no hay “juego de palabras” entre “una vaca que interrumpe groseramente” e “interrumpirlo a usted.” Hay un cambio en los papeles: La “vaca que interrumpe groseramente” se convierte en el narrador del chiste en vez del objeto del chiste. En vez de describir “una vaca que interrumpe groseramente,” el narrador del chiste llega a ser la vaca.

Un chiste más profundo acerca de una paradoja antigua: Nadie puede imaginar su propia inexistencia, pues, si la está imaginando, él debe existir. He aquí otro intercambio con ChatGPT:

“YO: Nietzsche cita la descripción de Plutarco del semidiós Sileno para afirmar que es mejor nunca haber nacido. El coro en la obra Edipo en Colono de Sófocles dice la misma cosa. Dos estudiantes de la Yeshivá [centro de estudios judío para estudiar la Torá y el Talmud, libros religiosos] están debatiendo esta cuestión. Uno dice: ‘Nietzche y Sófocles estaban en lo correcto. Es mejor nunca haber nacido.’ El otro responde, ‘Sí, ¿pero quién tiene tal suerte? Nadie en diez mil.’ Explique por qué esto es divertido.

ChatGPT: La respuesta del segundo estudiante de la Yeshivá es divertida pues usa la ironía y humor para desafiar el punto de vista pesimista expresado por el primer estudiante. El primer estudiante arguye que es mejor nunca haber nacido, haciendo eco de las ideas de Nietzsche y Sófocles, quienes también expresaron un sentimiento similar. Sin embargo, la respuesta del segundo estudiante sugiere que tal punto de vista no es práctico o realista, pues prácticamente todo mundo ya ha nacido.

Al señalar la ironía de la afirmación del primer estudiante, el segundo estudiante está haciendo una observación humorística acerca del absurdo de hacer una aseveración general sobre la cual nadie puede actuar. También, la respuesta sugiere que, en vez de lidiar con la idea de si es mejor haber nacido o no, podría haber sido más útil enfocarse en cómo hacer lo mejor de la vida que a uno le ha sido dada.

YO: Aclare, por favor. Usted acaba de decir, ‘Prácticamente todo mundo ya ha nacido.’ ¿Está usted afirmando que alguna gente que existe no ha nacido?

ChatGPT: Me disculpo por la confusión. Usted está en lo correcto en que mi declaración previa fue imprecisa. Lo que traté de transmitir fue que la vasta mayoría de gente que existe o existirá ya ha nacido, y así no es práctico considerar si es mejor nunca haber nacido.

Para aclarar, toda la gente que existe ha nacido en una u otra forma, ya sea por medio de nacimiento natural o por otro medio como intervención médica o adopción. Mi afirmación previa no fue exacta y me disculpo por cualquier confusión que ello puede haber causado.

YO: Ahora usted está diciendo que ‘la vasta mayoría de gente que existe o que existirá ya ha nacido.’ ¿Cómo sabe usted cuánta gente nacerá en el futuro?

ChatGPT: Usted está en lo correcto en que es imposible saber con certeza cuánta gente nacerá en el futuro. Mi afirmación previa fue imprecisa y me disculpo por cualquier confusión que pueda haber causado.

Lo que intenté transmitir fue que la vasta mayoría de gente que actualmente existe ya ha nacido. Si bien es imposible predecir cuánta gente nacerá en el futuro, es seguro decir que la abrumadora mayoría de individuos que alguna vez ha existido ya había nacido, vivido su vida, y muerto.”

Por un momento, ChatGPT me preocupó: Me pregunté si me estaba diciendo que las máquinas se habían vuelto sensibles, y que la afirmación, “Prácticamente todo mundo ya ha nacido” significaba que no muchos humanos nacerían en el futuro. Pero ChatGPT sólo estaba siendo torpe.

El chiste, por supuesto, es que posiblemente no podemos mantener una discusión sensata acerca de si es mejor no haber nacido, pues cualesquiera pensamientos que podamos tener sobre el tema, presupone nuestra existencia.

Hay otra dimensión del chiste, esta es, que es un chiste característicamente judío: El absurdo de la conversación entre dos estudiantes de la Yeshivá apunta a la tontería del pesimismo griego y afirma un optimismo distintivamente judío. ChatGPT del todo se perdió ese lado del chiste.

Para estar claros, los robots de la IA pueden aprender acerca de afirmaciones autorreferenciales e identificarlas. ChatGPT explicó correctamente la antigua Paradoja del Mentiroso:

“YO: Evalúe la verdad o falsedad de esta afirmación: ‘En este momento le estoy mintiendo.’

ChatGPT: Esta afirmación es un ejemplo clásico de una afirmación paradójica o paradoja autorreferencial. Es imposible determina si la afirmación es verdadera o falsa pues, si fuera verdadera, entonces, la afirmación sería una mentira, y, si fuera falsa, entonces, la afirmación aún sería una mentira.

La afirmación crea una contradicción, que es conocida como la paradoja del mentiroso, pero no puede resolverse lógicamente. Por tanto, no es ni verdadera ni falsa, sino, más bien, un ejemplo de una afirmación que es auto contradictoria.”

Pero, ChatGPT sólo regurgita un ejemplo bien conocido. Cuando una paradoja autorreferencial es escondida dentro de un chiste diseñado para desviar al oyente, el robot de la IA no lo entiende del todo. He aquí otro ejemplo:

“YO: Por qué es divertido este chiste: ‘Toc-Toc.’ ‘¿Quién está allí?’ ‘La Gestapo.’ ‘¿La Gestapo quién?’ ‘Nosotros haremos las preguntas.’

ChatGPT: Este chiste es divertido pues es un juego acerca de la reputación de la Gestapo, que fue la fuerza policial secreta de la Alemania nazi, conocida por sus tácticas de interrogación brutales y abusos de los derechos humanos.

El humor en el chiste surge de la respuesta inesperada a la pregunta ‘¿La Gestapo quién?’ En vez de brindar una respuesta típica a la pregunta, la línea chistosa subvierte las expectativas al implicar que la Gestapo será aquellos quienes hacen las preguntas.

También, el chiste destaca el poder dinámico entre la Gestapo y sus súbditos durante el régimen nazi, y el temor e intimidación por el cual ellos eran conocidos por infundir. El absurdo de la Gestapo siendo usada en una broma Toc-Toc alegre es una adición al humor y ayuda a liberar la tensión que rodea este período obscuro en la historia.”

Esta respuesta vaga, más bien woke [del Despertar] se olvida de lo central: El oyente en un chiste de Toc-Toc hace una pregunta (“¿Quién está allí?”), y la respuesta de la “Gestapo” emplea un cliché de película vieja para cambiar la posición del interrogador y de quien contestó.

La IA puede imitar hasta cierto punto las funciones de orden inferior de la mente humana. Puede escoger y categorizar. La IA funciona maravillosamente en la automatización fabril, en el examen de miles de imágenes en tiempo real para identificar piezas malas o desgaste de la máquina. Puede unir hechos conocidos y relaciones y producir una imitación creíble de un ensayo de un estudiante de primer año universitario. Pero, no puede analizar sus premisas propias. Aún la simple actividad de escoger y categorizar cae en paradojas. Parménides le explicó esto al joven Sócrates hacia el final del siglo sexto antes de Cristo. Si categorizamos los objetos según alguna cualidad percibida; por ejemplo, “coloración roja,” caemos en una regresión infinita. ¿La categoría de cosas rojas incluye “la coloración roja” como tal? Si es así, entonces, necesitamos otra categoría que incluya tanto objetos rojos como “coloración roja” en ella. Esta nueva categoría es también roja, así que todavía requerimos de otra categoría para incluirla, y así al infinito. Eso persiste en la moderna Teoría de Juegos en forma de la llamada Paradoja de Russell (no puede existir un conjunto de todos los conjuntos que no se contienen a sí mismos como elementos). Russell intentó, pero falló, en resolver el problema con su teoría de tipos.

Kurt Gödel resolvió el problema en 1931 al demostrar que cualquier sistema lógico lo suficientemente poderoso como para apoyar la aritmética no puede probar sus axiomas propios. Dos milenios y medio después de Parménides, y después de innumerables intentos por resolver la vieja paradoja, resulta que el problema no puede resolverse. Para Gödel, esto simplemente significó que los matemáticos nunca agotarían el tema, y buscarían siempre nuevos axiomas que resolvieran las paradojas que inevitablemente surgen en los sistemas matemáticos. También, implica, como lo puso el gran matemático, que: “ya sea que la matemática es demasiado grande para la mente humana o que la mente humana es más que una máquina.” Lo explicó él, “En el establecimiento sistemático de los axiomas de las matemáticas, una y otra vez, se hacen evidentes nuevos axiomas, que no se deducen por lógica formal de aquellos previamente establecidos.” Esto es, no existe lógica por la que un computador puede descubrir los nuevos axiomas que resuelven las paradojas que surgen una y otra vez en las matemáticas.

Una IA “débil” -la escogencia y categorización de objetos por los computadores- funciona perfectamente bien. Las computadoras pueden distinguir rostros, o piezas malas de piezas buenas en una faja transmisora, o fotografías de gatos y perros una vez que ellas hayan “aprendido” a diferenciar el arreglo de pixeles – provisto que ellas son primeramente entrenadas por un operador humano que marca al conjunto de aprendizaje como “gato” o “perro.” Por otra parte, la llamada “IA fuerte” -el reemplazo de las funciones críticas de la mente humana por una computadora- es un engaño utópico.

Gödel demostró esto por medio de lógica formal. Uno pueda agregar que el impulso por detectar fallas en el fundamento de nuestro pensamiento y de construir una base mejor surge de una personalidad con un propósito. Kant consideró sólo al ejercicio de la razón como tal; pero, el motivo para ejercer la razón está incorporado en la personalidad. Buscamos la verdad no porque estemos programados para hacerlo así -sino porque la mayoría del tiempo nos contentamos con burlarnos de nosotros mismos- sino porque tenemos relaciones sociales, ambiciones y, principalmente, porque nos damos cuenta de nuestra propia mortalidad, que inculcan en nosotros un deseo de dejar algo único tras de sí, que durará más allá de nuestra existencia terrena. La creatividad emana de la pasión, la única cosa de la que es incapaz una computadora.

No obstante, se requiere una advertencia. Tan sólo porque la IA no puede pensar, no significa que no puede ser peligrosa. La noción más perniciosa que jamás haya plagado a la humanidad sostiene que podemos elegir una identidad de la misma forma como compramos un vestido para la primavera. He escrito al respecto en otra parte. Nos autoengañamos creyendo que podemos (por ejemplo) elegir nuestro género. No es mi propósito denigrar al pequeño número de individuos que cree que ellos no tienen elección en el asunto, y que están muy seguros de pertenecer al sexo opuesto. Pero, las identidades al gusto del diseño traficadas por la cultura del Despertar [Woke] son un fraude. La IA puede ampliar tales engaños, por ejemplo, permitiéndonos habitar en un mundo virtual con un avatar que incorpora nuestras fantasías más obscuras. Uno tiembla al pensar lo que la IA puede lograr en pornografía interactiva.

Pero, las aplicaciones distópicas de la IA presuponen que ya hemos degradado nuestro sentido de identidad, al transformarlo en un asunto de elección del consumidor, y al haber aplastado las funciones superiores de la mente para abrir espacio para aventuras hedonistas. Eso no es la IA elevándose al nivel de pensamiento humano; más bien, es la humanidad hundiéndose al nivel de objetivación inanimada. El peligro real yace no en la IA, sino en nosotros mismos.

David P. Goldman es presidente de Macrostrategy LLC, un escritor sénior en Law & Liberty, y compañero Washington en el Centro para la Forma de Vida Estadounidense del Instituto Claremont. El escribe la columna “Spengler” para el Asia Times en Línea y el blog “Spengler” en PJ Media, y es autor de You Will Be Assimilated: China's Plan to Sino-Form the World (Bombardier Books) and How Civilizations Die (and Why Islam is Dying Too) (Regnery).

Traducido por Jorge Corrales Quesada.