Skip to content

Por qué la inteligencia artificial no puede pensar

Compartir

Compartir en facebook
Compartir en linkedin
Compartir en twitter
Compartir en pinterest
Compartir en email

David P. Goldman. Este artículo fue publicado originalmente por Law & Liberty.

Sólo por diversión, me burlo de ChatGPT en los momentos libres. Los chatbots no tienen yo, es decir, no tienen razón de ser, y por tanto no pueden pensar. No existe el pensamiento en abstracto: el pensamiento es siempre el pensamiento de alguien, y la actividad mental no constituye pensamiento a menos que provenga de un pensador que tenga una razón para pensar. Para pensar, debemos distinguir entre objetos de pensamiento significativos e insignificantes, es decir, los que nos importan y los que no (la excepción que confirma la regla es la esquizofrenia paranoide, que hace que todo sea significativo).

El pensamiento superior es autoconsciente, en el sentido de que implica la conciencia de cómo pensamos. Kant distinguía entre Vernunft, que suele traducirse como «razón», y Verstand, la simple función categorizadora y clasificadora de la mente, o «entendimiento». La traducción al español no expresa bien la diferencia: Vernunft deriva de la misma raíz que Vernehmen, «interrogar». Implica un examen crítico de cómo pensamos.

Eso ayuda a explicar por qué ChatGPT lo hace tan mal con los chistes autorreferenciales que no ha oído antes. GPT no tiene yo, y el cambio del punto de vista del sujeto -lo que hace que los chistes autorreferenciales sean divertidos para empezar- lo deja confuso.

Explícame este chiste

ChatGPT, por ejemplo, no podría entender un chiste autorreferencial que contaría un niño de ocho años. He aquí un intercambio reciente, copiado y pegado de la página web de Chat GPT:

Yo: Explica por qué es gracioso este chiste: «Toc-Toc». «¿Quién es?» «Vaca maleducada que interrumpe». «Grosera interrumpiendo…» «¡Muuu!»

ChatGPT: Este chiste es divertido porque juega con el formato tradicional del chiste «Toc-Toc» pero subvierte el remate esperado. El planteamiento del chiste es familiar: una persona pregunta «¿Quién es?» y la otra responde. Sin embargo, la respuesta es inesperada y graciosa porque interrumpe a la otra persona en mitad de la frase con un fuerte «¡Muu!».

El chiste también se basa en un juego de palabras, ya que la «vaca que interrumpe» es un juego de palabras con la frase «que te interrumpe», que es lo que hace la vaca al interrumpir la frase de la otra persona. El hecho de que se describa a la vaca como «maleducada» contribuye al humor porque es inesperado que un animal muestre ese comportamiento.

Por supuesto, no hay «juego de palabras» entre «vaca maleducada que interrumpe» y «te interrumpe». Hay un cambio de papeles: La «vaca maleducada que interrumpe» se convierte en el narrador del chiste en lugar de ser el objeto del chiste. En lugar de describir a una «vaca maleducada que interrumpe», el narrador del chiste se convierte en la vaca.

Plutarco y Nietzsche

Un chiste más profundo juega con una antigua paradoja: nadie puede imaginar su propia inexistencia, porque si la está imaginando, debe existir. He aquí otro intercambio con ChatGPT:

Yo: Nietzsche cita el relato de Plutarco sobre el semidiós Sileno para argumentar que es mejor no haber nacido nunca. El coro de la obra de Sófocles Edipo en Colono dice lo mismo. Dos estudiantes de yeshiva debaten esta cuestión. Uno dice: «Nietzsche y Sófocles tenían razón. Es mejor no haber nacido nunca». El otro responde: «Sí, pero ¿quién tiene esa suerte? Ni uno entre diez mil». Explica por qué es gracioso.

ChatGPT: La respuesta del segundo alumno de la yeshiva es graciosa porque utiliza la ironía y el humor para rebatir la visión pesimista expresada por el primer alumno. El primer alumno argumenta que es mejor no haber nacido nunca, haciéndose eco de las ideas de Nietzsche y Sófocles, que también expresaron un sentimiento similar. Sin embargo, la respuesta del segundo estudiante sugiere que esa opinión no es práctica ni realista, ya que prácticamente todo el mundo ha nacido ya.

Al señalar la ironía de la afirmación del primer alumno, el segundo hace una observación humorística sobre lo absurdo de hacer una afirmación general que nadie puede cumplir. La respuesta también sugiere que, en lugar de insistir en la idea de si es mejor haber nacido o no, sería más útil centrarse en cómo aprovechar al máximo la vida que a uno le ha tocado vivir.

Yo: Aclare, por favor: Acaba de decir: «Prácticamente todo el mundo ya ha nacido». ¿Estás afirmando que algunas personas que existen no han nacido?

ChatGPT: Le pido disculpas por la confusión. Tienes razón en que mi afirmación anterior era imprecisa. Lo que quería decir es que la inmensa mayoría de las personas que existen o existirán ya han nacido y, por tanto, no es práctico plantearse si es mejor no haber nacido nunca.

Para aclarar, todas las personas que existen han nacido de una forma u otra, ya sea por parto natural o por otros medios como la intervención médica o la adopción. Mi afirmación anterior no era exacta y pido disculpas por la confusión que haya podido causar.

Yo: Ahora dice que «la inmensa mayoría de las personas que existen o existirán ya han nacido». ¿Cómo sabe cuántas personas nacerán en el futuro?

ChatGPT: Tienes razón en que es imposible saber con certeza cuántas personas nacerán en el futuro. Mi afirmación anterior era imprecisa y pido disculpas por la confusión que haya podido causar.

Lo que quería decir es que la inmensa mayoría de las personas que existen actualmente ya han nacido. Aunque es imposible predecir cuántas personas nacerán en el futuro, se puede afirmar con seguridad que la inmensa mayoría de los individuos que han existido alguna vez ya han nacido, vivido su vida y fallecido.

Pesimismo griego, optimismo judío

ChatGPT me preocupó por un momento: Me preguntaba si me estaba diciendo que las máquinas se han vuelto sensibles y que la afirmación «Prácticamente todo el mundo ha nacido ya» significaba que no nacerían muchos humanos en el futuro. Pero ChatGPT sólo estaba siendo denso.

El chiste, por supuesto, es que no podemos tener una discusión sensata sobre si es mejor no haber nacido, porque cualquier pensamiento que podamos tener sobre el tema presupone nuestra existencia.

El chiste tiene otra dimensión, y es que se trata de un chiste característicamente judío: Lo absurdo de la conversación entre los dos estudiantes de la yeshiva pone de manifiesto la estupidez del pesimismo griego y afirma un optimismo claramente judío. ChatGPT se perdió por completo ese aspecto del chiste.

La paradoja del mentiroso

Los bots de inteligencia artificial, por supuesto, pueden aprender sobre enunciados autorreferenciales e identificarlos. Chat GPT explicó correctamente la antigua Paradoja del Mentiroso:

Yo: Evalúa la verdad o falsedad de esta afirmación: «Te estoy mintiendo ahora mismo».

ChatGPT: Este enunciado es un ejemplo clásico de enunciado paradójico o paradoja autorreferencial. Es imposible determinar si la afirmación es verdadera o falsa porque si fuera verdadera, entonces la afirmación sería una mentira, y si fuera falsa, entonces la afirmación seguiría siendo una mentira.

La afirmación crea una contradicción, que se conoce como la paradoja del mentiroso, y no puede resolverse lógicamente. Por tanto, no es ni verdadera ni falsa, sino un ejemplo de afirmación autocontradictoria.

«Nosotros haremos las preguntas»

Pero ChatGPT se limita a regurgitar un ejemplo bien conocido. Cuando una paradoja autorreferencial se esconde dentro de un chiste diseñado para despistar al oyente, el robot de IA no acaba de entenderlo. He aquí otro ejemplo:

Yo: ¿Por qué es gracioso este chiste? «Toc Toc». «¿Quién es?» «La Gestapo». «¿La Gestapo quién?» «Nosotros haremos las preguntas».

ChatGPT: Este chiste es gracioso porque juega con la reputación de la Gestapo, la policía secreta de la Alemania nazi conocida por sus brutales tácticas de interrogatorio y sus abusos de los derechos humanos.

El humor del chiste viene de la inesperada respuesta a la pregunta «¿La Gestapo qué?». En lugar de dar una respuesta típica a la pregunta, el remate subvierte las expectativas al insinuar que la Gestapo será quien haga las preguntas.

El chiste también pone de relieve la dinámica de poder entre la Gestapo y sus súbditos durante el régimen nazi, y el miedo y la intimidación que infundían. El absurdo de utilizar a la Gestapo en un chiste desenfadado de toc-toc contribuye al humor y ayuda a liberar la tensión que rodea a este oscuro periodo de la historia.

Esta respuesta vaga y un tanto woke no viene al caso: El oyente en una broma de toc-toc hace una pregunta («¿Quién está ahí?»), y la respuesta «Gestapo» emplea un viejo cliché cinematográfico para cambiar la posición del que pregunta y del que responde.

Parménides y la teoría de los conjuntos

La IA puede imitar las funciones de orden inferior de la mente humana hasta cierto punto. Puede ordenar y categorizar. La IA hace maravillas en la automatización de fábricas, examinando miles de imágenes en tiempo real para identificar piezas defectuosas o el desgaste de las máquinas. Puede encadenar hechos y relaciones conocidos y producir una emulación creíble de un ensayo de primer año. Pero no puede examinar sus propias premisas. Incluso la simple actividad de ordenar y categorizar se topa con paradojas.

Parménides se lo explicó al joven Sócrates a finales del siglo VI antes de Cristo. Si clasificamos los objetos según cualquier cualidad percibida, por ejemplo, el «color rojo», nos encontramos con una regresión infinita. ¿Incluye la categoría de las cosas rojas la propia «rojez»? Si es así, necesitamos otra categoría que incluya tanto los objetos rojos como el propio «enrojecimiento». Esta nueva categoría también es roja, así que necesitamos otra categoría que la incluya, y así hasta el infinito. Esto persiste en la Teoría de Conjuntos moderna en forma de la llamada paradoja de Russell (el conjunto de todos los conjuntos que no son miembros de sí mismos, que no puede existir). Russell intentó resolver el problema con su teoría de los tipos, pero no lo consiguió.

Teorema de la incompletitud de Gödel

Kurt Gödel resolvió el problema en 1931, demostrando que cualquier sistema lógico lo suficientemente potente como para soportar la aritmética no puede demostrar sus propios axiomas. Dos milenios y medio después de Parménides, y tras innumerables intentos de resolver la vieja paradoja, resulta que el problema no puede resolverse. Para Gödel, esto significaba simplemente que los matemáticos nunca agotarían el tema, y siempre buscarían nuevos axiomas que resolvieran las paradojas que inevitablemente surgen en los sistemas matemáticos.

También implica, como dijo el gran matemático: «O las matemáticas son demasiado grandes para la mente humana o la mente humana es más que una máquina». Explicó: «En el establecimiento sistemático de los axiomas de las matemáticas, se hacen evidentes una y otra vez nuevos axiomas que no se siguen por lógica formal de los previamente establecidos.» Es decir, no existe una lógica por la que un ordenador pueda descubrir los nuevos axiomas que resuelven las paradojas que una y otra vez surgen en matemáticas.

IA «débil» y «fuerte»

La IA «débil» -la clasificación y categorización de objetos por parte de los ordenadores- funciona perfectamente bien. Los ordenadores pueden distinguir rostros, o piezas malas de piezas buenas en una cinta transportadora, o fotografías de gatos y perros una vez que han «aprendido» a diferenciar la disposición de los píxeles, siempre que primero sean entrenados por un operador humano que marque el conjunto de aprendizaje como «gato» o «perro». Por otro lado, la llamada «IA fuerte» -la sustitución de las funciones críticas de la mente humana por un ordenador- es una utopía.

Gödel lo demostró mediante la lógica formal. Se podría añadir que el impulso de detectar fallos en los cimientos de nuestro pensamiento y construir unos mejores surge de una personalidad con un propósito. Kant sólo consideraba el ejercicio de la razón como tal; el motivo para ejercer la razón, sin embargo, está incrustado en la personalidad. Buscamos la verdad no porque estemos programados para ello -la mayoría de las veces nos contentamos con engañarnos a nosotros mismos-, sino porque tenemos relaciones sociales, ambiciones y, sobre todo, una conciencia de nuestra propia mortalidad que nos infunde el deseo de dejar algo único que perdure más allá de nuestra existencia terrenal. La creatividad nace de la pasión, lo único de lo que es incapaz un ordenador.

El peligro de la inteligencia artificial somos nosotros

Pero hay que hacer una salvedad. Que la IA no pueda pensar no significa que no pueda ser peligrosa. La noción más perniciosa que jamás haya asolado a la humanidad sostiene que podemos elegir una identidad del mismo modo que compramos un traje de primavera. Ya he escrito sobre ello en otro lugar. Nos engañamos a nosotros mismos pensando que podemos (por ejemplo) elegir nuestro género. No pretendo denigrar al pequeño número de personas que creen que no tienen elección y están seguras de pertenecer al sexo opuesto. Pero las identidades de diseño que vende la cultura woke son un fraude. La IA puede potenciar esos delirios, por ejemplo, permitiéndonos habitar un mundo virtual con un avatar que encarne nuestras fantasías más oscuras. Uno se estremece al pensar lo que la IA podría conseguir en la pornografía interactiva.

Las aplicaciones distópicas de la IA, sin embargo, presuponen que ya hemos degradado nuestro sentido del yo, transformándolo en una cuestión de elección del consumidor, y aplastado las funciones superiores de la mente para dejar espacio a aventuras hedonistas. Eso no es la IA elevándose al nivel del pensamiento humano; eso, más bien, es la humanidad hundiéndose al nivel de la objetivación inanimada. El verdadero peligro no reside en la IA, sino en nosotros mismos.

Aún no hay comentarios, ¡añada su voz abajo!


Añadir un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más artículos

El proyecto intelectual de Carl Menger

Carl Menger no planteó su libro como una crítica frontal a quienes se oponían al mercado libre, sino como una defensa más fundamentada del mismo.