¿Son las Verdades Aritméticas Verdades Lógicas? Logicismo para el Siglo XXI

Para comerse el coco (Mates + Filosofía)

En 1962, el lógico y matemático Leon Henkin escribió el artículo ‘‘Are Logic and Mathematics Identical?’’ (galardonado con el Premio Chauvenet), donde se discutía la vieja tesis logicista de Russell a la luz del espectacular desarrollo que la lógica matemática había experimentado en las tres décadas anteriores. Para un logicista radical, todas las verdades matemáticas (de una determinada rama) no son sino verdades lógicas; para el logicista moderado, solo los teoremas (o sea, los resultados deducibles de la rama en cuestión) lo son. No obstante, ambos están de acuerdo en que la lógica permite fundamentar los conceptos básicos de todas las disciplinas matemáticas, obteniéndose de forma derivada los ‘‘primeros principios’’ de las mismas. De ahí que Russell y sus seguidores mantengan que, en el fondo, las matemáticas se reducen a la lógica.

Como cuenta el propio Henkin, esta afirmación causó un gran revuelo en la comunidad matemática que iniciaba el siglo XX. No en vano, ya desde que Kant trazara la conocidísima distinción entre juicios analíticos (aquellos cuya verdad depende exclusivamente del significado de las palabras que en ellos aparecen) y sintéticos (todos los demás) en su Crítica de la razón pura¹, las proposiciones de la lógica se han considerado ejemplos arquetípicos del primer tipo. Por decirlo con Wittgenstein, ‘‘todas las proposiciones de la lógica dicen lo mismo. Es decir, nada’’. Por lo tanto, si esto es así, y si efectivamente las matemáticas se reducen a la lógica, ¿podemos concluir, entonces, que las proposiciones de la matemática tampoco dicen nada?

¿Sabías que...?

“Los futbolistas son deportistas” sería un ejemplo de juicio analítico; “los futbolistas son famosos” es un ejemplo de juicio sintético.

Sí podemos concluir a ciencia cierta que, por el primer teorema de incompletud de Gödel, el sistema lógico que Russell construyó junto con Whitehead para deducir la matemática ordinaria contiene enunciados indecidibles si le añadimos una cantidad suficiente de aritmética: fórmulas que no se pueden demostrar (ni refutar) partiendo de unos pocos principios lógicos, puramente tautológicos. De acuerdo con los filósofos e historiadores de la matemática, esto supuso un duro golpe para el logicismo tradicional. Por otro lado, la lógica de Frege, que también asumía una perspectiva logicista en lo que respecta a la mencionada aritmética, había sufrido un revés importante años antes de que se publicaran los Principia Mathematica de Whitehead y Russell. Fue el mismo Russell quien, en una carta que data de 1902, comunicó a Frege que había encontrado una contradicción en el sistema formal de este último (la popular ‘‘paradoja del barbero’’), originando toda una crisis de fundamentos. Así pues, parece que el matemático respira aliviado: el logicismo es, según todas las apariencias, un paradigma obsoleto.

¡Inténtalo!

Sea M={XXX}M = \{ X | X \notin X \}. ¿Pertenece MM a sí mismo?

Sin embargo, hay filósofos que sostienen que el descubrimiento de la paradoja del barbero habría opacado el logro más destacado de Frege. Aunque es habitual citar su Conceptografía, donde el matemático alemán formuló explícitamente las reglas de inferencia que caracterizan a los cuantificadores de la llamada ‘‘lógica clásica’’, en los Fundamentos de la aritmética estableció el resultado que hoy se conoce como ‘‘teorema de Frege’’. Este teorema afirma, básicamente, que ciertas proposiciones fundamentales de la aritmética se derivan de la lógica de segundo orden (aquella que permite cuantificar no solo sobre un conjunto de individuos, sino también sobre los subconjuntos del mismo) si añadimos la Ley Básica V:

{xφ(x)}={xψ(x)}    x(φ(x)    ψ(x)) \{ x | \varphi (x) \} = \{ x | \psi (x) \} \iff \forall x ( \varphi (x) \iff \psi (x))

Es decir, el conjunto de los φ\varphi 's y el los ψ\psi’s son el mismo     \iff para todo xx, xx es φ    \varphi \iff también es ψ\psi. Naturalmente, la primera dificultad que debe sortear el logicista para mantener su tesis es de carácter filosófico: ¿es realmente la Ley Básica V una proposición lógica o, por decirlo de otra forma, un juicio analítico? No está del todo claro. La segunda dificultad es, en cambio, de carácter matemático. Es una consecuencia de la Ley Básica V que, si φ\varphi define un concepto, entonces debe existir el conjunto de los φ\varphi’s. Lamentablemente, este principio, que en la literatura es denominado ‘‘principio ingenuo de comprensión’’, es suficiente para derivar la existencia del conjunto de los conjuntos que no se contienen a sí mismos.

Pues bien, lo que lógicos más actuales han mostrado es que la demostración del teorema de Frege es perfectamente válida en lógica de segundo orden siempre que reemplacemos la problemática Ley Básica V por otro principio abstracto, el principio de Hume (Frege lo obtenía secundariamente por medio de la primera). De hecho, sería esta observación de Parsons en su ‘‘Frege’s Theory of Number’’, publicado solo tres años después de que Henkin escribiera su artículo divulgativo, lo que propició la irrupción del Neo-Logicismo. El Neo-Logicismo es un intento de revivir el programa de Frege que argumenta que hay ramas importantes de la matemática, como la aritmética, que están constituidas por verdades analíticas. Recibió un primer impulso gracias al trabajo de Crispin Wright en los años 80 del siglo pasado y, aunque se han planteado argumentos filosóficos que justifican lógica y epistémicamente el principio de Hume, se sustenta fundamentalmente en el teorema de Frege: la lógica de segundo orden más dicho principio implican deductivamente la aritmética de Peano (es decir, aquella que define los naturales y sus operaciones básicas).

Es importante dejar claro que, en el contexto de la lógica de segundo orden, tenemos variables para los los objetos (la xx minúscula, por ejemplo) y para los conceptos (la FF y la GG). Además, debemos introducir un operador funcional que se aplica a conceptos y devuelve individuos como valores. Ese nuevo símbolo #(que no es común a todos los lenguajes de segundo orden) se interpretará como la función que, aplicada a un concepto, devuelve el número cardinal que indica cuántos objetos caen bajo su extensión. Gramaticalmente, si FF es una variable para un concepto (o, dicho más técnicamente, ‘‘relacional’’), entonces #F\#F es un término que denota un número concreto; si φ(x)\varphi(x) es una fórmula donde la xx está libre, entonces #xφ(x)\#x \varphi(x) es un término (que denota, de nuevo, un número) donde la xx está ligada. La lectura intuitiva de #xφ(x)\# x \varphi (x) es, claro, ‘‘el número de φ\varphi’s’’, de tal forma que, si PP es la propiedad de ser número primo y φ(x):=Px(x<11)\varphi (x) : = P x \wedge ( x < 11), entonces #x(Px(x<11))\# x (Px \wedge ( x < 11)) ese 44. Así, es obvio que #\# puede entenderse como una suerte de operador de numerosidad. Llegados a este punto, podemos introducir, al fin, el principio de Hume (también llamado N=N=):

FG(#x(F(x))=#x(G(x))F=G)\forall FG ( \# x ( F(x)) = \# x ( G(x)) \leftrightarrow F = G )

donde $ F = G$ es una abreviatura de la fórmula de segundo orden que expresa que existe una correspondencia uno-a-uno entre los elementos que caen bajo la extensión de FF y los que lo hacen bajo la de GG (cabe destacar que esta fórmula es estrictamente lógica, ya que en ella no aparece el operador #\#).

Es decir, el principio de Hume determina que, para cualesquiera conceptos FF y GG, el número de FFs y el de GGs es el mismo     \iff existe una biyección entre sus respectivas extensiones. Frege presentó este principio en la §63 de los ya citados Fundamentos, afirmando que la idea de que la identidad numérica debe definirse en términos de correspondencia uno-a-uno estaba ganando popularidad entre los matemáticos (él menciona explícitamente a Cantor). Puesto que Hume era el referente en cuestiones relativas a la identidad, el lógico americano George Boolos bautizó N=N= con el nombre del filósofo empirista. Evidentemente, para el Neo-Logicismo era necesario que dentro de este marco se pudieran definir los números naturales. Y, en efecto, tenemos que

#x(xx)\# x ( x \neq x )

denota la cardinalidad de un concepto con extensión vacía y, por tanto, puede usarse para definir el número 0. De hecho, #\# sirve para definir otros conceptos de la aritmética, lo cual legitima su inclusión en el lenguaje objeto. Por ejemplo, un término como
#y(#x(xx)=y)\#y ( \# x ( x \neq x ) = y )

permite definir el número 1. Incluso es posible encontrar un objeto que hace las veces de ‘‘anti-cero’’ y que, debido a ello, denotará un ‘‘número infinito’’ (que es, también, el referente de #P\#P si PP es la propiedad de ser primo). Es fácil ver que el número de objetos que caen bajo la extensión
#x(x=x)\#x(x=x)

es infinito cuando cuantificamos sobre estructuras de Peano. En 1987, Boolos propuso un modelo donde el objeto ω\omega es precisamente ese ‘‘número infinito’’ (es, claro, el primer ordinal no numerable). Filósofos como Wright, Rumfitt, Clark o Heck han discutido intensamente en los últimos años sobre este ‘‘anti-cero’’. Todos los neo-logicistas están de acuerdo, no obstante, en que N=N=, si bien no es una proposición estrictamente lógica (porque involucra al operador #\#) sí que es una verdad analítica. Como es obvio, esta postura ha sido a su vez criticada, entre otros por el profesor Paolo Mancosu (cuyo libro de 2016, ‘‘Abstraction and Infinity’’, es una excelente introducción a los principios de abstracción no solo en aritmética, sino también en geometría).

En definitiva, los defensores de la tesis fregeana de que la aritmética se puede reducir a la lógica parecen no haber dicho su última palabra. Al margen de los trabajos que siguen la línea de Wright y Boolos, existen otros enfoques que, aún pudiéndose considerar neo-logicistas, se separan de los Fundamentos en algunos aspectos relevantes. Por ejemplo, el ‘‘logicismo constructivo’’ de Tennat rechaza la asunción fregeana de que todos los términos denotan, apoyándose, por tanto, en una lógica libre (que es, en este sentido, ‘‘no clásica’’). Partiendo de esa lógica, en su libro de 2022 titulado ‘‘The Logic of Number’’, Tennat trata de construir una derivación logicista de los números naturales, racionales y reales. Por otra parte, Edward N. Zalta planteó lo que se ha llamado ‘‘logicismo modal’’, donde la lógica de segundo orden es enriquecida con los operadores de necesidad, □ y posibilidad, ♢, evaluándose las fórmulas atendiendo a un contexto concreto (de ‘‘mundos posibles’’). La principal novedad de su propuesta es la distinción entre objetos ordinarios y abstractos: solo podemos asignar un número a los conceptos cuya extensión está formada por objetos del primer tipo.

Así, el Logicismo, con sus diferentes versiones, sigue siendo en nuestros días fuente de disputas entre académicos por las cuestiones que todavía quedan sin resolver. De entre los problemas abiertos que marcan la agenda neo-logicista, podemos destacar, en primer lugar, la controversia en torno a los principios de abstracción, como el de Hume, y su carácter pretendidamente analítico. Aunque N=N= nos parezca una verdad puramente conceptual, y encontremos argumentos filosóficos para apoyar esa intuición, ¿es posible elaborar una prueba, rigurosa y precisa, de que los principios de abstracción que aceptemos en matemáticas van a ser verdades analíticas? Relacionado con esto aparece, en segundo lugar, otro problema mucho más general. Y es que, para determinar si una proposición es verdadera solo en virtud de las relaciones conceptuales entre sus constituyentes, sería deseable contar con una distinción nítida entre expresiones que son lógicas (‘‘todos’’, ‘‘algún’’, ‘‘y’’, ‘‘no’’, etc.) y las que no lo son. Aunque pueda sonar algo increíble para el no iniciado, ninguna de las distinciones propuestas hasta ahora ha recibido la aprobación unánime de los filósofos de la lógica. ¿Qué hace, pues, para el logicista, que una expresión sea lógica? ¿Puede el neo-logicismo del siglo XXI ofrecer una solución a este problema de demarcación? Aquí no tenemos la respuesta a ninguna de estas preguntas, pero sí una pista. Las soluciones están donde todo empezó hace más de cien años, con Frege y Russell: en la intersección entre filosofía y matemáticas.