lunes, 31 de diciembre de 2012

Modelo cognitivo-teórico del universo


La Teoría de Teorías


Por Cristopher Michael Langan


Ya sabes lo que dicen acerca de las teorías: todo el mundo tiene una. De hecho, algunas personas tienen una teoría acerca de casi todo. Aunque eso no es una Teoría Maestra del Todo... es una teoría separada acerca de cada pequeña cosa bajo el sol. (Para tener una Teoría Maestra, debes ser capaz de atar todas esas pequeñas teorías unas con otras).

Pero, ¿qué es una “teoría”? ¿Es una teoría simplemente una historia que puedes construir acerca de algo, que sea tan fantástica como te apetezca? ¿O una teoría al menos tiene que parecer que podría ser cierta? Incluso, más rigurosamente, ¿es una teoría algo que tiene que ser plasmado en forma de símbolos lógicos y matemáticos, y descrito en lenguaje sencillo solamente después de que los garabatos originales hayan hecho una ronda de visitas por la academia?

Una teoría es todo lo anterior. Una teoría puede ser buena o mala, fantástica o plausible, verdadera o falsa. Los únicos requisitos firmes son que (1) tenga un tema, y (2) esté expresada en un lenguaje que permita que el tema pueda describirse de forma coherente. Donde estos criterios se cumplen, la teoría puede siempre “formalizarse”, o traducirse al lenguaje simbólico de la lógica y las matemáticas. Una vez formalizada, la teoría puede someterse a varios tests matemáticos para comprobar su veracidad y consistencia interna.

Pero, ¿no hace eso que esencialmente “teoría” sea sinónimo de “descripción”? Sí. Una teoría es simplemente una descripción de algo. Si podemos usar las implicaciones lógicas de esta descripción para relacionar los componentes de ese algo con otros componentes de formas reveladoras, entonces la teoría se dice que tiene “poder explicativo”. Y si podemos usar las implicaciones lógicas de la descripción para realizar predicciones correctas acerca de cómo ese algo se comporta bajo varias circunstancias, entonces la teoría se dice que tiene “poder predictivo”.

Desde una perspectiva práctica, ¿en qué tipos de teorías debemos interesarnos? La mayoría de la gente estará de acuerdo en que, con objeto de ser interesante, una teoría debe tratar un tema importante... un tema que implique algo útil o valioso para nosotros, aunque sea siquiera a un nivel puramente abstracto. Y la mayoría también estará de acuerdo en que, con objeto de que nos facilite extraer y maximizar ese valor, la teoría debe tener poder explicativo o predictivo. Por ahora, permite que llamemos a cualquier teoría que cumpla ambos criterios una teoría “seria”.

Entre los interesados en teorías serias se encuentra prácticamente todo el mundo, desde ingenieros y corredores de bolsa hasta doctores, mecánicos de automóviles y detectives de la policía. Prácticamente cualquiera que da consejos, resuelve problemas o construye cosas que funcionan necesita una teoría seria a partir de la cual trabajar. Pero tres grupos que están especialmente interesados en teorías serias son los científicos, los matemáticos y los filósofos. Estos son los grupos que plantean los requisitos más estrictos sobre las teorías que usan y construyen.

Aunque hay similitudes importantes entre los tipos de teorías tratadas por los científicos, matemáticos y filósofos, también hay diferencias importantes. Las diferencias más importantes implican el tema de las teorías. A los científicos les gusta basar sus teorías en la experimentación y observación del mundo real... no en las percepciones en sí mismas, sino en lo que ellos llaman “objetos de los sentidos” concretos. Es decir, les gusta que sus teorías sean empíricas. A los matemáticos, por otro lado, les gusta que sus teorías sean esencialmente racionales... que estén basadas en deducciones lógicas relativas a objetos matemáticos abstractos existentes en la mente, independientemente de los sentidos. Y a los filósofos les gusta buscar extensas teorías de la realidad dirigidas a relacionar los dos tipos de objetos anteriores. (Esto en realidad exige un tercer tipo de objeto, el operador sintáctico infocognitivo... pero eso será en otro momento).

De los tres tipos de teoría, las teorías de la ciencia lideran la mayor parte de la popularidad. Desafortunadamente, esto presenta un problema. Pues, mientras que la ciencia tiene una gran deuda hacia la filosofía y las matemáticas —puede caracterizarse como la hija de la primera y la hermana de la segunda— ni siquiera las trata como sus iguales. Trata a su padre, la filosofía, como no merecedor de consideración. Y, aunque tolera y usa las matemáticas a su conveniencia, dependiendo del razonamiento matemático en casi cada curva, acepta la extraordinaria obediencia de la realidad objetiva a los principios matemáticos como poco más que un “golpe de suerte” cósmico.

La ciencia es capaz de disfrutar de su relación superficial con las matemáticas precisamente debido a su majestuoso rechazo de la filosofía. Rechazando considerar la relación filosófica entre lo abstracto y lo concreto en los campos en los que se supone que la filosofía es inherentemente poco viable e improductiva, se reserva el derecho de ignorar esa relación incluso cuando la explota en la construcción de teorías científicas. ¡Y realmente explota esa relación! Hay un tópico científico que afirma que si uno no puede poner un número en la información de uno, entonces no puede probar nada en absoluto. Pero, desde el momento en que los números están aritmética y algebraicamente relacionados por varias estructuras matemáticas, el tópico equivale a una afirmación velada de la base matemática del conocimiento.

Aunque a los científicos les gusta pensar que todo está abierto a la investigación científica, tienen una regla que les permite explícitamente descartar ciertos hechos. Esta regla es llamada el método científico. Esencialmente, el método científico dice que el trabajo de todo científico es (1) observar algo en el mundo, (2) inventar una teoría que encaje con las observaciones, (3) usar la teoría para hacer predicciones, (4) comprobar experimental u observacionalmente las predicciones, (5) modificar la teoría a la luz de nuevos hallazgos, y (6) repetir el ciclo desde el paso 3 en adelante. Pero, aunque este método es muy efectivo para recoger hechos que cumplen sus suposiciones subyacentes, no sirve para recoger los que no las cumplen.

De hecho, si consideramos el método científico como una teoría sobre la naturaleza y adquisición de conocimiento científico (y podemos), no es una teoría del conocimiento en general. Es solamente una teoría de las cosas accesibles para los sentidos. Aún peor, es una teoría de las cosas sensibles que presentan dos atributos adicionales: no son universales y pueden por lo tanto distinguirse del resto de la realidad sensorial, y pueden verse por múltiples observadores que sean capaces de “replicar” unos a partir de otros las observaciones bajo condiciones similares. No hace falta decir que no existe ninguna razón para asumir que estos atributos son necesarios incluso en el ámbito sensorial. El primero no describe nada suficientemente general como para coincidir con la realidad como un todo —por ejemplo, el medio homogéneo del que está compuesta la realidad, o un principio matemático abstracto que sea cierto en todas partes— y el segundo no describe nada que sea, bien subjetivo, como la conciencia humana, o bien objetivo pero raro e impredecible... p. ej. fantasmas, ovnis y yetis, de los cuales se hacen chistes pero que pueden, dado el número de observadores individuales que informan de ellos, corresponder a fenómenos reales.

El hecho de que el método científico no permite la investigación de principios matemáticos abstractos es especialmente embarazoso a la luz de uno de sus pasos más cruciales: “inventar una teoría que encaje en las observaciones”. Una teoría resulta ser un constructo lógico y/o matemático cuyos elementos básicos de descripción son unidades matemáticas y relaciones. Si el método científico se interpretase como una interpretación exhaustiva de la realidad, lo cual es demasiado a menudo el caso, el resultado sería algo como esto: “La realidad consiste en todo y solamente aquello a lo que podemos aplicar un protocolo que no puede aplicarse a sus propios ingredientes (matemáticos) y que por lo tanto es irreal”. Exigir el uso de la “irrealidad” para describir la “realidad” es bastante cuestionable en el protocolo de cualquiera.

¿Qué sucede con las matemáticas en sí mismas? El hecho es que la ciencia no es la única ciudad amurallada en el paisaje intelectual. Con iguales y opuestos prejuicios, los métodos mutuamente exclusivistas de las matemáticas y la ciencia garantizan su separación continuada a pesar de los esfuerzos de otra época de la filosofía. Mientras que la ciencia se esconde tras el método científico, que excluye eficazmente de la investigación a sus propios ingredientes matemáticos, las matemáticas se dividen a sí mismas en ramas “pura” y “aplicada” y explícitamente divorcian a la rama “pura” del mundo real. Nótese que esto hace que “aplicada” sea sinónimo de “impura”. Aunque el campo de las matemáticas aplicadas por definición contenga todos los usos prácticos que se hayan dado a las matemáticas, es visto como “no precisamente matemáticas”, y por lo tanto más allá de la consideración de cualquier matemático “puro”.

En lugar del método científico, las matemáticas puras se basan en un principio llamado el método axiomático. El método axiomático comienza con un pequeño número de declaraciones obvias llamadas axiomas y unas pocas reglas de deducción a través de las cuales pueden derivarse nuevas declaraciones, llamadas teoremas, a partir de las declaraciones existentes. De un modo paralelo al método científico, el método axiomático dice que el trabajo de todo matemático es (1) conceptualizar una clase de objetos matemáticos; (2) aislar sus elementos básicos, sus principios más generales y obvios, y las reglas por las cuales sus verdades pueden derivarse de esos principios; (3) usar esos principios y reglas para derivar teoremas, definir nuevos objetos, y formular nuevas proposiciones acerca del conjunto extendido de teoremas y objetos; (4) probar o desaprobar esas proposiciones; (5) donde la proposición es verdadera, hacerla un teorema y añadirla a la teoría; y (6) repetir desde el paso 3 en adelante.

Los métodos científico y axiomático son como imágenes especulares el uno del otro, pero localizadas en dominios opuestos. Simplemente sustituye “observar” por “conceptualizar” y “parte del mundo” por “clase de objetos matemáticos”, y la analogía prácticamente se completa a sí misma. No es ninguna sorpresa, por lo tanto, que los científicos y los matemáticos a menudo se profesen mutuo respeto. Sin embargo, esto oculta un desequilibrio, pues, mientras que la actividad del matemático es esencial para el método científico, la del científico es irrelevante para el matemático (excepto para el tipo de científico llamado “informático”, que juega el papel de embajador entre los dos ámbitos). Al menos en principio, el matemático es más necesario para la ciencia de lo que el científico lo es para las matemáticas.

Como un filósofo podría decir, el científico y el matemático trabajan en lados opuestos del separador cartesiano entre la realidad mental y física. Si el científico se queda en su propio lado del separador y meramente acepta lo que el matemático elige arrojarle a su través, el matemático hace su trabajo muy bien. Por otro lado, si el matemático no arroja lo que el científico necesita, entonces el científico tiene problemas. Sin las funciones y ecuaciones del matemático a partir de las cuales construir teorías científicas, el científico estaría confinado a poco más que taxonomía. Por lo que concerniese a hacer predicciones cuantitativas, él o ella bien podría estar adivinando el número de gominolas en un frasco.

A partir de esto, uno podría estar tentado a teorizar que el método axiomático no sufre del mismo tipo de insuficiencia que el método científico... que él, y él solo, es suficiente para descubrir todas las verdades abstractas legítimamente llamadas “matemáticas”. Pero, ay, eso sería demasiado práctico. En 1931, un lógico matemático austríaco llamado Kurt Gödel probó que existen declaraciones matemáticas verdaderas que no pueden comprobarse por medio del método axiomático. Tales declaraciones se llaman “indecidibles”. El hallazgo de Gödel sacudió el mundo intelectual a tal punto que, incluso hoy, matemáticos, científicos y filósofos por igual se esfuerzan en averiguar cómo tejer el hilo suelto de indecidibilidad en la tela sin costuras de la realidad.

Para demostrar la existencia de la indecidibilidad, Gödel usó un truco simple llamado auto-referencia. Considera la declaración “esta oración es falsa”. Es fácil vestir esta declaración como una fórmula lógica. Aparte de ser verdadera o falsa, ¿qué más podría una fórmula decir de sí misma? ¿Podría declararse a sí misma, digamos, indemostrable? Intentémoslo: “Esta fórmula es indemostrable”. Si la fórmula dada es indemostrable, entonces es verdadera y por lo tanto un teorema. Desafortunadamente, el método axiomático no puede reconocerla como tal sin una prueba. Por otro lado, supón que es demostrable. ¡Entonces es en sí misma aparentemente falsa (ya que su demostrabilidad contradice lo que dice de sí misma) y además verdadera (ya que es demostrable sin respeto a su contenido)! Parece que de todos modos creamos una paradoja... una declaración que es “indemostrablemente demostrable”, y por lo tanto absurda.

Pero, ¿qué tal si introducimos una distinción entre niveles de demostración? Por ejemplo, ¿qué tal si definimos un metalenguaje como un lenguaje usado para hablar, analizar o demostrar cosas respecto a declaraciones en un lenguaje objeto de más bajo nivel, y llamamos al nivel base de la fórmula de Gödel el nivel “objeto” y el nivel (de demostración) superior el nivel de “metalenguaje”? Ahora tenemos dos cosas: una declaración que metalingüísticamente puede demostrarse ser lingüisticamente indemostrable, lo cual, aunque poco informativo, al menos no es una paradoja. Voilà: ¡auto-referencia sin paradoja! Resulta que ese “esta fórmula es indemostrable” puede traducirse a un ejemplo genérico de una verdad matemática indecidible. Ya que el razonamiento asociado implica un metalenguaje de matemáticas, es llamado “metamatemático”.

Sería suficientemente malo si la indecidibilidad fuese la única cosa inaccesible a los métodos científico y axiomático juntos. Pero el problema no termina aquí. Como señalamos antes, la verdad matemática es la única de las cosas que el método científico no puede tocar. Entre los otros se encuentran no solamente fenómenos raros e impredecibles que no pueden ser fácilmente captados por microscopios, telescopios y otros instrumentos científicos, sino cosas que son demasiado grandes o demasiado pequeñas para ser captadas, como todo el universo y la más diminuta de las partículas subatómicas; cosas que son “demasiado universales” y por lo tanto indiscernibles, como el medio homogéneo del que está formada la realidad; y cosas que son “demasiado subjetivas”, como la conciencia humana, las emociones humanas, y las así llamadas “cualidades puras” o qualia. Ya que las matemáticas no han ofrecido hasta ahora ningún medio de compensación para estos puntos ciegos científicos, continúan marcando agujeros en nuestro dibujo de la realidad científica y matemática.

Pero las matemáticas tienen sus propios problemas. Mientras que la ciencia sufre de los problemas que se acaban de describir —los de indiscernibilidad e inducción, irreplicabilidad y subjetividad—, las matemáticas sufren de indecidibilidad. Por lo tanto parece natural preguntar si podría haber algunas otras debilidades inherentes a la metodología combinada de matemáticas y ciencia. En efecto, las hay. Conocidas como el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine son los respectivos recursos de disciplinas llamadas teoría de modelos y la filosofía de la ciencia (como cualquier padre, la filosofía siempre tiene la última palabra). Estas debilidades tienen que ver con la ambigüedad... con la dificultad de decir si una teoría dada se aplica a una cosa u otra, o si una teoría es “más verdadera” que otra con respecto a lo que ambas teorías pretenden describir.

Pero antes de dar una explicación de Lowenheim-Skolem y Duhem-Quine, necesitamos una breve introducción a la teoría de modelos. La teoría de modelos es parte de la lógica de las “teorías formalizadas”, una rama de las matemáticas que trata más bien auto-referencialmente de la estructura e interpretación de teorías que han sido formuladas en la notación simbólica de la lógica matemática... es decir, el tipo de garabatos aturdidores de la mente que a todos excepto a un matemático les encanta odiar. Debido a que cualquier teoría útil puede formalizarse, la teoría de modelos es un sine qua non de la teorización significativa.

Hagamos que esto sea breve y contundente. Empezamos con la lógica proposicional, que no está compuesta sino por relaciones tautológicas, siempre verdaderas, entre oraciones representadas por variables únicas. Luego nos movemos a la lógica predictiva, que considera el contenido de estas variables oracionales... lo que las frases dicen en realidad. En general, estas oraciones usan símbolos llamados cuantificadores para asignar atributos a variables que semánticamente representan los objetos matemáticos o del mundo real. Tales tareas son llamadas “predicados”. A continuación, consideramos las teorías, que son predicados complejos que se dividen en sistemas de predicados relacionados; los universos de teorías, que son los sistemas matemáticos o del mundo real descritos por las teorías; y las correspondencias descriptivas en sí mismas, que son llamadas interpretaciones. Un modelo de una teoría es cualquier interpretación bajo la cual todas las declaraciones de la teoría son verdaderas. Si nos referimos a una teoría como un lenguaje objeto y a su referente como el universo objeto, el modelo intermedio solamente puede describirse y validarse en un metalenguaje del complejo lenguaje-universo.

Aunque formuladas en los ámbitos matemático y científico respectivamente, Lowenheim-Skolem y Duhem-Quine pueden pensarse como lados opuestos de la misma moneda modelo-teórica. Lowenheim-Skolem dice que una teoría no puede en general distinguir entre dos diferentes modelos; por ejemplo, cualquier teoría verdadera acerca de la relación numérica de los puntos de un segmento lineal continuo también puede interpretarse como una teoría de los números enteros (números de cálculo). Por otro lado, Duhem-Quine dice que dos teorías no pueden en general ser distinguidas sobre la base de cualquier declaración de observación relativa al universo.

Simplemente para obtener una idea rudimentaria del tema, echemos un vistazo más detenido a la Tesis Duhem-Quine. Las declaraciones de observación, los datos en crudo de la ciencia, son declaraciones que pueden demostrarse verdaderas o falsas mediante observación o experimentación. Pero la observación no es independiente de la teoría; una observación se interpreta siempre en algún contexto teórico. De modo que un experimento en física no es meramente una observación, sino la interpretación de una observación. Esto lleva a la Tesis Duhem, que afirma que las declaraciones y experimentos científicos no pueden invalidar hipótesis aisladas, sino solamente conjuntos completos de declaraciones teóricas a la vez. Esto se debe a que una teoría T compuesta por varias leyes {Li}, i=1,2,3,... casi nunca implica una declaración de observación excepto en conjunción con varias hipótesis auxiliares {Aj}, j=1,2,3,... Por lo tanto, una declaración de observación como mucho refuta el complejo {Li+Aj}. Para tomar un ejemplo histórico bien conocido, permitamos a T = {L1,L2,L3} ser las tres leyes del movimiento de Newton, y supongamos que estas leyes parecen implicar la consecuencia observable de que la órbita del planeta Urano es O. Pero, de hecho, las leyes de Newton solas no determinan la órbita de Urano. Debemos considerar además cosas como la presencia o ausencia de otras fuerzas, otros cuerpos próximos que podrían ejercer influencia gravitacional apreciable sobre Urano, y así sucesivamente. En consecuencia, determinar la órbita de Urano requiere hipóteis auxiliares como A1 = “solamente las fuerzas gravitacionales actúan sobre los planetas”, A2 = “el número total de planetas solares, incluyendo Urano, es 7”, etcétera. De modo que, si se encuentra que la órbita en cuestión difiere del valor O predicho, entonces, en lugar de simplemente invalidar la teoría T de la mecánica newtoniana, esta observación invalida la totalidad del complejo de leyes e hipótesis auxiliares {L1,L2,L3;A1,A2,...}. Se desprendería que al menos un elemento de este complejo es falso, pero, ¿cuál? ¿Hay alguna forma 100% segura de decidirlo? La realidad era que el enlace débil en este ejemplo era la hipótesis A2 = “el número total de planetas solares, incluyendo a Urano, es 7”. De hecho, resultó que había un planeta grande adicional, Neptuno, que posteriormente fue buscado y localizado precisamente gracias a que esta hipótesis (A2) parecía abierta a la duda. Pero, desafortunadamente, no hay ninguna regla general para adoptar tales decisiones. Supón que tenemos dos teorías T1 y T2 que predicen las observaciones O y no-O respectivamente. Entonces, un experimento es crucial con respecto a T1 y T2 si genera exactamente una de las dos declaraciones de observación O o no-O. Los argumentos de Duhem demuestran que, en general, uno no puede contar con encontrar tal experimento u observación. En lugar de las observaciones cruciales, Duhem cita le bon sens (el buen sentido), una facultad no lógica en virtud de la cual los científicos supuestamente deciden tales temas. En relación con la naturaleza de esta facultad, no existe en principio nada que descarte el gusto personal y el sesgo cultural. Que los científicos prefieran nobles apelaciones a la navaja de Occam, mientras que los matemáticos empleen términos justificativos como belleza y elegancia, no excluye influencias menos apetecibles.

Todo esto acerca de Duheim; y ahora, ¿qué pasa con Quine? La tesis de Quine se divide en dos tesis relacionadas. La primera dice que no existe distinción entre las declaraciones analíticas (p. ej. definiciones) y las declaraciones sintéticas (p. ej. afirmaciones empíricas), y, por lo tanto, que la tesis de Duhem se aplica por igual a las así llamadas disciplinas a priori. Para darle sentido a esto, necesitamos conocer la diferencia entre declaraciones analíticas y sintéticas. Las declaraciones analíticas se supone que son verdaderas por sus solos significados, asuntos de hecho empírico no obstante, mientras que las declaraciones sintéticas equivalen a hechos empíricos en sí mismos. Ya que las declaraciones analíticas son necesariamente declaraciones verdaderas del tipo encontrado en la lógica y las matemáticas, mientras que las declaraciones sintéticas son declaraciones contingentemente verdaderas del tipo encontrado en la ciencia, la primera tesis de Quine presupone un tipo de equivalencia entre las matemáticas y la ciencia. En particular, dice que las declaraciones epistemológicas acerca de las ciencias deben aplicarse también a las matemáticas, y que la tesis de Duhem debe por lo tanto aplicarse a ambas.

La segunda tesis de Quine involucra el concepto de reduccionismo. El reduccionismo es la afirmación de que las declaraciones acerca de algún tema pueden reducirse a, o explicarse completamente en términos de, declaraciones acerca de algún tema (normalmente más básico). Por ejemplo, buscar reduccionismo químico respecto a la mente es afirmar que los procesos mentales realmente no son más que interacciones bioquímicas. Específicamente, Quine suspende a Duhem manteniendo que no todas las afirmaciones teóricas, p. ej., teorías, pueden reducirse a declaraciones de observación. Pero, entonces, las observaciones empíricas “subdeterminan” teorías y no pueden decidir entre ellas. Esto lleva a un concepto conocido como holismo de Quine; ya que ninguna observación puede revelar qué miembro(s) de un conjunto de declaraciones teóricas deben ser reevaluadas, la reevaluación de algunas declaraciones implica la reevaluación de todas.

Quine combinó sus dos tesis como sigue. En primer lugar, afirmó que una reducción es esencialmente una declaración analítica que hace que una teoría, p. ej., una teoría de la mente, sea definida en otra teoría, p. ej., una teoría de química. Seguidamente, afirmó que, si no existen declaraciones analíticas, entonces las reducciones son imposibles. A partir de aquí, concluyó que sus dos tesis eran esencialmente idénticas. Pero, aunque la tesis unificada resultante se pareciese a la de Duhem, difería en su alcance. Pues, mientras que Duhem había aplicado su propia tesis solamente a teorías físicas, y tal vez solamente a hipótesis teóricas más que a teorías con consecuencias directamente observables, Quine aplicó su versión a la totalidad del conocimiento humano, incluyendo las matemáticas. Si barremos esta bastante importante distinción bajo la alfombra, obtenemos la así llamada “tesis Duhem-Quine”.

Ya que la tesis Duhem-Quine implica que las teorías científicas están subdeterminadas por evidencias físicas, es a veces llamada Tesis de Subdeterminación. Específicamente, dice que, ya que la adición de nuevas hipótesis auxiliares, p. ej. condicionales que involucran declaraciones “si...entonces”, posibilitaría cada una de dos teorías diferentes sobre el mismo tema científico o matemático para acomodarse a cualquier nueva evidencia, ninguna observación física podría jamás decidir entre ellas.

Los mensajes de Duhem-Quine y Lowenheim-Skolem son como sigue: los universos no determinan de forma exclusiva teorías de acuerdo a leyes empíricas de observación científica, y las teorías no determinan de forma exclusiva universos de acuerdo a las leyes racionales de las matemáticas. La correspondencia modelo-teórica entre teorías y sus universos está sujeta a ambigüedad en ambas direcciones. Si añadimos este tipo descriptivo de ambigüedad a las ambigüedades de medición, p. ej., el Principio de Incertidumbre de Heisenberg que gobierna la escala subatómica de la realidad, y la ambigüedad teórica interna captada por la indecidibilidad, vemos que la ambigüedad es un ingrediente ineludible de nuestro conocimiento del mundo. Parece que las matemáticas y la ciencia son... bueno, ciencias inexactas.

¿Cómo, entonces, podemos formar una imagen verdadera de la realidad? Debe existir un modo. Por ejemplo, podríamos empezar con la premisa de que tal imagen existe, si acaso como un “límite” de teorización (ignorando por ahora el asunto de demostrar que tal límite existe). Entonces podríamos sacar relaciones categóricas que implicasen a las propiedades lógicas de este límite para llegar a una descripción de la realidad en términos de la realidad en sí misma. En otras palabras, podríamos construir una teoría auto-referencial de la realidad cuyas variables representasen a la realidad en sí misma, y cuyas relaciones fuesen tautologías lógicas. Entonces podríamos añadir una distorsión instructiva. Ya que la lógica consiste en las reglas del pensamiento, p. ej., de la mente, lo que realmente estaríamos haciendo sería interpretar la realidad en una teoría genérica de la mente basada en la lógica. Por definición, el resultado sería un modelo cognitivo-teórico del universo.

Gödel usó el término “incompletitud” para describir aquella propiedad de los sistemas axiomáticos debido a la cual contienen declaraciones indecidibles. Esencialmente, demostró que todos los sistemas axiomáticos suficientemente poderosos están incompletos al demostrar que, si no lo estuviesen, serían “inconsistentes”. Decir que una teoría es “inconsistente” equivale a decir que contiene una o más paradojas irresolubles. Desafortunadamente, ya que tales paradojas destruyen la distinción entre lo verdadero y lo falso con respecto a la teoría, la teoría en su conjunto está mutilada por la inclusión de una sola. Esto hace que la consistencia sea una necesidad primaria en la construcción de teorías, dándole prioridad sobre la demostración y la predicción. Un modelo cognitivo-teórico del universo situaría la realidad científica y matemática en un entorno lógico auto-consistente, donde aguardar soluciones para sus paradojas más intratables.

Por ejemplo, la física moderna está aquejada de paradojas que implican al origen y la direccionalidad del tiempo, el colapso de la función de onda cuántica, la no localidad cuántica, y el problema de contención de la cosmología. Si alguien presentase una teoría simple y elegante que resolviese estas paradojas sin sacrificar los beneficios de las teorías existentes, las soluciones acarrearían más peso que cualquier número de predicciones. Similarmente, cualquier teoría y modelo que resolviese conservadoramente las paradojas de auto-inclusión acosando la teoría matemática de conjuntos, que es la base de casi cualquier tipo de matemáticas, podría demandar aceptación en esa sola base. Dondequiera que exista una paradoja científica o matemática intratable, hay una necesidad desesperada de una teoría y modelo que la resuelva.

Si tal teoría y modelo existen —y, por el bien del conocimiento humano, sería mejor que existiesen—, usan un metalenguaje lógico con suficiente poder expresivo para caracterizar y analizar las limitaciones de la ciencia y las matemáticas, y son por lo tanto filosóficos y metamatemáticos en su naturaleza. Esto se debe a que ningún bajo nivel de discurso es capaz de casar dos disciplinas que excluyen mutuamente sus contenidos tan a fondo como lo hacen la ciencia y las matemáticas.

Finalmente, esta es la conclusión: tal teoría y modelo efectivamente existen. Pero, por ahora, satisfagámonos con haber vislumbrado el arcoiris bajo el que esta maceta de oro nos espera.



7 comentarios:

  1. Sos un puto genio , esto es esclarecedor en todos los sentidos , La fé y la razon van de la mano totalmente , la ciencia no lo explica todo y tiene sus limites en la materia , tiene dogmas y lagunas al igual que las logicas matematicas

    ResponderEliminar
  2. Faltan mas genios como el sr langan y como yo

    ResponderEliminar
  3. Muy bien expuesto y argumentado la verdad...

    ResponderEliminar