Peter Landsberg: ¿En qué situación está el problema del determinismo? Soy un hombre viejo, por lo que tengo una larga experiencia en ciertos problemas. Y mi experiencia me dice que, cuando la polémica y discusión entre dos puntos de vista opuestos es larga y agitada es que «algo» hay en cada uno de ellos y que la solución consiste, probablemente, en cierto compromiso. Creo tener un compromiso así para este caso. Digamos, de hecho, que tengo un modesto ejemplo de compromiso. En primer lugar, creo que el libre albedrío y el determinismo no son conceptos directamente conectables. Tenemos libre albedrío. Todo el mundo cree en su propio libre albedrío. Pero no tenemos la misma sensación cuando observamos a «otra» persona. Un observador bien informado sobre otra persona tiende a ver influencias anteriores en el comportamiento de esa persona que se cree libre. Se trata, por tanto, de una primera sensación de relatividad. En segundo lugar, quiero dar un sentido al concepto de determinismo. Tanto el profesor Thom como yo mismo hemos hecho referencia al juego de azar, y en particular, al control de las condiciones iniciales. Él ha aludido al control del cubilete de los dados y yo al croupier. En cualquier caso, nuestra afirmación era que un conocimiento profundo de las ecuaciones del movimiento y un control completo de las condiciones iniciales deja el resultado observado como única alternativa. Por ello yo me inclinaría a decir que el indeterminismo no existe en el sentido de que las cosas ocurren. Las cosas ocurren; no hay alternativa a eso.
Günther Ludwig: Las cosas ocurren. Éste fue también el punto de partida de mi ponencia. Yo he empleado el término de determinismo (o de indeterminismo) en el sentido de una teoría de la física. Una teoría de la física es determinista, o tiene una dinámica determinista, si se pueden preparar las trayectorias en el sentido de que se pueden reproducir las trayectorias reales. En caso contrario, si por ejemplo sólo pueden prepararse las frecuencias de las trayectorias, entonces la teoría es indeterminista. Ésta es mi definición de teoría determinista o indeterminista. Pero todo ello sólo tiene sentido si, como usted dice, los hechos están ahí.
René Thom: Yo abordaría la cuestión de la definición precisa de determinismo de otro modo. A un enfoque determinista ¿hay que exigirle una unicidad en la solución, aunque sea una unicidad eventual que satisfaga ciertas condiciones especiales (como continuidad con respecto a los datos iniciales)? Éste es, en mi opinión, uno de los problemas fundamentales del determinismo en ciencia. ¿Consideraría el profesor Ludwig la bifurcación de una solución en dos soluciones como un escape del determinismo hacia el indeterminismo?
Günther Ludwig: Según mi modo de ver la cuestión, estaríamos ante una teoría indeterminista…
Peter Landsberg: Pero el sistema seguirá uno u otro camino y, en cualquier caso, algo ocurre realmente.
Günther Ludwig: Sí, sí. Pero ante un sistema como el propuesto por el profesor Thom, esto es, ante una dinámica determinista que contiene una bifurcación (una catástrofe o una singularidad de este tipo), la posición del físico consiste en decir que la teoría ha de hacerse más comprensible para, por ejemplo, determinar las probabilidades de las distintas alternativas o soluciones. En este caso, la teoría determinista es (insisto, para un físico) peor que la indeterminista, es más irreal. Es, naturalmente, una opinión personal; no puedo demostrarla. Si consideramos el ejemplo del péndulo físico fijado por su extremo inferior, está claro que existen dos trayectorias posibles en torno de la posición de equilibrio inestable (o cae girando hacia la derecha o cae girando hacia la izquierda). Yo diría que, en la vecindad de tal punto, el físico debe cambiar de teoría y sustituir la mecánica quizá por una teoría de fluctuaciones termodinámicas, para así dar cuenta de las probabilidades de las distintas experiencias. Así pienso como físico; no soy realista en este punto.
René Thom: … un punto a partir del cual no se puede seguir discutiendo, es una cuestión de definición.
Evry Schatzman: Quiero intervenir como astrofísico, esto es, desde un campo en el que la experimentación no es posible. Observamos utilizando diferentes técnicas, con distintos poderes de resolución, en diferentes longitudes de onda …y tenemos un gran número de hechos observados que interpretar y comprender. Nuestro trabajo se rige, ante todo, por una hipótesis fundamental: en la naturaleza existen leyes; y las leyes que rigen los fenómenos de los objetos celestes son las mismas que hemos descubierto para describir experimentos terrestres. Pero, además, resulta imposible hacer nada en la práctica sin asumir, aunque sólo sea pragmáticamente, que existe un efecto determinista en acción que determina lo que observamos, ya sean propiedades detalladas de los objetos o propiedades de tipo estadístico. Quiero dar un ejemplo que ilustra la gran distancia que existe entre situaciones puramente deterministas y los casos enteramente accidentales. Consideremos el caso del sistema solar. Tomamos el propio sol como un gran cuerpo compuesto de gran número de átomos. Globalmente lo tratamos como un objeto completamente determinista, le aplicamos la hidrodinámica clásica y calculamos magnitudes, como, por ejemplo, la velocidad de la emisión de radiación, etc. Pero si atendemos a la formación del sistema solar, descubrimos que el sistema tiene unos 1.500 pequeños cuerpos —los asteroides— para los que toda estadística empieza a perder sentido. Si observamos los planetas, resulta que exhiben una caprichosa distribución de las distancias al sol y de las orientaciones de los ejes de rotación. Todo ello es realmente «la firma» de ciertos accidentes que tuvieron lugar durante la formación del sistema solar, pero, cuando digo accidentes, lo hago porque no tengo una palabra mejor. Estos accidentes han sido completamente deterministas en el sentido de la mecánica, pero constituyen un conjunto con tan pocos hechos que no podemos ni pensar en un tratamiento de tipo estadístico. Quizás en un futuro, cuando hayamos observado un millón de sistemas solares de nuestra galaxia, podamos hablar de una estadística. Pero para ello falta más de un siglo.
Ramón Margalef: Provengo de un campo muy distinto, el de la biología. Y el oficio de uno, como se ha dicho, al parecer condiciona las actitudes de tipo, digamos, filosófico. En este caso, un biólogo no puede dejar de verse a sí mismo como un organismo más y preguntarse si estas cuestiones de determinismo o indeterminismo no estarán relacionadas con la capacidad de sobrevivir. Porque, a través de ella, de la selección natural, se han alcanzado las características del hombre como ser pensante y consciente. El biólogo también tiende a ver sistemas dentro de sistemas (un sistema pequeño encerrado en otro mayor, y así sucesivamente). Desde este punto de vista, también reconozco que la actitud de la ciencia es plenamente determinista; con una actitud indeterminista probablemente sea difícil elaborar una ciencia precisa de análisis. De todos modos, los datos que suelen analizarse en biología siempre se limitan a un dominio muy pequeño, el indeterminismo no tarda en asomarse; aparecen hechos imprevistos. La solución es, evidentemente, muy sencilla. Basta ampliar el dominio de observación y estudio hasta que tal fenómeno (inexplicado en condiciones más limitadas) sea por fin comprensible. En este caso, se trata claramente de un indeterminismo aparente que es consecuencia de nuestra ignorancia. Problemas de este tipo son inevitables, van surgiendo a medida que escalamos el nivel. Y claro, no podemos olvidar que nosotros mismos somos un sistema minúsculo sumergido en otro mucho mayor. Con esto llegamos a la cuestión de los límites del universo explorable. Siempre queda algo que está indeterminado dentro de este universo explorable, pero que es explicable desde fuera. El límite mismo no es, claro, algo demasiado preciso. Por ello es cierto que el científico tiene una posición determinista a efectos prácticos, pero, precisamente debido a que los límites se le escapan continuamente o, mejor dicho, debido a que su propia investigación va desplazándolos, el científico también es consciente de aceptar una y otra vez el indeterminismo efectivo.
También querría referirme a otra cuestión que creo que se ha confundido a lo largo de estas discusiones. Tomaré como ayuda el esquema a dos columnas que ha presentado el Dr. Thom y que yo mismo he empleado. Para el biólogo, estas dos columnas representan la problemática que ha comentado Wagensberg del huevo y la gallina. En efecto, los sistemas biológicos son sistemas complejos que suelen seguir una evolución que se interrumpe más tarde o más temprano. Esta evolución puede ser la sucesión de un sistema natural, como la que va desde un campo abandonado hasta un bosque, del huevo a la gallina, etc. Y representa una seriación de estados en la que se distinguen dos situaciones diferentes. Al principio de tal secuencia, suele poder hacerse una descripción relativamente breve. Es en este caso cuando los científicos pueden aplicar modelos matemáticos bastante sencillos y claros (son las típicas ecuaciones de crecimiento, de multiplicación de individuos…). Esta primera situación corresponde al modelo determinista. Pero, con el tiempo, se llega a una situación distinta: cuando los elementos que podían reaccionar entre sí ya lo han hecho, cuando ya queda poca energía libre para nuevas reacciones, entonces hay lo que podríamos llamar una acumulación histórica de información, y la descripción se hace extraordinariamente difícil. En este momento es cuando surge el peligro de cometer abusos de lenguaje, como por ejemplo: «Aquí se ha introducido una indeterminación». Lo que ocurre es que las cosas aparentemente no han podido conservar un registro preciso, y el científico, claro, no lo entiende y renuncia a construir cualquier ruta. El sistema se nos muestra con una confusión extraordinaria, que solemos calificar de indeterminada o de caótica. Las situaciones realizadas son mucho menos numerosas que las que imaginamos posibles. Estas dos situaciones ilustran muy bien, decía, las dos columnas que se enfrentan en una paradoja o en una contradicción. La discusión, en estos casos, puede alargarse indefinidamente y lo que cabe hacer, creo, es intentar una síntesis desde un nivel un poco más alto. El salto del determinismo al indeterminismo se parece mucho a la transición entre estas dos etapas de la evolución o de la sucesión biológica que acabo de mencionar: pasar de la descripción del desarrollo de un organismo, del proceso de colonización de un campo, etc., hasta esa situación tan complicada en la que el organismo ya está hecho, esto es, un organismo que ya es capaz de recibir percepciones del exterior, desarrollar características individuales o ser portador de características culturales (no heredadas). Esta analogía me lleva a preguntarme si el determinismo no será una abstracción y una simplificación (por lo demás muy humana) que practicamos para hacer inteligible la complejidad cotidiana y actuar con ella.
Y también me pregunto si el indeterminismo no será la propia desesperación que nos embarga cuando entender o explicar la complicación requiere una información a la que no accedemos. Por todo ello creo que el estudio de las fases intermedias de la biología acaso ayude a comprender mejor la cuestión que nos ocupa, al sustituir o complementar una oposición por un devenir.
Emilio Santos: Comentaba el profesor Wagensberg esta mañana que la profesión de uno, o la particular disciplina que uno practica dentro de la ciencia, influye sobre nuestra actitud determinista o indeterminista. El matemático tiende a ser determinista y el biólogo a ser indeterminista. Existe, ya se ha comentado aquí, una conexión entre el determinismo y la ciencia o la racionalidad. Los científicos de los siglos XVIII y XIX se deslumbraron y sorprendieron al comprobar que la naturaleza podía ser descrita, en el sentido de que era posible hacer predicciones sobre hechos futuros. Era algo que no se había logrado hasta entonces. El determinismo adquiría así un aspecto positivo: la predictividad, y otro negativo: el fatalismo. La predictividad se convirtió en la característica fundamental de la ciencia y, sobre todo, de la tecnología, que es la que nos permite construir instrumentos y aparatos fiables, que sabemos cómo van a funcionar. Durante estos siglos la evolución de la ciencia fue, precisamente, en el sentido de una predictividad mayor, con el determinismo como norte. La tendencia parecía, por lo tanto, una aproximación asintótica hacia cierto máximo de racionalidad. Se buscaba un determinismo cada vez mayor en las leyes de la física. El siglo XX rompió con este sueño al formularse la mecánica cuántica y creo que, precisamente debido a la mecánica cuántica, este siglo pasa por ser menos determinista y por la era en la que se ha redescubierto la irracionalidad. Mi intervención es para comentar precisamente algunos puntos del determinismo en mecánica clásica y mecánica cuántica.
En primer lugar, decir que la mecánica clásica es determinista es una extrapolación. Creo que hay que hablar del determinismo de las descripciones, no del determinismo del mundo. Una cosa es la realidad y otra el determinismo con que se escribe tal realidad. El determinismo es una propiedad de las teorías que requiere dos condiciones que, en rigor, no se dan nunca en la práctica: los sistemas han de ser suficientemente sencillos y aislados. Pero resulta que la física clásica se aplica a sistemas macroscópicos y tales sistemas no son nunca (por definición) sencillos y su aislamiento es siempre una idealización. Entonces, cuando se pretende tener en cuenta la complejidad de los sistemas, es decir, cuando se quiere que la descripción sea más completa, es necesario introducir, precisamente, elementos estocásticos. Y, con ello, la teoría determinista ha pasado a ser indeterminista. En pocas palabras, la física clásica también es indeterminista cuando conviene. Sirva este primer comentario para romper esa tendencia de asociar el determinismo a las teorías clásicas.
Me referiré, en segundo lugar, a la mecánica cuántica. En este caso, y como es bien sabido, el indeterminismo no está en las ecuaciones (las ecuaciones son deterministas). El indeterminismo está en el proceso de medida, en los postulados de la medida «añadidos» a las ecuaciones. Todo ello da lugar a una situación paradójica. En efecto, un sistema que evoluciona sin ser observado, evoluciona de una manera completamente determinista; si, por el contrario, es observado, entonces deja de ser determinista (se produce la reducción del paquete de ondas); y si consideramos el sistema más el observador como un nuevo sistema, entonces este sistema obedece a la ecuación de Schrödinger y sería, a su vez, determinista. Esta paradoja ilustra uno de los aspectos más extraños de la mecánica cuántica que divide a los físicos en dos posturas: los que creen que la mecánica cuántica es una teoría razonable y los que creen que no lo es. Es posible que sea muy difícil alcanzar un acuerdo. Einstein y Bohr, por ejemplo, sostuvieron una discusión durante muchos años sin conseguir convencerse mutuamente. Yo, personalmente, no estoy satisfecho con la mecánica cuántica en su estado actual. Y por ello no me arriesgo a pronunciarme sobre si es o no es esencial el indeterminismo que produce o predice tal teoría. Pienso que no hemos dado todavía con la teoría fundamental, con una teoría que habrá de sustituir a la que hoy manejamos. ¿Cuál es el problema central de la mecánica cuántica? Hace pocos días cayó en mis manos una atractiva analogía. Consiste en comparar la relatividad y la geometría, por un lado, y la mecánica cuántica y la lógica, por el otro. La relatividad general puso algo en cuestión: la geometría del universo ¿es o no euclídea? La conclusión fue clara: no puede darse por sentado que la geometría del mundo sea euclídea, se trata de una propiedad que debe estar sujeta a la experimentación. Y, es cierto, la relatividad es a la geometría lo mismo que la mecánica cuántica a la lógica. El problema es que la mecánica cuántica no es compatible con la lógica clásica. En fin, a muchos les parecerá una afirmación excesiva, y la verdad es que habría que matizarla en muchos aspectos, pero quedémonos con la idea. La física clásica se basa en una lógica igualmente clásica (booleana, distributiva), mientras que la cuántica se basa en un cálculo proposicional (no distributivo). Esto se traduce en el hecho de que los valores de «verdad» de las proposiciones no están simultáneamente determinados para todas las proposiciones. En clásica, aunque no se dé, pensamos, por lo menos, que puede darse, es decir, quizá no sepamos el valor de «verdad» de cierta proposición, pero no porque no esté definida intrínsecamente. En cambio, la cuántica es incompatible con el hecho de que las propiedades de los sistemas estén definidas en sí. Se definen en conexión con un determinado experimento. Esta situación se ha planteado de manera muy clara a través del teorema de Bell, según el cual la mecánica cuántica es incompatible con lo que unos llaman una teoría realista, otros llaman una teoría de variables ocultas, y que yo prefiero llamar una teoría de lógica distributiva. La mecánica cuántica es irreductible a una teoría con lógica clásica que además sea una teoría local. Esta mañana se ha expresado una opinión, por lo demás muy generalizada, de que ya se ha demostrado —sin duda alguna— que cualquier teoría con lógica clásica y local es, a su vez, incompatible con fenómenos experimentales observados. Los argumentos para esta afirmación se basan sobre todo en los experimentos de Aspect. Bien, yo quiero señalar que no estoy de acuerdo con ella, básicamente porque las desigualdades que se han contrastado con los experimentos de Aspect no son las de Bell, sino otras deducidas por varios autores, como Clauser y Shimony, que incluyen hipótesis adicionales además del realismo y la localidad. Resultaría demasiado técnico hacer un razonamiento detallado, pero diré que las desigualdades de Bell no violan los resultados de Aspect, sino que se mantienen dentro de una escala más que aceptable de cien a uno. En mi opinión, la violación de estas otras desigualdades significa, precisamente, la violación de esa hipótesis adicional, que parecía muy razonable, pero que, por lo visto, no lo es.
Albert Dou: Quería hacer una observación estimulado por los ponentes de esta mañana y por las discusiones que han seguido después. Creo, en efecto, que la pregunta sobre la vigencia del determinismo o el indeterminismo en el mundo subatómico es una pregunta sin sentido. Si fuese posible formalizar la física teórica, esta pregunta vendría bien planteada por una fórmula bien hecha. De lo que hemos oído aquí se deduce, creo, que esta fórmula bien hecha dentro de la física teórica resulta ser, precisamente, una fórmula indecidible en el sentido de Gödel. Es decir, que se trataría de definir un nuevo axioma, o mejor una nueva ley de la física. Y pienso así porque se han dado muy buenos argumentos, en la situación actual de la física, a favor de un indeterminismo profundo que afecta a la naturaleza misma de las partículas subatómicas. Si, además, tenemos en cuenta esta posibilidad, de la que también nos han hablado, de nuevos parámetros (como las variables ocultas) y las aún inmensas posibilidades del mundo subatómico (promesas de nuevos descubrimientos y nuevas elucubraciones), uno se inclina a pensar que la última palabra la tiene siempre la física (en este momento la actual, claro), pero que una decisión científica en este tema es, probablemente, uno de los casos de indecidibilidad previstos por Kurt Gödel.
Manuel García Doncel: Querría hacer una alusión al origen histórico del indeterminismo, en relación a la física cuántica. Porque, al presentar el tema esta mañana, me parece que no se ha insistido en su motivación científica, dando la impresión de que el determinismo brota de las preconcepciones de los diversos autores. Mi tesis sería más bien la contraria: muchos de los protagonistas fueron conducidos al indeterminismo a pesar suyo.
Como nos acaban de indicar, en la física clásica reinaba un determinismo, digamos, vago, que quizá sea simplemente la herencia de la misma noción aristotélica de ciencia como conocimiento de lo necesario y no de lo contingente. Este determinismo vago se acentúa, naturalmente, en el mecanicismo, surgido de la elaboración de la mecánica newtoniana. Y es en este contexto en el que hay que colocar la también mencionada «inteligencia de Laplace»: una inteligencia capaz de conocer las posiciones y las velocidades de todas las partículas del universo en un instante dado —cosa imposible— conocería todo el pasado y todo el futuro del universo. La teoría clásica de campos, que llega al final del siglo XIX, no discute para nada este determinismo. Tampoco lo hace la revolución relativista. Sí lo hace, en cambio, la llamada mecánica estadística clásica. En ella aparece cierto indeterminismo, llamémosle «gnoseológico», ligado a la ignorancia del detalle microscópico del fenómeno, que permite sin embargo un cálculo global del mismo a nuestra escala mesocósmica.
La cuestión del determinismo «óntico» va madurando en el decenio previo a la revolución conceptual cuántica, y su interpretación estadística. En mi opinión, el primero en formular el tema es, curiosamente, Einstein, al introducir en 1916 los coeficientes de probabilidad de absorción y emisión de radiación de un átomo. Él lo hace con la mentalidad de la física estadística clásica, para tratar cierta ignorancia microcósmica. Pero todo el esfuerzo de la mecánica cuántica antigua nacida del átomo de Bohr consiste en explicar estos parámetros por la estructura cuántica del átomo, llegando así a una concepción estadística de los fenómenos cuánticos. Niels Bohr exagera sin duda esta visión estadística en su famoso artículo de 1924 con Kramers y Slater, en el que relaciona estadísticamente el mundo corpuscular del átomo y el mundo ondulatorio de la radiación. Se trata de un intento desesperado por escapar a otro dilema, el de la onda-corpúsculo. Como es bien sabido, Max Born introduce en 1926 las amplitudes de probabilidad en su estudio de problemas de colisión, dentro de la nueva física cuántica, heredera de las matrices de Heisenberg y de la ecuación de Schrödinger. Así se afirma, por primera vez, que no podemos predecir en concreto adónde va una partícula después de la colisión, sino únicamente qué probabilidad tiene de ir a un sitio o a otro. Ésta es la interpretación estadística de la mecánica cuántica, por la que Born recibirá un tardío premio Nobel.
El indeterminismo cuántico se corrobora con el famoso artículo de Heisenberg sobre las relaciones de imprecisión de 1927. Estas relaciones nacen de un análisis de las medidas experimentales lo más precisas posibles, y dan una cota inferior cuántica al producto de los errores experimentales con que se miden las parejas de magnitudes llamadas «canónico-conjugadas». En este mismo trabajo discute Heisenberg la llamada «causalidad», es decir, el determinismo. El determinismo laplaciano, viene a decir, según el cual «si conociéremos el presente, podríamos conocer el futuro», es falso. Y no porque sea falsa la consecuencia de este silogismo condicional, sino porque es falsa la premisa: no podemos conocer el presente con la precisión que exige la mentalidad mecanicista, ya que las condiciones iniciales son magnitudes canónico-conjugadas cuyos errores están cuánticamente limitados por las relaciones de imprecisión. En este mismo contexto, se pregunta Heisenberg si tal indeterminismo es gnoseológico u óntico y responde sensatamente que de nada servirá un determinismo óntico radicalmente indetectable por las experiencias posibles. A partir de estas reflexiones claramente filosóficas de Heisenberg se elabora la visión indeterminista que el mismo año 1927 es presentada en el congreso de Como por Niels Bohr y en el congreso de Solvay por Heisenberg y Born, y que constituirá el núcleo de la llamada interpretación de Copenhague —la «interpretación ortodoxa» que sirve de base para discutir las paradojas de Einstein, Podolsky y Rosen de 1935, y las desigualdades de Bell de 1960. Para mí, esta introducción del indeterminismo por parte de Born, Heisenberg y Bohr no proviene de no sé qué mentalidad inclinada a lo caótico, sino sencillamente de que no saben explicar los fenómenos cuánticos de otra manera.
Luis Navarro: Una breve puntualización. En mi opinión, hoy en día ya no tiene sentido mencionar el debate Einstein-Bohr (o su continuación actual en torno a la interpretación de Copenhague) en el contexto de una discusión sobre el determinismo o el indeterminismo. Estoy de acuerdo en que Bohr y Einstein centraron su polémica sobre este tema, pero todo cambió sustancialmente, primero en el año 1960 y luego, de nuevo, en 1970, como consecuencia de dos trabajos de John Bell. En el segundo artículo, menos conocido que el primero, Bell demostró que el determinismo no es una propiedad esencial: una teoría indeterminista que además fuese real y local también entra en contradicción con la interpretación ortodoxa o de Copenhague. Lo que está en juego es el realismo y la localidad, no el determinismo o el indeterminismo. Y la localidad se traduce al lenguaje vulgar por la causalidad, que no es lo mismo que el determinismo. Entonces, aun creyendo que los experimentos de Aspect son concluyentes, lo que negarían es la posible existencia de una alternativa a la mecánica cuántica en la interpretación de Copenhague que fuese simultáneamente realista y local, ¡las dos cosas!, porque tales son las hipótesis del teorema de Bell. Esto significa que queda abierta la posibilidad de teorías realistas no locales y de teorías no realistas locales.
Finalmente, quiero decir que, en este debate, deberíamos tomar la mecánica cuántica como la teoría vigente (que es lo que es) por la única razón por la que las teorías se toman en general como vigentes en el curso de la historia: porque tienen éxito en todos los sistemas a los que se les aplica y porque no hay otras mejores.
José Manuel Sánchez Ron: Me ha gustado mucho la intervención que desde el punto de vista histórico ha hecho García Doncel. Yo querría sacar un pequeño corolario que, además, incide en los comentarios de Emilio Santos. En efecto, como ha dicho García Doncel, existe indeterminismo en la física desde que Max Planck descubre —es un descubrimiento empírico— la primera discontinuidad cuántica; es en 1900. Y Planck llega a ello de una manera totalmente inesperada, pues su preocupación era la interpretación de la radiación del cuerpo negro. Nadie mejor que Niels Bohr entiende este hecho de que el indeterminismo aparece con la primera discontinuidad cuántica. Y yo creo que constituye su gran aportación a la física. Se puede decir, por lo tanto, que existe indeterminismo en la física del microcosmos mucho antes de que aparezca el postulado del colapso de la función de onda. Emilio Santos señalaba hace un momento que la ecuación de Schrödinger es una ecuación determinista, sin embargo, continuaba diciendo, el colapso de las funciones de onda añade un elemento radical y dramático de indeterminismo a la mecánica cuántica. Yo creo que esto, de alguna manera —no sabría decir dónde—, es incorrecto, porque, como ya he dicho, se había producido ya de hecho un cuarto de siglo antes. Por ello me parecen muy razonables ciertas dudas de los filósofos de la ciencia. Mario Bunge, por ejemplo, señala que el colapso de las funciones de onda no juega papel alguno fundamental en la mecánica cuántica. Si existe un problema, éste es el problema de la medida: no hay una teoría de la medida en cuántica, ni siquiera una teoría del aparato de medida. No sé si comparto del todo este punto de vista, pero mantener el indeterminismo en cuántica sin recurrir al principio del colapso me parece un buen camino. El problema de Emilio Santos es un problema real, ciertamente, pero falla de alguna manera porque la mecánica cuántica debe ser indeterminista, incluso sin recurrir a tal postulado. Así lo demuestra uno de los pocos experimentos básicos de la cuántica.
Josep Pla: En varias intervenciones se ha hecho referencia a las matemáticas como un modelo de ciencia determinista. Quisiera poner en duda y matizar esta afirmación. Existe, es verdad, cierto determinismo dentro de los sistemas formales. Pero pensemos por ejemplo en el no demostrado ni contradicho teorema grande de Fermat. Si en el futuro este problema se resuelve (positiva o negativamente), lo más seguro es que lo sea en virtud de algún axioma auxiliar, esto es, la solución pasará por la aceptación de algo suplementario. Otro caso: los números reales tienen ciertas propiedades con respecto a la medida de Lebesque, si aceptamos el axioma de la elección, pero cambian si aceptamos el axioma de determinación. Yo diría que se puede hablar de determinismo dentro de cada sistema formal, pero no de determinismo en las matemáticas. Y todo ello sin hacer referencia al teorema de Gödel.
Jesús Mosterín: Una breve intervención por alusiones de Josep Pla. Cuando hablaba esta mañana de Gödel y del determinismo, no me refería a lo que yo pensaba —estoy de acuerdo con Pla—, sino a lo que pensaba Gödel. Y Gödel pensaba que había una diferencia muy clara entre el mundo de los números naturales (que está perfectamente determinado en todos sus aspectos, incluidas hipótesis tales como las de Fermat o las de Goldbach) y lo que nuestros algoritmos nos permiten decidir. Gödel pensaba que esto era un defecto de nuestros algoritmos y de nuestros sistemas formales. Y evidentemente existe una diferencia entre el hecho de que cierta parcela de la realidad tenga determinadas propiedades y el hecho de que nosotros dispongamos de un mecanismo automático para averiguar si efectivamente tiene o no estas propiedades. De todos modos, creo que el problema del determinismo o del indeterminismo es un poco artificioso en matemáticas, porque se trata de un problema que se plantea básicamente en función del tiempo, que es un concepto inexistente en el mundo de las matemáticas. Sería más natural plantear problemas parecidos en términos tales como la decidibilidad o indecidibilidad, completitud, si la teoría de conjuntos tiene un solo sistema de axiomas o hay varios alternativos, etc…
Luis Navarro: Quiero hacer una aproximación general al problema del determinismo, aunque soy consciente de que ello va a implicar una enorme simplificación, es decir, cierta superficialidad en el tratamiento. Quizá todo lo que vaya a decir sea obvio, pero quiero decirlo de todos modos. Pienso que hay y habrá científicos partidarios del determinismo y científicos partidarios del indeterminismo de la misma forma que hay y habrá científicos a favor y en contra de (por ejemplo) el aborto. Me explicaré. Existe una opinión muy extendida sobre lo que es la ciencia, que yo comparto, que afirma (insisto, simplificadamente) que se trata de un conjunto de modelos teóricos con una aspiración: aportar algo al conocimiento de la naturaleza. Estos modelos constituyen teorías vigentes (de éxito, etc.) en la medida en que encuentran reflejo en la naturaleza. Estos modelos pueden ser calificados de deterministas o de indeterministas con bastante facilidad: basta ponerse de acuerdo en el lenguaje y consultar ciertas propiedades o características. Pero creo que es una enorme extrapolación extender este atributo a la propia naturaleza, a otros sistemas imaginados o imaginables o, en particular, al mismo cerebro humano. El cerebro humano, que yo sepa, no dispone todavía de un modelo teórico que lo describa ni responde a teoría general alguna. Pretendemos, es verdad, asimilar el cerebro a ciertos modelos, pero, en mi opinión, lo solemos hacer por un abuso del lenguaje, por comodidad, o quizá por ilusión. Tal cosa suele suponer un gran salto, pero este salto no puede darse sólo con la ayuda de la ciencia. Hemos de acudir a otro tipo de apoyos: afectivos, ideológicos e incluso, ¿por qué no?, también religiosos. Con estos otros apoyos damos el gran salto, pero son estos otros apoyos los que finalmente inclinan la balanza hacia un eventual determinismo o indeterminismo. La enseñanza que yo extraería de todo ello es que debemos desmitificar la ciencia. Tenemos una tendencia muy fuerte a pensar que la ciencia puede resolver cualquier problema relacionado con ella. Creo que esto no es siempre así. Y nos corresponde a los científicos el colaborar a la desmitificación de la ciencia, por ejemplo clarificando sus objetivos y los límites de aquello que se puede afirmar y de aquello que no se puede afirmar. Terminaré con una frivolidad. Existe también un riesgo, acaso inconsciente, a tomar postura por el determinismo o el indeterminismo según nos vaya en la vida: por ejemplo, los fracasos se deben a la fatal contingencia y los éxitos a nuestra habilidad, a nuestro trabajo tenaz y a nuestra sabia capacidad de elección.
Jorge Wagensberg: No es mi intención elaborar conclusiones prematuras, pero creo que en las intervenciones que se han escuchado hasta ahora se pueden señalar ciertos aspectos en los que parece haber acuerdo. Dos actitudes me interesan especialmente. Y me interesan porque, a pesar de ser frecuentes y naturales, no acabo de compartirlas. La primera consiste en la insistencia (incluso preocupada insistencia, yo diría) en subrayar que una cosa es el determinismo o indeterminismo del mundo y otra cosa muy distinta es el determinismo o indeterminismo del conocimiento del mundo. Esto es del todo cierto y además completamente irrefutable. Pero me pregunto el porqué de tanta preocupación. Me parece muy lícito liberar la ciencia de todo compromiso ideológico y, como he dicho antes, para ello sirve en parte el método científico. Pero no veo por qué ha de ocurrir lo mismo con los científicos. El determinismo o indeterminismo del mundo se basa en una creencia y no en una investigación, es verdad. Y la ciencia se basa en investigaciones, y no en creencias, también es verdad. Pero las creencias se estimulan con datos de la percepción y del conocimiento. Así que no veo por qué un científico, cuyo oficio es percibir y elaborar conocimiento, no puede expresar, como cualquier otro ser humano, sus creencias sin que ello suponga la menor tacha para su rigor científico. Después de todo, la experiencia científica, la experiencia de interrogar explícitamente la naturaleza, vale por lo menos tanto (creo sinceramente que más) como la experiencia de la vida cotidiana. Y prueba de ello es la segunda actitud que quería comentar. Porque los que sí han dejado aflorar sus creencias (afortunadamente han acabado haciéndolo muchos reticentes) han mostrado también (como es lógico) la influencia de los estímulos que reciben durante su investigación habitual. En efecto, la tendencia general en el día de hoy ha sido claramente determinista (uno a cero, diríamos en términos deportivos), como corresponde a científicos que provienen de dominios de la abstracción pura o del análisis de sistemas simples. No creo equivocarme si afirmo que mañana las cosas pueden cambiar algo, pues los ponentes se ocupan de sistemas más complejos y, en cierta medida, más próximos a las emociones humanas (biología, cosmología, teoría de los procesos irreversibles). Así pues, como considero lícito hablar de creencias y como mis estímulos científicos tienden a defender el indeterminismo, me propongo manifestar mi postura y su fundamento, es decir, voy a intentar empezar a nivelar el marcador.
El método científico, lo he dicho esta mañana en la introducción, es determinista. El científico es, de oficio, determinista. Como de alguna manera también ha dicho el profesor Ludwig en su ponencia, el científico retrocede hasta que puede practicar el máximo determinismo. Y, como ha señalado el profesor Mosterín, esto puede crear la injusta situación de que asignemos el peso de la demostración a los indeterministas: «El mundo es, en principio, determinista. ¡Que nos convenzan ellos de lo contrario!». Si ambas posturas parten con los mismos métodos iniciales, he aquí la línea de razonamiento. Dado que el conocimiento científico sí tiende a ser determinista (lo son las ecuaciones, aunque utilicen la probabilidad como variable), partamos de él y tomemos una definición cualquiera de determinismo. Por ejemplo: «Iguales causas producen iguales efectos». Estoy dispuesto a pasar por alto el detalle de que el término «igual» implica ya la idea de un error nulo o, lo que es lo mismo, la idea de una precisión infinita (el Dr. Ludwig ha mencionado ya que el infinito no es un concepto de la física). Si una variación pequeña en las causas provoca una variación igualmente pequeña en los efectos, todo va bien: el determinismo se sostiene. Pero resulta que la fenomenología de la experiencia física está ya repleta de casos en los que la menor fluctuación en las causas provoca saltos bruscos (cualitativa y cuantitativamente) en los efectos. Estamos ante el problema general de la inestabilidad. Tales situaciones se formulan en muchas teorías modernas (las catástrofes del profesor Thom, que, como hemos oído esta tarde, se ha mostrado determinista, las bifurcaciones del profesor Prigogine que oiremos mañana, etc.) y corresponden casi siempre a ciertas singularidades, a un conjunto que los matemáticos llamarían de medida nula. Pues bien, en estas singularidades, por lo demás propias de sistemas complejos en fuerte interacción con su entorno, sitúo el azar en su versión fuerte, el azar como estímulo para una creencia indeterminista para el universo. El profesor Prigogine y sus colaboradores han demostrado, además, algo muy importante para fundamentar esta creencia. En tales singularidades, no es sólo que cierta variable quede indeterminada, ocurre además que la propia variable desaparece, y si desaparece la variable, desaparece, evidentemente, la ecuación, y con la ecuación desaparece la ley. ¿Qué significa que desaparezca la variable? Pues sencillamente que ésta pierde su valor representativo, un valor que descansa en la validez de la ley de los grandes números. En efecto, en problemas de cinética química no lineal, por ejemplo, se ha demostrado que las variables de «concentración química» violan la ley de los grandes números en las bifurcaciones (en particular, dejan de corresponder a distribuciones poissonianas). El hecho de que una variable se pierda de vista me parece más fuerte que el hecho de que una variable sea aleatoria. En este último caso no se puede alejar lo suficiente del sistema para recuperar cierta ley. Un jugador de azar en un casino está más sujeto a los caprichos del azar que el propio casino (en eso estriba el negocio), y el casino, a su vez, más quizá que una compañía aseguradora, etc. Las fluctuaciones del casino tienden a cero cuando el número de jugadores tiende a infinito, lo mismo la aseguradora con respecto a los casinos. Y un jugador que, por ejemplo, apueste a un número de la ruleta lo hace con probabilidad 1/36 y cuantas más veces juegue menor será la fluctuación del cociente entre el número de aciertos y el de apuestas en torno a ese valor. Existe la variable probabilidad. Pero si resulta que la ruleta está trucada y que se cambia el trucaje en cada jugada, entonces la probabilidad desaparece en tanto que variable. Por mucho que juegue, las fluctuaciones no regresarán.
Siempre se puede decir, claro, que no porque no conozcamos la ley, la ley no existe. Es verdad. Siempre es posible pensar en el advenimiento de nuevas teorías ultrafinas que determinen el comportamiento en las singularidades. Con las creencias nos topamos de nuevo. Los que así piensan hacen bien en buscar teorías como la de las variables ocultas para la mecánica cuántica. Pero no es eso lo que me sugiere la observación de los sistemas inestables y su capacidad creadora. Me siento cómodo con un mundo determinista en la extensión rutinaria de las adaptaciones y azaroso puntualmente en ciertas singularidades. Tal esquema de coexistencia entre leyes y contingencias me propone un mundo razonablemente indeterminista en el que, como mínimo, quepo yo como ser humano con libertad y todo.
Josep Mª Pons: Yo quería hacer un comentario sobre el concepto de determinismo pero usado de un modo distinto al que correspondería cuando se emplea en los modelos matemáticos. Se ha propuesto, como una manera de entender el determinismo, la afirmación de que «iguales causas producen iguales efectos». Esta afirmación, leída en su versión intrarrecíproca, nos proporciona una propuesta de actitud: el hecho de encontrar efectos distintos presupone la existencia de causas distintas. Yo diría que esta actitud define lo que uno entiende por actitud determinista. Comparto, con aquellos que la han enunciado, la tesis según la cual «la ciencia valora y estima siempre la existencia de un factor en función de los efectos que produce». La historia de la ciencia está cargada de ejemplos en los que este factor, «desconocido» todavía, ha sido bautizado, ha recibido un nombre, lo cual ha significado el primer acto formal de conocimiento sobre él. Es cuando calificamos a una cosa de «X», tal como se hizo en su día con los «desconocidos» rayos X —éste fue un momento importante de su descubrimiento—. Es exactamente eso. Otro ejemplo: la famosa frase del personaje de Molière: «El opio adormece porque posee una vis dormitiva». Bien, siempre se ha tomado este texto como el paradigma de la pseudoexplicación, de la explicación vacía. Nos inventamos un término, un substantivo, «la vis dormitiva», para ocultar una ignorancia, así damos una respuesta —trivial, por supuesto—, a la pregunta de por qué el opio adormece. Debo decir, sin embargo, que este análisis no me parece demasiado satisfactorio y que, en una perspectiva histórica, es muy insuficiente. Porque también se puede hacer una lectura positiva de la frase de Molière. En realidad, haber bautizado este factor —«X = vis dormitiva»— es una propuesta para hacer investigación, una sugerente tentativa para ponerse a averiguar en qué consiste esta «vis dormitiva», de qué está compuesto el opio y de qué manera operan estos componentes sobre nuestra fisiología para producir el sueño. Es por esta razón que hablar de una «vis dormitiva» ha podido ser útil: ha sido una propuesta para abrir camino. Así hemos roto con la tautología: de una explicación inicialmente vacía hemos pasado a una explicación con contenido.
Entendida como he dicho al principio —«a efectos distintos supongamos causas distintas»— la actitud determinista resulta irrefutable, porque si a una diversidad de efectos se atribuye una diversidad de causas (conocidas o no, bautizadas o por bautizar), nunca se llega a una contradicción. En realidad se trata simplemente de una actitud en lo referente a la investigación, de una actitud para orientar la investigación. La cuestión no es entonces su refutabilidad sino su fecundidad. Creo que esta actitud ha sido muy fecunda y probablemente esté en la misma base de la construcción teórica del mundo exterior como substrato de las causas de nuestra percepción.
La otra única actitud que permite todavía hacer ciencia, y con un empuje impresionante en los tiempos actuales, por cierto, es la actitud probabilista. Esta nace históricamente —hablo de tiempos modernos— como hija pragmática de la determinista. Quiero decir que no era necesario cambiar la concepción del mundo para adoptar, si convenía, la actitud probabilista. De hecho, la célebre definición clásica de Laplace de determinismo, la de la inteligencia que conoce todos los datos etc., se encuentra en su Ensayo filosófico sobre las probabilidades. Llegados aquí, la cuestión a plantearse es de si esta hija se ha emancipado ya de la tutela determinista y si ésta ha entrado definitivamente —¿se puede decir, nunca, esto?— en decadencia.