LA BLANCA FLOR DE LA MATEMÁTICA

Debemos nuestro sistema de numeración actual en gran parte a los árabes, quienes lo tomaron desde la India y lo introdujeron en España y, desde allí, a toda Europa. Esta no es sino una de las muchas notaciones y palabras utilizadas hoy en matemática que nos han llegado desde esas lejanas tierras. Por ejemplo, álgebra es una palabra árabe que significa recomposición, y la teoría subyacente es considerada una creación del sabio persa Al-Juarismi (780-850 d. C. aprox.) introducida en Europa por Fibonacci (capítulo 29). La palabra algoritmo también es de origen árabe, aunque se le disputa cierta etimología griega y latina. También hay otros términos más bien ligados a la astronomía que son frecuentemente usados hoy en día, como cenit (punto más alto que alcanza un astro sobre un observador en la superficie), nadir (el opuesto al cenit en la recta que pasa por este y el centro de la Tierra) y acimut (ángulo entre la dirección del norte y aquella de la proyección de un cuerpo sobre la superficie terrestre).
Pero, sin duda alguna, la más bella de todas estas palabras con contenido matemático es otra: en árabe, al-zahar significa «la flor», y azahar pasó al castellano para designar a toda una gama de flores blancas que incluye las del naranjo, el limonero y el cidro.
¿Y la relación con la matemática? Sucede que los dados con los que se acostumbraba a jugar en torno al siglo XIII d. C. tenían pintada una de estas flores en la cara que corresponde al 1. De allí nació el vocablo azar. Así, en un principio, la expresión «juego de azar» se restringía solo al juego de los dados, pero pronto se extendió a todo tipo de juegos en los que la suerte, y no una estrategia, es la que determina el resultado. No obstante, azar compite con otros dos términos: aleatorio, del latín alea —suerte— (término que proviene del nombre de los huesos de muñecas y rodillas y con los cuales eran fabricados los dados), y estocástico, del griego stokhos —dardo— (de dado a dardo hay una r de diferencia, pero también algo más profundo, pues el juego de los dardos no es totalmente azaroso). El estudio de «las leyes del azar» conforma la teoría de las probabilidades, una de las ramas más fecundas y vistosas de la matemática del siglo XX.
Los orígenes de las probabilidades pueden ser situados en Italia, donde Luca Paccioli (en 1494) y Gerolamo Cardano (en 1550) escribieron tratados sobre el tema. Un par de siglos después, en Francia, Blaise Pascal inició una nutrida correspondencia con Pierre de Fermat sobre el asunto, motivado por una pregunta que le había formulado su amigo, el barón de Méré, quien era aficionado a los juegos de azar. Obviamente, para hacer muchos de los que pueden ser considerados los primeros cálculos de probabilidades, Pascal se valió de su hermoso triángulo numérico. En él, los números en los extremos son todos 1, y los otros se obtienen cada uno como la suma de los dos que le son contiguos hacia arriba. Este arreglo numérico, el más famoso de toda la matemática, tiene muchísimas apariciones en aritmética, álgebra, combinatoria y probabilidades, pues permite realizar muchos conteos en situaciones sencillas.

Una aplicación del triángulo de Pascal: si en una bolsa colocamos 4 naranjas y 4 manzanas, y luego retiramos 4 frutas al azar, la probabilidad de sacar exactamente una manzana es 3/8, pues en la segunda posición de la cuarta fila del triángulo figura un 3, y la suma de los números en esa fila es 8.
Dicho sea de paso, y como suele suceder a lo largo de la historia de la matemática, este triángulo era conocido con anterioridad por diversas culturas. Es así como, hasta el día de hoy, en Italia, se le llama «triángulo de Tartaglia», en honor al matemático del siglo XIV Niccolò Fontana (apodado «tartaglia» por su tartamudez); en China, se le llama «triángulo de Yang Hui», en honor al matemático del siglo XIII que lo popularizó tras haberlo heredado de Zhu Shijie; y en Irán se le llama «triángulo de Jayam», en honor al poeta, filósofo, astrónomo y matemático persa Omar Jayam, el más grande sabio sobre la faz de la Tierra durante el siglo XI (y de quien se cree que incluso conocía la fórmula de la potencia del binomio, estrechamente relacionada con el triángulo, descubierta por Isaac Newton varios siglos más tarde).

A la izquierda: la belleza de la geometría del mausoleo de Omar Jayam en Nishapur (Irán), obra del arquitecto Houshang Seyhoun. A la derecha: ilustración del triángulo de Yang Hui.
Desde los tiempos de Pascal y Fermat, fueron muchísimos quienes colaboraron en el desarrollo de la teoría. Por solo nombrar algunos, podemos citar a George Boole, Daniel y Jacob Bernouilli, Karl Gauss y Abraham de Moivre. Sin embargo, muchas de las ideas probabilísticas fueron juzgadas como «poco serias» e incluso rechazadas por un porcentaje considerable de científicos debido a la corriente determinista que dominó la ciencia durante varios siglos. Según esta, «todo suceso está correlacionado con una causa», lo cual niega de plano el azar. El propio Pierre-Simon Laplace se refería despectivamente a las probabilidades como «el sentido común a través de los números». Al constatar este caso, así como la recepción de las ideas de Cantor en un inicio (capítulo 22) y muchas otras situaciones similares (como el trato a Henri Lebesgue, creador de la teoría moderna del cálculo integral), no podemos dejar de citar una sabia frase de Armand Borel, aquel que invitó a Boris Weisfeiler a Princeton (capítulo 24): «Lo que menos necesitan las matemáticas son esos eruditos que dictaminan recetas y directrices para las mentes supuestamente menos iluminadas».
El azar debió imponerse, entonces, por otras vías. Primeramente, el austriaco Ludwig Bolztmann, férreo defensor de la teoría atómica, usó sus métodos para cimentar la termodinámica. Pese a esto, la mala recepción de sus ideas agudizó su depresión, que lo llevó al suicidio en 1906. Justo un año antes, Albert Einstein maravillaba al mundo al proponer un primer modelo físico para el movimiento browniano, es decir, el movimiento de partículas microscópicas que se desplazan de manera aparentemente desordenada en un fluido (un comportamiento tal había sido descrito para los granos de polen por el botánico escocés Robert Brown en 1827). Este modelo confirmaba la teoría atómica y, de paso, daba origen a una nueva disciplina: la física estadística. Un par de décadas más tarde, Norbert Wiener daba un modelo matemático del mismo fenómeno anclado en las probabilidades, que poco a poco habían ido saliendo de su estancamiento. Pero no sería sino el triunfo de la mecánica cuántica el que haría de las probabilidades una herramienta indispensable para la física teórica.
La formalización y entrada definitiva de las probabilidades en la matemática es obra de la escuela rusa. A fines del siglo XIX, Pafnuti Chebyshov colaboró en hacer rigurosos algunos aspectos empíricos de la teoría, como la «ley de los grandes números», la cual establece, por ejemplo, que la probabilidad de que al lanzar una moneda al aire caiga en cara es igual a 1/2 porque, al lanzar la moneda una cantidad muy grande de veces, muy probablemente se obtendrá una cara un número de ocasiones cada vez más cercano a la mitad del total de lanzamientos. Posteriormente, su estudiante, Andréi Márkov, creó una teoría de procesos en los cuales el futuro depende aleatoriamente del presente, pero es independiente del pasado. Estos «procesos de Márkov» son hoy en día utilizados casi universalmente en ciencia e ingeniería, y sus aplicaciones van desde el modelamiento de los movimientos bursátiles al método de ranking que usa Google para los sitios de internet. Más tarde, en 1933, Andréi Kolmogórov publicó Los fundamentos de la teoría de la probabilidad, donde establece las bases modernas de la teoría axiomática de la probabilidad a partir de la teoría de conjuntos de Cantor (capítulo 22). Y esta fue solo una de las muchas obras que nos dejó este hombre, que ejerció como patriarca de varias generaciones de brillantes matemáticos soviéticos, muchos de ellos formados en escuelas concebidas especialmente para jóvenes talentosos.
Con estos trabajos y otros posteriores, la tarea se ha ido completando poco a poco: las probabilidades han revelado la estructura del azar, de la misma forma que los sistemas dinámicos lo han hecho con el caos (capítulo 17). Así, hoy en día, las probabilidades no solo tienen vida propia, sino que están incrustadas en toda la matemática. Por ejemplo, en muchas situaciones se recurre a modelos que mezclan comportamientos determinísticos y estocásticos. Esto ocurre generalmente en escenarios de alta complejidad en los que se cuenta con información limitada, como aquellos relacionados con el movimiento de personas en una gran ciudad, la navegación en internet, las conexiones neuronales del cerebro, etcétera. Naturalmente, determinar el «grado de aleatoriedad» de un «sistema complejo» se ha vuelto un aspecto fundamental. Y si bien se trata de un concepto muy elaborado, puede ser ilustrado con un ejemplo literalmente mágico.
¿Cuántas veces se debe barajar un juego de cartas para que queden bien revueltas? Sin necesidad de explicar detalladamente los términos utilizados, es claro que lo que deseamos es que el grado de incerteza de la distribución final sea muy alto; de manera más sencilla, queremos que sea muy difícil hacer adivinaciones sobre la posición final de un grupo de cartas específicas. Hacer cálculos explícitos en torno a este problema con barajas de número elevado de cartas es sumamente difícil. De hecho, para una baraja de cincuenta y dos cartas (como las de un juego de naipe inglés retirando los jokers), llevar el registro de todas las posibilidades haría colapsar cualquier computador. Sin embargo, David Bayer y Persi Diaconis abordaron el problema de forma conceptual, y a principios de la década de los noventa sorprendieron al mundo con sus inesperados resultados. En lenguaje coloquial, para un juego de cincuenta y dos cartas, se necesita barajar siete veces para asegurar un grado de aleatoriedad cercano al 30%. Este resultado es particularmente extraordinario por dos razones. Por un lado, la teoría subyacente tiene increíbles aplicaciones en otras áreas, como la física de partículas o el álgebra. Por otro lado, uno de sus autores, Diaconis, llegó a él a través de la magia. Así es: antes de dedicarse a la matemática, Diaconis había sido aprendiz del célebre mago canadiense Dai Vernon, y trabajaba como prestidigitador profesional. Sin embargo, sus propios trucos resultaron tan complejos y novedosos que, irremediablemente, lo llevaron por el camino de la ciencia. En sus conferencias, suele matizar la presentación de sus resultados con trucos de magia que dejan perplejo al público asistente.
Y nada de esto es por azar. A fin de cuentas, ciencia y magia tienen mucho en común.
Para ilustrar el proceso de revolver cartas, considere la baraja más simple de todas las que generan alguna información relevante: una de 3 cartas, las cuales numeramos 1, 2 y 3 y suponemos dispuestas en el buen orden (1,2,3) en un comienzo. Tras barajar una vez, podemos llegar a todas las combinaciones, excepto (3,2,1).

Determinar las probabilidades para llegar a las otras combinaciones no es tarea sencilla. Sin embargo, tras un largo cálculo se comprueba que, con probabilidad 0,5, la combinación de llegada es la misma combinación original, es decir, (1,2,3). Por su parte, con probabilidad 0,125, la combinación de llegada puede ser (1,3,2), (2,1,3), (2,3,1) o (3,1,2).


Al barajar una vez más, llegamos a cualquier combinación, pero con distintas probabilidades. Más abajo aparece un cuadro que hace corresponder el número de barajadas con la probabilidad de que la combinación correspondiente aparezca. Tal como se observa, todas las combinaciones tienden a aparecer rápidamente con casi la misma probabilidad. El resultado de Bayer y Diaconis dice entonces que, con una baraja de 52 cartas (instancia en la cual la realización de cálculos explícitos se vuelve impracticable), se debe repetir el proceso siete veces para observar un fenómeno similar.
P1 | P2 | P3 | P4 | |
(1,2,3) | 0,500… | 0,312… | 0,234… | 0,199… |
(1,3,2) | 0,125… | 0,156… | 0,164… | 0,166… |
(2,1,3) | 0,125… | 0,156… | 0,164… | 0,166… |
(2,3,1) | 0,125… | 0,156… | 0,164… | 0,166… |
(3,1,2) | 0,125… | 0,156… | 0,164… | 0,166… |
(3,2,1) | 0,000 | 0,062… | 0,109… | 0,136… |