Bayes: de los milagros a los algoritmos

El mundo en que nació Thomas Bayes era un lugar mucho más borroso de lo que creemos. Corría el siglo XVIII, soplaban vientos de Ilustración y la mayoría de las mentes brillantes de la época creían que la verdad absoluta estaba al alcance del hombre moderno. Mediante la razón, grandes pensadores se afanaban en elaborar leyes y ecuaciones deterministas que pretendían revelar el funcionamiento del universo, como si fuera un reloj suizo. La incertidumbre, esa plaga moderna, apenas comenzaba a abrirse paso.

Bayes, un clérigo presbiteriano de mirada invisible, nunca fue un gran protagonista. No tuvo el carisma de Newton ni la osadía de Laplace. Vivía en la sombra, en bibliotecas polvorientas, escribiendo silenciosamente sobre teología, moral y con una especial fascinación por las matemáticas.

Fue en ese clima donde, hacia 1750, concibió una idea que cambiaría el mundo. Una idea que, como muchas de las grandes revoluciones, fue ignorada durante décadas: que no había que esperar infinitas repeticiones de un evento para saber qué tan probable era, que podíamos estimar la incertidumbre con la información que ya teníamos. Que podíamos, en suma, inferir hacia adelante.

La teoría de Bayes no nació como un dogma, sino como un susurro: “Si creemos algo antes de observar, podemos actualizar esa creencia con cada nueva evidencia”. Es decir, la verdad no es un pilar inamovible, sino una probabilidad que se desplaza y se corrige, que tambalea, que duda. Para el pensamiento estadístico clásico, esto era casi una blasfemia.

Una respuesta a Hume

Algunos dicen que la razón que le llevó a idear esta teoría era su voluntad de refutar las tesis de David Hume en su obra “Sobre los milagros” (1748). En ella, Hume defendía que, en el caso de producirse un milagro divino, siempre hay que descartarlo como falso, ya que será mucho más probable que los testigos se equivoquen a que haya ocurrido un hecho que viola las leyes de la naturaleza. Sorprendentemente, Bayes demostró con su herramienta estadística que, si hay suficientes testigos fiables e independientes, la probabilidad puede invertirse y, por tanto, la ocurrencia del milagro puede llegar a ser plausible.

El enfrentamiento con la ortodoxia frecuentista

A finales del siglo XIX y principios del XX, la estadística se institucionalizó. Nombres como Ronald Fisher, Jerzy Neyman y Egon Pearson erigieron los pilares de la teoría frecuentista: aquella que define la probabilidad como la frecuencia relativa de un evento al repetirse indefinidamente. En ese marco, las creencias previas no tenían cabida. La ciencia debía basarse en datos puros, no en juicios subjetivos.

El enfoque bayesiano quedó relegado. Se le acusó de introducir la opinión personal en el proceso científico. Fisher despreciaba el uso de priors, considerándolos “arbitrariedades”. La inferencia bayesiana pasó a los bordes de la estadística, como una corriente clandestina.

Pero el mundo real no es un laboratorio ideal. Los datos no se repiten al infinito. Las decisiones deben tomarse con información incompleta. Y así, poco a poco, la necesidad de un enfoque más flexible fue ganando terreno.

El regreso del zorro: Bayes en el siglo XXI

Hoy la inferencia bayesiana vive una segunda vida. No en salones religiosos, sino en algoritmos, modelos predictivos, sistemas de inteligencia artificial. En la medicina personalizada que ajusta diagnósticos a cada paciente. En los sistemas de recomendación que adivinan lo que verás en Netflix. En los modelos económicos que evalúan escenarios de riesgo. En los pronósticos políticos, deportivos, financieros.

El teorema de Bayes es la base de una filosofía: la que entiende que el conocimiento es provisional, que debe actualizarse a medida que cambia la evidencia. Es el arte de pensar en términos de incertidumbre. Es la posibilidad de combinar intuición y evidencia sin renunciar a la precisión.

Como diría Laplace, que redescubrió las ideas de Bayes sin, según dicen, haberlas oído nombrar: “La teoría de probabilidades no es más que el sentido común reducido a cálculo”. Hoy, más que nunca, necesitamos ese sentido común

No sabemos qué pensaría Bayes si viera su nombre inscrito en ecuaciones de machine learning o en modelos generativos de lenguaje. Pero quizás le gustaría saber que, en medio de una era saturada de datos y ruido, su voz silenciosa ha resurgido para recordarnos que la incertidumbre puede ser gestionada y ser una forma de llegar a la verdad. Ese camino a la verdad que, como decía Baruch Spinoza, nos acerca a Dios. Un camino divino que se adapta, que cambia, que aprende.

Una explicación sencilla del teorema de Bayes

El teorema de Bayes nos ayuda a responder preguntas como: “Dado que he observado esto, ¿cuán probable es que ocurra aquello?”. No se limita a contar frecuencias, sino que permite actualizar una creencia previa con nueva información.

Imagina que eres médico y una paciente da positivo en una prueba de enfermedad rara. El test es fiable, pero la enfermedad es muy poco común. ¿Significa ese positivo que la paciente está enferma con alta probabilidad? No necesariamente. Para saberlo, necesitas tres piezas de información:

  1. La probabilidad previa de que alguien tenga la enfermedad (la tasa base en la población).
  2. La probabilidad de dar positivo si realmente se está enfermo (sensibilidad del test).
  3. La probabilidad de dar positivo si estás sano (falsos positivos).

El teorema de Bayes combina estos elementos y nos devuelve la probabilidad posterior, es decir, la probabilidad real de estar enfermo dado que el test ha salido positivo.

Matemáticamente, se expresa así:

P(H|D) = [P(D|H) * P(H)] / P(D)

Donde:

P(H|D) es la probabilidad de la hipótesis (H) dado el dato (D)

P(D|H) es la probabilidad de observar ese dato si la hipótesis fuera cierta

P(H) es la creencia previa

P(D) es la probabilidad total de observar ese dato, con o sin la hipótesis

En esencia: ¡El teorema de Bayes nos da una forma ordenada de pensar cuando el mundo nos da nueva información!

Ejemplo aplicado: ¿cuántos testigos hacen creíble un milagro?

Para ilustrar el teorema usaremos el ejemplo para el cual (según dicen) fue ideada. Este no es el otro que el de la verosimilitud de los milagros que propuso David Hume.

Partimos de los siguientes valores y sus probabilidades asociadas (completamente inventadas):

  • P(M|T)​: Probabilidad de milagro dado N testigos = ?
  • P(TM): Probabilidad de que el testimonio sea cierto si el milagro realmente ocurrio = 99%
  • P(M): Probabilidad previa de que ocurra un milagro =  1 entre 1 000 000 (0,000001%)
  • P(¬M)=1−P(M): Probabilidad previa de que NO ocurra un milagro = 1 – (10^-6) = 99,99999%
  • P(T∣¬M)= 1 – P(T∣M):  Probabilidad de que el testimonio NO sea cierto y que no haya presenciado un milagro = 1 – 0,99 = 1%
  • P(D) = P(T∣M) * P(M) +  P(T∣¬M) * P(¬M): Probabilidad total = 0,99 * 10^-6  + 0,01 * 0,9999.. = 1,000098%

El resultado de aplicar la fórmula de Bayes es 0,0099% de que se haya producido un milagro. ¡Muy pequeña pero no es cero!

Ahora veamos qué pasa si nos vamos encontrando más testigos:

Nº de testigosProbabilidad posterior del milagro
2≈ 1 %
3≈ 49 %
4≈ 99 %
5> 99,9 %

En resumen, un hecho extraordinario necesita evidencia extraordinaria, pero múltiples testimonios fiables pueden elevar la probabilidad lo suficiente como para volver racional creer que el milagro ocurrió. Bayes cuantifica exactamente cuánta evidencia hace falta.

Nota metodológica final

En este blog, el enfoque predominante será la inferencia bayesiana, tanto como método de pensamiento como herramienta estadística. Sin embargo, eso no impedirá recurrir a conceptos y herramientas de la teoría frecuentista cuando se considere adecuado, por ejemplo, para estimar priors empíricos o evaluar la validez de ciertos supuestos. Entendemos que ambos enfoques pueden convivir y enriquecerse mutuamente en el análisis de la incertidumbre.

1 comentario en “Bayes: de los milagros a los algoritmos”

Replica a Priors bayesianas (1/3):¿Qué es una prior? – The Bayesian Fox Cancelar la respuesta