Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)

A continuación se expondrá en detalle un método que se propone en el libro Superforecasting: The Art and Science of Prediction para descomponer un problema en partes más estimables.

Uno de los retos más frecuentes en análisis es enfrentarse a preguntas sin datos directos. En lugar de improvisar o bloquearse, hay una técnica sorprendentemente útil para avanzar con lógica: la estimación de Fermi.

Esta técnica, popularizada por el físico Enrico Fermi, se basa en dividir un problema complejo en partes más pequeñas y estimar cada una de ellas con números razonables. Pero más allá del cálculo, lo importante es el proceso: establecer límites exteriores (el resultado más amplio razonable) e interiores (el resultado más ajustado posible) del problema, y ser consciente del número que usamos como punto de partida, ya que este actuará como ancla para el resto de nuestras suposiciones.

Seguir leyendo «Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)»

Priors bayesianas (2/3): Cómo usar distribuciones discretas para modelar nuestras creencias

En la primera entrega de esta serie vimos qué es una prior: una forma de expresar con números lo que creemos antes de observar datos. Hoy daremos un paso más y veremos cómo podemos construir esas priors utilizando distribuciones de probabilidad discretas cuando el análisis preliminar nos indica que el fenómeno que queremos predecir se comporta así.

Porque sí, hasta nuestras corazonadas pueden adoptar una forma matemática.

¿Qué es una distribución de probabilidad discreta?

Una distribución de probabilidad discreta es una herramienta matemática que asigna probabilidades a valores enteros concretos. Es útil para describir fenómenos contables como:

  • ¿Cuántas veces encestaré si lanzo 10 veces?
  • ¿Cuántos clientes vendrán hoy?
  • ¿Cuánto tardaré en tener un acierto?

Estas distribuciones no trabajan con valores continuos como 3,1416 o 7,82, sino con 0, 1, 2, 3…

Seguir leyendo «Priors bayesianas (2/3): Cómo usar distribuciones discretas para modelar nuestras creencias»

Bayes: de los milagros a los algoritmos

El mundo en que nació Thomas Bayes era un lugar mucho más borroso de lo que creemos. Corría el siglo XVIII, soplaban vientos de Ilustración y la mayoría de las mentes brillantes de la época creían que la verdad absoluta estaba al alcance del hombre moderno. Mediante la razón, grandes pensadores se afanaban en elaborar leyes y ecuaciones deterministas que pretendían revelar el funcionamiento del universo, como si fuera un reloj suizo. La incertidumbre, esa plaga moderna, apenas comenzaba a abrirse paso.

Bayes, un clérigo presbiteriano de mirada invisible, nunca fue un gran protagonista. No tuvo el carisma de Newton ni la osadía de Laplace. Vivía en la sombra, en bibliotecas polvorientas, escribiendo silenciosamente sobre teología, moral y con una especial fascinación por las matemáticas.

Fue en ese clima donde, hacia 1750, concibió una idea que cambiaría el mundo. Una idea que, como muchas de las grandes revoluciones, fue ignorada durante décadas: que no había que esperar infinitas repeticiones de un evento para saber qué tan probable era, que podíamos estimar la incertidumbre con la información que ya teníamos. Que podíamos, en suma, inferir hacia adelante.

Seguir leyendo «Bayes: de los milagros a los algoritmos»

El arte de predecir con la cabeza fría: el decálogo del zorro bayesiano

¿Te gustaría saber qué nos depara el futuro para tomar mejores decisiones hoy? Hay una manera de acercarse a ello, pero no es la que imaginas.

Lo cierto es que no hay forma de estar completamente seguros de lo que va a ocurrir, porque el futuro es probabilístico. Esto significa que las predicciones siempre deben ir acompañadas de una probabilidad, incluso cuando esta se acerque al 100 %. Por ejemplo, técnicamente no podemos afirmar que hay un 100 % de posibilidades de que mañana salga el sol, ya que siempre podría ocurrir un cataclismo (una colisión planetaria, una implosión solar, etc.). Pero este tipo de eventos son tan extraordinariamente improbables que podemos decir que la probabilidad de que no salga el sol es del 0.000000000…1 % (pero no cero).

Por tanto, la manera de saber si algo va a suceder o no es la siguiente:

  1. Formular la hipótesis: Por ejemplo «El Real Madrid ganará el Mundial de Clubes 2025».
  2. Calcular la probabilidad de que esta hipótesis sea cierta.
  3. Comparar esa probabilidad con un umbral subjetivo a partir del cual consideramos algo como muy probable (por ejemplo, un 90 %). Si lo supera, no rechazamos la hipótesis y, por tanto, podremos decir que el Real Madrid ganará el Mundial de Clubes 2025.

El reto de este método es que nos exige calcular una probabilidad que depende de múltiples variables (el estado de los jugadores, la táctica, la suerte…) y que va cambiando con el tiempo hasta que finaliza el campeonato.

La estrategia que ha demostrado dar mejores resultados para abordar esta tarea es pensar como un zorro, entendida esta metáfora como tener un marco mental flexible y abierto a múltiples posibilidades. A eso se le suma el uso de la inferencia bayesiana, que nos permite actualizar nuestras creencias conforme vamos recibiendo nueva información. En definitiva, se trata de convertirse en un zorro bayesiano.

Seguir leyendo «El arte de predecir con la cabeza fría: el decálogo del zorro bayesiano»