Predicción cuantitativa analítica: cuándo usarla y cómo elegir modelo

En el post anterior vimos que la predicción no siempre empieza con datos y modelos: a veces lo más razonable es recurrir a estrategias cualitativas. Pero cuando el fenómeno es lo bastante estable, repetible y medible, la predicción cuantitativa ofrece algo muy valioso: un lenguaje común para comparar, evaluar y mejorar.

Ahora bien, dentro de la predicción cuantitativa conviene hacer una distinción fundamental porque no todos los modelos numéricos funcionan igual.

  • Algunos resuelven una estructura matemática estimada a partir de los datos y producen una predicción directa.
  • Otros, en cambio, recrean el sistema múltiples veces mediante simulación, generando dinámicas posibles y distribuciones emergentes.

Este post se centra en la primera familia: la predicción cuantitativa analítica.

Seguir leyendo «Predicción cuantitativa analítica: cuándo usarla y cómo elegir modelo»

Reseña del libro «Máquinas Predictivas: La economía simple de la Inteligencia Artificial»

Introducción

Prediction Machines: The Simple Economics of Artificial Intelligence, publicado en 2018 por Ajay Agrawal, Joshua Gans y Avi Goldfarb, parte de una idea tan simple como potente: el principal impacto de la inteligencia artificial no es que las máquinas “piensen”, sino que reducen drásticamente el coste de la predicción. Y dado que toda decisión incorpora algún tipo de predicción, este abaratamiento tiene consecuencias económicas de gran alcance.

El libro se publicó cuatro años antes del lanzamiento de ChatGPT, anticipándose al auge masivo de la IA generativa y al debate actual sobre su impacto. En un momento en el que la IA aún se percibía como una tecnología especializada, los autores ya señalaban que el verdadero cambio no vendría de aplicaciones llamativas, sino de la incorporación silenciosa de la predicción barata en millones de decisiones cotidianas.

Desde una perspectiva económica y pragmática, la IA se presenta como una continuación de avances previos —como las hojas de cálculo o los sistemas de optimización— que transformaron la toma de decisiones al reducir costes. La diferencia ahora es la escala: pequeñas mejoras en precisión, aplicadas de forma sistemática, generan un valor enorme.

A lo largo del libro, esta tesis se desarrolla en tres grandes bloques: qué es la predicción desde el punto de vista económico, cómo su abaratamiento transforma decisiones y organizaciones, y qué implicaciones estratégicas se derivan de un mundo donde predecir es cada vez más barato, pero el juicio humano sigue siendo escaso y valioso.

Seguir leyendo «Reseña del libro «Máquinas Predictivas: La economía simple de la Inteligencia Artificial»»

La tasa base: el punto de partida de toda predicción sensata

Cuando intentamos predecir algo —el precio de la vivienda, la inflación, la probabilidad de aprobar unos presupuestos o incluso el absentismo laboral— solemos empezar por las historias: explicaciones plausibles, datos recientes, señales llamativas. El problema es que, muy a menudo, empezamos por el lugar equivocado.

Antes de añadir matices, escenarios o modelos sofisticados, hay una pregunta más simple y más incómoda que deberíamos hacernos siempre:

¿Qué suele pasar, de media, cuando no sabemos nada más?

Esa respuesta es lo que llamamos tasa base.

¿Qué es exactamente una tasa base?

La tasa base es la frecuencia histórica con la que ocurre un evento en una población o contexto comparable. No explica por qué ocurre algo, solo con qué frecuencia ocurre normalmente.

Ejemplos sencillos:

  • ¿Qué porcentaje de proyectos públicos se retrasa?
  • ¿Cuántos años, de media, la inflación supera el 3 %?
  • ¿Con qué frecuencia se prorrogan los presupuestos en sistemas parlamentarios fragmentados?

La tasa base no pretende ser brillante. Pretende ser estable y ahí está su fuerza.

Seguir leyendo «La tasa base: el punto de partida de toda predicción sensata»

Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad

Continuamos con esta serie de post donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— y hoy hablaremos de uno de los sesgos más sutiles, pero también más poderosos: el sesgo de disponibilidad.

¿Qué es el sesgo de disponibilidad?

El sesgo de disponibilidad es la tendencia que tenemos a juzgar la probabilidad o frecuencia de un evento según la facilidad con la que recordamos ejemplos de él. En otras palabras: cuanto más fácilmente recordamos algo, más probable nos parece que sea.

No estimamos con datos, sino con nuestros recuerdos y éstos —como bien explica Kahneman— no son un registro fiel del mundo, sino un archivo sesgado por la emoción, la atención y los medios.

Un ejemplo clásico del libro

Kahneman y Tversky realizaron un experimento muy revelador: preguntaron a un grupo de personas si, en inglés, hay más palabras que empiecen por la letra K o más palabras que tengan la K como tercera letra.

La mayoría respondió que hay más palabras que empiezan por K, porque es más fácil recordar ejemplos como kite o king que pensar en palabras con K en la tercera posición (make, bake…). Sin embargo, la respuesta correcta era la contraria: hay más palabras con “K” en la tercera posición (¡3 veces más!).

El problema no es la falta de inteligencia, sino el mecanismo del Sistema 1, el pensamiento rápido e intuitivo: confunde “lo fácil de recordar” con “lo frecuente en el mundo”.

Seguir leyendo «Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad»

Cómo hacer un post-mortem de tus predicciones

Para concluir la serie de posts donde hemos analizado y reflexionado sobre conceptos e ideas del libro Superforecasting: The Art and Science of Prediction, en esta entrada hablaremos de la práctica del post-mortem: una herramienta que nos ayudará a mejorar nuestras futuras predicciones a partir de hacer las “autopsias” de nuestras predicciones pasadas.

Cuando lanzamos una predicción sobre el futuro, el tiempo se convierte en juez.
La fecha llega, el evento ocurre (o no) y ya no hay incertidumbre. Entonces aparece un momento crítico que a menudo pasamos por alto: el análisis post-mortem.

Un post-mortem es la autopsia de una predicción ya caducada. No se trata solo de comprobar si “acertamos” o “fallamos”, sino de contrastar nuestra estimación con el resultado real y, sobre todo, de sacar conclusiones que nos hagan mejores pronosticadores.

Seguir leyendo «Cómo hacer un post-mortem de tus predicciones»

¿Cómo saber si tus predicciones son buenas?

Esta entrada, como las anteriores, parte de una idea clave del libro Superforecasting: The Art and Science of Prediction de Philip Tetlock y Dan Gardner. Allí se insiste en que hacer predicciones no es solo cuestión de acertar o fallar, sino de aprender a evaluar la calidad de nuestros juicios para mejorarlos con el tiempo.

Y para mejorar, primero hay que medir.
¿Medir qué exactamente?
👉 La calidad de tus predicciones.

En este post te presento tres conceptos clave para evaluar predicciones, especialmente si te interesa convertirte en un autèntico superforecaster:

  • Calibración
  • Resolución
  • Métricas cuantitativas como el Brier Score o el MAPE
Seguir leyendo «¿Cómo saber si tus predicciones son buenas?»

La sabiduría de las multitudes, los mercados eficientes y las predicciones que no siempre aciertan

A continuación se expone y se reflexiona sobre una idea extraída del libro “Superpronosticadores. El arte y la ciencia de la predicción”. Se trata de la llamada “sabídura de las masas” que defiende que la agregación combinada de muchas opiniones es mejor que la de unas pocas, aunque estas se consideren expertas.

En 1906, el estadístico Francis Galton visitó una feria agrícola en Plymouth, Inglaterra. Allí observó un curioso concurso: los asistentes debían adivinar el peso de un buey expuesto, y el ganador sería quien más se acercara al peso real.

Galton, escéptico del «pueblo llano», recopiló los 787 boletos con estimaciones y decidió analizarlos. Calculó la mediana de todas las predicciones: 1.207 libras. El peso real del animal era 1.198 libras. Solo nueve libras de diferencia. Increíblemente preciso.

Este episodio se ha convertido en un clásico ejemplo de lo que hoy conocemos como la «sabiduría de las multitudes»: cuando se agregan muchas opiniones independientes, incluso si no son expertas, el resultado puede ser sorprendentemente acertado.

Seguir leyendo «La sabiduría de las multitudes, los mercados eficientes y las predicciones que no siempre aciertan»

Intentar ver el mundo como una libélula: múltiples perspectivas para mejores predicciones

A continuación, seguimos explorando ideas del libro «Superforecasting: The Art and Science of Prediction» que considero muy relevantes para todo aquel que quiera mejorar su capacidad de predecir. En el momento de explorar la idea de ver el mundo como una libélula, es decir, abordar un problema des de todas las perspectivas posibles.

Las libélulas tienen una forma extraordinaria de ver el mundo. Sus ojos están compuestos por miles de lentes individuales, cada una captando una porción distinta del entorno. El resultado no es una imagen fragmentada, sino una visión integrada y más rica. ¿Y si aplicáramos ese mismo principio a cómo pensamos sobre el futuro?

El sesgo de nuestra única perspectiva

Uno de los mayores retos al hacer predicciones es que solemos ver el mundo desde un solo ángulo: el nuestro. Nuestra experiencia, nuestras creencias y nuestras emociones actúan como filtros que limitan lo que vemos —y lo que somos capaces de anticipar.

Seguir leyendo «Intentar ver el mundo como una libélula: múltiples perspectivas para mejores predicciones»

Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)

A continuación se expondrá en detalle un método que se propone en el libro Superforecasting: The Art and Science of Prediction para descomponer un problema en partes más estimables.

Uno de los retos más frecuentes en análisis es enfrentarse a preguntas sin datos directos. En lugar de improvisar o bloquearse, hay una técnica sorprendentemente útil para avanzar con lógica: la estimación de Fermi.

Esta técnica, popularizada por el físico Enrico Fermi, se basa en dividir un problema complejo en partes más pequeñas y estimar cada una de ellas con números razonables. Pero más allá del cálculo, lo importante es el proceso: establecer límites exteriores (el resultado más amplio razonable) e interiores (el resultado más ajustado posible) del problema, y ser consciente del número que usamos como punto de partida, ya que este actuará como ancla para el resto de nuestras suposiciones.

Seguir leyendo «Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)»

Priors bayesianas (3/3): Distribuciones continuas para modelar creencias que fluyen

En las dos entradas anteriores presentamos el concepto de prior bayesiana y cómo construirla usando distribuciones discretas. Sin embargo, no todo en la vida se cuenta con números enteros. A veces, lo que queremos modelar fluye de forma continua: proporciones, medias, tiempos, tasas…
En este último capítulo de la serie, exploramos las distribuciones continuas más útiles para construir priors cuando las variables no se cuentan, sino que se miden.

¿Qué es una distribución continua?

Una distribución de probabilidad continua describe el comportamiento de una variable que puede tomar cualquier valor dentro de un intervalo, incluso infinitos valores posibles.

Por ejemplo: La proporción de pacientes que se recuperan de una enfermedad, el tiempo de espera en una consulta médica o el ingreso mensual medio de una familia.

Seguir leyendo «Priors bayesianas (3/3): Distribuciones continuas para modelar creencias que fluyen»