En el post anterior vimos cómo la predicción cuantitativa analítica parte de una estructura estimada y la proyecta hacia el futuro. Funciona especialmente bien cuando el fenómeno es relativamente estable y las relaciones pueden formalizarse mediante una ecuación o función. Pero no todos los sistemas se comportan así.
Hay contextos donde:
Las interacciones entre elementos generan dinámicas emergentes.
La incertidumbre es central y acumulativa.
Los resultados no dependen de una única trayectoria, sino de muchas posibles.
El comportamiento futuro depende de decisiones que se retroalimentan.
En estos casos, en lugar de resolver un modelo, necesitamos simular un sistema. Eso nos lleva a la segunda gran familia de la predicción cuantitativa: la predicción basada en simulación.
En el post anterior vimos que la predicción no siempre empieza con datos y modelos: a veces lo más razonable es recurrir a estrategias cualitativas. Pero cuando el fenómeno es lo bastante estable, repetible y medible, la predicción cuantitativa ofrece algo muy valioso: un lenguaje común para comparar, evaluar y mejorar.
Ahora bien, dentro de la predicción cuantitativa conviene hacer una distinción fundamental porque no todos los modelos numéricos funcionan igual.
Algunos resuelven una estructura matemática estimada a partir de los datos y producen una predicción directa.
Otros, en cambio, recrean el sistema múltiples veces mediante simulación, generando dinámicas posibles y distribuciones emergentes.
Este post se centra en la primera familia: la predicción cuantitativa analítica.
Cuando se habla de predicción, la conversación suele girar rápidamente hacia modelos cuantitativos, datos y algoritmos. Sin embargo, en muchos contextos reales, la mejor estrategia predictiva no es cuantitativa, ni tampoco una simulación formal.
Antes de números, a menudo solo hay experiencia, analogías, narrativas plausibles y/o juicios informados.
A eso lo llamamos predicción cualitativa y lejos de ser un recurso “menor”, es una estrategia legítima y, en muchos casos, necesaria.
1. ¿Cuándo conviene usar predicción cualitativa?
La predicción cualitativa es especialmente útil cuando forzar una predicción cuantitativa sería artificial o engañoso. No siempre faltan datos; a veces lo que falta es estructura, comparabilidad o estabilidad.
Hablar de predicción suele llevarnos demasiado rápido a los modelos: regresión, clasificación, redes neuronales, machine learning. Pero empezar por ahí es como aprender geografía memorizando capitales sin haber visto nunca un mapa.
Antes de entrar en técnicas concretas, algoritmos o librerías, conviene dar un paso atrás y responder a una pregunta más básica:
¿De cuántas formas distintas intentamos predecir el futuro?
Este post es el primero de una serie extensa dedicada a recorrer, con calma, las distintas estrategias de predicción. No empieza por el cómo se calcula, sino por el cómo se piensa un problema predictivo.
La imagen que encabeza este post resume ese mapa general. A lo largo de la serie volveremos a ella muchas veces.
Tipo de evento: La inflación media anual (IPC) registrada en 2026 en España.
Predicción: un 77% de probabilidad que suba más de un 7%.
Evento
La variación anual media del precio de compra de la vivienda en España durante el año 2026.
El evento se considerará evaluado una vez disponibles los datos definitivos correspondientes a 2026 publicados por las fuentes estadísticas de referencia (INE, Ministerio de Vivienda u organismos equivalentes).
Tasa base
A largo plazo, el precio de la vivienda en España tiende a crecer a un ritmo ligeramente superior a la inflación, con episodios de aceleración cuando la oferta es rígida y la demanda se concentra geográficamente.
Una tasa de crecimiento en torno al 5 % anual representa ese ritmo “normal” de fondo, coherente con la media observada desde 2014 y con la experiencia de países europeos comparables en contextos de oferta limitada.
Sin embargo, para 2026 se asume que el mercado no se encuentra en una situación de normalidad. La persistencia de una escasez estructural de oferta, especialmente en áreas urbanas tensionadas, junto con una demanda concentrada, justifica elevar la tasa base operativa hasta el 6,5 %.
Este ajuste no refleja un cambio estructural de tendencia, sino un desplazamiento temporal del régimen, en el que el crecimiento medio esperado se sitúa por encima de su ancla histórica.
Ajustes cualitativos
Motores (de mayor a menor relevancia)
Escasez estructural de oferta, especialmente en áreas urbanas tensionadas Impacto estimado: 60 % – 75 %
Concentración de la demanda en determinadas zonas geográficas Impacto estimado: 55 % – 70 %
Percepción de la vivienda como activo relativamente seguro Impacto estimado: 40 % – 55 %
Inercia de expectativas tras varios años de subidas intensas Impacto estimado: 45 % – 60 %
Frenos (de mayor a menor relevancia)
Coste de financiación y esfuerzo financiero de los hogares Impacto estimado: 50 % – 65 %
Límites de renta y ahorro disponibles para nuevos compradores Impacto estimado: 55 % – 70 %
Incertidumbre regulatoria y fiscal, con impacto desigual según territorio Impacto estimado: 35 % – 50 %
Posible saturación de la demanda en segmentos específicos Impacto estimado: 30 % – 45 %
Predicción probabilística
Distribución subjetiva de probabilidad para la variación anual media del precio de la vivienda en 2026:
Subida inferior al 5 % → 5 %
Subida entre 5 % y 7 % → 18 %
Subida entre 7 % y 10 % → 48 %
Subida superior al 10 % → 29 %
La probabilidad implícita de que el crecimiento anual supere el 7 % se sitúa en el 77 %, reflejando un escenario central de crecimiento elevado pero no extremo.
Metodología y reproducibilidad
El cálculo completo de probabilidades y escenarios está disponible en un archivo Excel adjunto, editable y reproducible, que documenta:
La tasa base estructural y la tasa base operativa
Los ajustes cualitativos aplicados
La combinación de escenarios
La normalización final de probabilidades
Revisiones periódicas (protocolo)
Esta predicción será revisada de forma trimestral, o antes si se produce información relevante que altere el equilibrio entre oferta, demanda y condiciones financieras.
En cada revisión se documentará:
Fecha de la revisión
Nueva distribución de probabilidades
Cambios respecto a la versión anterior
Evidencia o datos que motivan la actualización
Las revisiones se añadirán cronológicamente en esta misma ficha para mantener un registro público, transparente y auditable del proceso de actualización.
Evaluación final (pendiente)
La evaluación se realizará una vez publicados los datos definitivos correspondientes a 2026.
Tipo de evento: Variable macroeconómica continua (IPC medio anual).
Predicción: 68% probabilidad que se situe por debajo del 2,4%
Evento
La inflación media anual (IPC) registrada en España durante el año 2026, medida por el Instituto Nacional de Estadística (INE).
El evento se considerará evaluado una vez publicado el dato definitivo de IPC medio anual correspondiente a 2026.
Tasa base
En economías avanzadas, la inflación tiende a oscilar en torno al entorno del 2,2 %, con desviaciones temporales tras shocks relevantes, pero con tendencia a reabsorberse en ausencia de nuevas perturbaciones.
Para el caso europeo, las previsiones oficiales sitúan la inflación alrededor del 2 %, mientras que otros organismos y analistas la sitúan en torno al 2,3 %.
Esta horquilla constituye la tasa base estructural a partir de la cual se realizan los ajustes.
Ajustes cualitativos
Motores inflacionarios (de mayor a menor relevancia)
Persistencia de presiones en servicios y costes laborales Impacto estimado: 25 % – 45 %
Efectos de segunda ronda por indexaciones parciales Impacto estimado: 25 % – 45 %
Prediction Machines: The Simple Economics of Artificial Intelligence, publicado en 2018 por Ajay Agrawal, Joshua Gans y Avi Goldfarb, parte de una idea tan simple como potente: el principal impacto de la inteligencia artificial no es que las máquinas “piensen”, sino que reducen drásticamente el coste de la predicción. Y dado que toda decisión incorpora algún tipo de predicción, este abaratamiento tiene consecuencias económicas de gran alcance.
El libro se publicó cuatro años antes del lanzamiento de ChatGPT, anticipándose al auge masivo de la IA generativa y al debate actual sobre su impacto. En un momento en el que la IA aún se percibía como una tecnología especializada, los autores ya señalaban que el verdadero cambio no vendría de aplicaciones llamativas, sino de la incorporación silenciosa de la predicción barata en millones de decisiones cotidianas.
Desde una perspectiva económica y pragmática, la IA se presenta como una continuación de avances previos —como las hojas de cálculo o los sistemas de optimización— que transformaron la toma de decisiones al reducir costes. La diferencia ahora es la escala: pequeñas mejoras en precisión, aplicadas de forma sistemática, generan un valor enorme.
A lo largo del libro, esta tesis se desarrolla en tres grandes bloques: qué es la predicción desde el punto de vista económico, cómo su abaratamiento transforma decisiones y organizaciones, y qué implicaciones estratégicas se derivan de un mundo donde predecir es cada vez más barato, pero el juicio humano sigue siendo escaso y valioso.
Cuando intentamos predecir algo —el precio de la vivienda, la inflación, la probabilidad de aprobar unos presupuestos o incluso el absentismo laboral— solemos empezar por las historias: explicaciones plausibles, datos recientes, señales llamativas. El problema es que, muy a menudo, empezamos por el lugar equivocado.
Antes de añadir matices, escenarios o modelos sofisticados, hay una pregunta más simple y más incómoda que deberíamos hacernos siempre:
¿Qué suele pasar, de media, cuando no sabemos nada más?
Esa respuesta es lo que llamamos tasa base.
¿Qué es exactamente una tasa base?
La tasa base es la frecuencia histórica con la que ocurre un evento en una población o contexto comparable. No explica por qué ocurre algo, solo con qué frecuencia ocurre normalmente.
Ejemplos sencillos:
¿Qué porcentaje de proyectos públicos se retrasa?
¿Cuántos años, de media, la inflación supera el 3 %?
¿Con qué frecuencia se prorrogan los presupuestos en sistemas parlamentarios fragmentados?
La tasa base no pretende ser brillante. Pretende ser estable y ahí está su fuerza.
Hablar del futuro suele llevarnos a dos extremos igual de poco útiles: la seguridad impostada (“esto va a pasar”) o la renuncia total (“nadie puede saber nada”). Entre ambos hay un espacio mucho más interesante: el de las predicciones probabilísticas, aquellas que no eliminan la incertidumbre, pero la hacen visible y discutible.
Este post plantea tres predicciones evaluables para 2026 en España. Son tres pronósticos sobre eventos que, a mi juicio, se sitúan en una zona “Ricitos de Oro”: lo bastante complejos como para no ser triviales, pero con información suficiente como para permitir un análisis razonado, y con decisiones reales en juego. Además, son especialmente relevantes en mi entorno.
No están pensadas para impresionar por su precisión puntual, sino para dejar constancia del razonamiento que hay detrás: qué factores considero importantes, cuáles pesan más y, sobre todo, qué tipo de evidencia me haría cambiar de opinión.
El compromiso es doble: • Las predicciones se revisarán trimestralmente, recalibrando las probabilidades. • A final de año se evaluará no solo el resultado, sino también la calidad del proceso seguido.
Con este post se culmina el recorrido iniciado al distinguir entre Mediocristán y Extremistán, al trazar los cuatro cuadrantes de Taleb y al explorar los sesgos —narrativos, de confirmación y de supervivencia— que nos impiden ver los eventos extremos antes de que ocurran. En el camino aprendimos que muchos fenómenos no fallan por falta de datos, sino por una mala comprensión del tipo de mundo en el que nos movemos. Los cisnes grises, esos eventos improbables pero imaginables, emergen precisamente en esa frontera. Y la llamada burbuja de la IA nos ofrece hoy un caso vivo para observar cómo intentamos anticiparlos… mientras seguimos atrapados en la incertidumbre.
Un cisne gris en directo
La inteligencia artificial no es una promesa vacía. Hay avances técnicos reales, mejoras de productividad tangibles y un cambio profundo en cómo se desarrollan productos y servicios. Precisamente por eso, la hipótesis de una burbuja resulta incómoda. No encaja bien con una narrativa basada en fundamentos sólidos. Sin embargo, que algo sea real no lo hace inmune a la sobrevaloración.
Aquí aparece el cisne gris: sabemos que los mercados tecnológicos pueden sobrecalentarse, sabemos que las historias de disrupción atraen capital de forma no lineal y sabemos que las expectativas pueden adelantarse muchos años a los resultados. Nada de esto es impensable. Lo difícil es integrarlo sin caer ni en el alarmismo ni en el entusiasmo acrítico.