La tasa base: el punto de partida de toda predicción sensata

Cuando intentamos predecir algo —el precio de la vivienda, la inflación, la probabilidad de aprobar unos presupuestos o incluso el absentismo laboral— solemos empezar por las historias: explicaciones plausibles, datos recientes, señales llamativas. El problema es que, muy a menudo, empezamos por el lugar equivocado.

Antes de añadir matices, escenarios o modelos sofisticados, hay una pregunta más simple y más incómoda que deberíamos hacernos siempre:

¿Qué suele pasar, de media, cuando no sabemos nada más?

Esa respuesta es lo que llamamos tasa base.

¿Qué es exactamente una tasa base?

La tasa base es la frecuencia histórica con la que ocurre un evento en una población o contexto comparable. No explica por qué ocurre algo, solo con qué frecuencia ocurre normalmente.

Ejemplos sencillos:

  • ¿Qué porcentaje de proyectos públicos se retrasa?
  • ¿Cuántos años, de media, la inflación supera el 3 %?
  • ¿Con qué frecuencia se prorrogan los presupuestos en sistemas parlamentarios fragmentados?

La tasa base no pretende ser brillante. Pretende ser estable y ahí está su fuerza.

Seguir leyendo «La tasa base: el punto de partida de toda predicción sensata»

Tres predicciones para 2026: un ejercicio explícito de incertidumbre

Hablar del futuro suele llevarnos a dos extremos igual de poco útiles: la seguridad impostada (“esto va a pasar”) o la renuncia total (“nadie puede saber nada”). Entre ambos hay un espacio mucho más interesante: el de las predicciones probabilísticas, aquellas que no eliminan la incertidumbre, pero la hacen visible y discutible.

Este post plantea tres predicciones evaluables para 2026 en España. Son tres pronósticos sobre eventos que, a mi juicio, se sitúan en una zona “Ricitos de Oro”: lo bastante complejos como para no ser triviales, pero con información suficiente como para permitir un análisis razonado, y con decisiones reales en juego. Además, son especialmente relevantes en mi entorno.

No están pensadas para impresionar por su precisión puntual, sino para dejar constancia del razonamiento que hay detrás: qué factores considero importantes, cuáles pesan más y, sobre todo, qué tipo de evidencia me haría cambiar de opinión.

El compromiso es doble:
• Las predicciones se revisarán trimestralmente, recalibrando las probabilidades.
• A final de año se evaluará no solo el resultado, sino también la calidad del proceso seguido.

Seguir leyendo «Tres predicciones para 2026: un ejercicio explícito de incertidumbre»

La burbuja de la IA: un ejemplo actual de cómo intentamos anticipar un Cisne Gris… con resultados inciertos

Con este post se culmina el recorrido iniciado al distinguir entre Mediocristán y Extremistán, al trazar los cuatro cuadrantes de Taleb y al explorar los sesgos —narrativos, de confirmación y de supervivencia— que nos impiden ver los eventos extremos antes de que ocurran. En el camino aprendimos que muchos fenómenos no fallan por falta de datos, sino por una mala comprensión del tipo de mundo en el que nos movemos. Los cisnes grises, esos eventos improbables pero imaginables, emergen precisamente en esa frontera. Y la llamada burbuja de la IA nos ofrece hoy un caso vivo para observar cómo intentamos anticiparlos… mientras seguimos atrapados en la incertidumbre.

Un cisne gris en directo

La inteligencia artificial no es una promesa vacía. Hay avances técnicos reales, mejoras de productividad tangibles y un cambio profundo en cómo se desarrollan productos y servicios. Precisamente por eso, la hipótesis de una burbuja resulta incómoda. No encaja bien con una narrativa basada en fundamentos sólidos. Sin embargo, que algo sea real no lo hace inmune a la sobrevaloración.

Aquí aparece el cisne gris: sabemos que los mercados tecnológicos pueden sobrecalentarse, sabemos que las historias de disrupción atraen capital de forma no lineal y sabemos que las expectativas pueden adelantarse muchos años a los resultados. Nada de esto es impensable. Lo difícil es integrarlo sin caer ni en el alarmismo ni en el entusiasmo acrítico.

Seguir leyendo «La burbuja de la IA: un ejemplo actual de cómo intentamos anticipar un Cisne Gris… con resultados inciertos»

Los cisnes grises: eventos parcialmente previsibles en el límite entre lo imaginable y lo inesperado

En esta serie dedicada a El cisne negro hemos aprendido a desconfiar de las predicciones cómodas y de los modelos que solo funcionan en mundos estables. Pero hay una idea aún más incómoda —y más útil— que atraviesa el pensamiento de Nassim Nicholas Taleb: no todos los eventos extremos son completamente imprevisibles.

Entre lo rutinario y lo impensable existe una franja borrosa. Ahí viven los cisnes grises.

¿Qué es un cisne gris?

Un cisne gris no es un evento imposible de concebir. A diferencia de los cisnes negros, sabemos que puede ocurrir, incluso podemos describirlo de forma general, pero su baja probabilidad hace que lo releguemos mentalmente a un segundo plano. No lo negamos, pero tampoco lo integramos de verdad en nuestras decisiones.

Seguir leyendo «Los cisnes grises: eventos parcialmente previsibles en el límite entre lo imaginable y lo inesperado»

Por qué no podemos predecir Cisnes Negros (II): el sesgo de supervivencia y la falacia lúdica como trampas cognitivas inevitables

En la entrega anterior de esta serie exploramos dos filtros mentales —el sesgo narrativo y el sesgo de confirmación— que nos hacen ver el mundo como más ordenado de lo que realmente es. Hoy damos un paso más y abordamos dos sesgos especialmente peligrosos para cualquiera que pretenda predecir: el sesgo de supervivencia y la falacia lúdica. Ambos reducen nuestra visión del mundo y nos hacen creer que entendemos más de lo que realmente entendemos.

Son trampas inevitables porque funcionan antes de que nos demos cuenta. Pero, precisamente por eso, conocerlas es la única forma de que dejen de ser invisibles.

Seguir leyendo «Por qué no podemos predecir Cisnes Negros (II): el sesgo de supervivencia y la falacia lúdica como trampas cognitivas inevitables»

Por qué no podemos predecir Cisnes Negros (I): el poder distorsionador del sesgo narrativo y del sesgo de confirmación

Este artículo forma parte de la serie dedicada a explorar las ideas esenciales de El Cisne Negro, de Nassim Nicholas Taleb. Tras analizar los cuadrantes, Mediocristán vs. Extremistán y algunos ejemplos históricos, hoy entramos en un terreno incómodo pero fundamental: los sesgos cognitivos que nos impiden ver —y predecir— lo que realmente importa.

Cuando hablamos de predicción solemos pensar en modelos, datos y algoritmos. Pero la mayor parte de nuestros errores no provienen de limitaciones estadísticas, sino de limitaciones humanas. Taleb insiste una y otra vez en que no vemos el mundo tal como es, sino a través de filtros cognitivos que distorsionan la información. Y dos de esos filtros —quizás los más insidiosos— son el sesgo narrativo y el sesgo de confirmación.

Seguir leyendo «Por qué no podemos predecir Cisnes Negros (I): el poder distorsionador del sesgo narrativo y del sesgo de confirmación»

Los cuatro cuadrantes de Taleb: una brújula para saber cuándo no debemos predecir

Este post forma parte de la serie dedicada a explorar las ideas esenciales de El Cisne Negro, de Nassim Taleb, cuyo objetivo es mejorar nuestra capacidad predictiva entendiendo, precisamente, cuándo la predicción funciona… y cuándo no.*

Cuando intentamos anticipar el futuro, solemos asumir que las herramientas estadísticas funcionan igual en todas partes. Pero Taleb nos recuerda que no vivimos en un único tipo de mundo. Hay entornos donde los datos se comportan de manera estable y predecible, y otros donde un solo suceso extremo puede cambiarlo todo. Para orientarnos entre estos dos mundos propone un mapa simple pero poderoso: los cuatro cuadrantes de la incertidumbre.

Este mapa cruza dos ejes fundamentales:

  1. el tipo de decisión que queremos tomar (simple o compleja), y
  2. la naturaleza del entorno (Mediocristán o Extremistán).

A continuación, exploramos cada uno de estos cuadrantes de forma clara y práctica.

Seguir leyendo «Los cuatro cuadrantes de Taleb: una brújula para saber cuándo no debemos predecir»

Mediocristán vs Extremistán: dos mundos que deciden si tu modelo predictivo acierta o falla

Este post inaugura una nueva serie del blog dedicada a explorar ideas esenciales de El Cisne Negro de Nassim Taleb. Igual que hicimos con otros libros clave, iremos desgranando conceptos y reflexionando sobre ideas que nos ayudarán a aprender a predecir mejor.

Y no hay mejor punto de partida que uno de los pilares del pensamiento de Taleb: la diferencia radical entre Mediocristán y Extremistán.

Dos mundos, dos tipos de aleatoriedad

Taleb distingue entre dos “países probabilísticos” que se parecen tanto entre sí como un estanque tranquilo respecto a un tsunami.

  • Mediocristán, donde reina la aleatoriedad suave, “domesticada”, con variaciones pequeñas.
  • Extremistán, donde domina la aleatoriedad salvaje, con eventos capaces de romper cualquier estadística.

La idea es simple: algunos fenómenos del mundo real no pueden crecer más allá de ciertos límites físicos (por ejemplo, cuánto mide una persona). Otros, en cambio, pueden escalar sin límite conocido (por ejemplo, cuánto dinero puede generar un libro o un software).

Y esa diferencia lo cambia TODO: cómo modelamos, cómo interpretamos los datos, qué tan seguros podemos estar… y cuán vulnerables somos a un Cisne Negro.

Seguir leyendo «Mediocristán vs Extremistán: dos mundos que deciden si tu modelo predictivo acierta o falla»

Reseña del libro «El cisne negro»

Introducción

El Cisne Negro, publicado en 2007 por Nassim Nicholas Taleb, es un libro que explora uno de los conceptos más influyentes de la última década: la idea de que los eventos raros, inesperados y de enorme impacto —los llamados cisnes negros— son los verdaderos motores de la historia. Taleb, matemático, inversor y filósofo del riesgo, sostiene que lo que desconocemos es mucho más importante que lo que creemos saber, y que nuestra incapacidad para comprender probabilidades extremas nos deja peligrosamente expuestos a estos fenómenos.

La relevancia del libro quedó demostrada solo un año después de su publicación, con la crisis financiera global de 2008. Un evento improbable, devastador y posteriormente “explicado” con aparente claridad: el ejemplo perfecto del cisne negro que Taleb había advertido. Desde entonces, su obra se ha convertido en una referencia imprescindible para entender la fragilidad de los sistemas financieros, tecnológicos y sociales. Y hoy, en una época marcada por pandemias, disrupciones tecnológicas y volatilidad geopolítica, el mensaje de Taleb es más actual que nunca.

A lo largo del libro, Taleb desarrolla su argumento en tres grandes bloques: primero, analiza por qué nuestros cerebros interpretan mal la probabilidad y el riesgo; después, examina la profunda incapacidad humana para predecir en entornos complejos; y finalmente, expone cómo incluso los “expertos” se equivocan sistemáticamente y qué podemos hacer para reducir nuestra vulnerabilidad ante estos eventos imprevisibles.

Seguir leyendo «Reseña del libro «El cisne negro»»

“Siempre lo supe”: el engañoso poder del sesgo retrospectivo

Finalizamos hoy nuestra serie dedicada a Pensar rápido, pensar despacio hablando de uno de los sesgos cognitivos más insidiosos: el sesgo retrospectivo, o como solemos decir coloquialmente, el “ya lo sabía”.

¿Cuántas veces has escuchado —o dicho— frases como “era obvio que iba a pasar”, “se veía venir” o “yo ya lo intuía”? Después de que algo ocurre, nuestra mente tiene una habilidad casi mágica para convencernos de que lo habíamos previsto. No se trata de arrogancia (aunque a veces se parezca), sino de una ilusión cognitiva: una reconstrucción engañosamente coherente del pasado.

¿Cómo funciona el sesgo retrospectivo?

El sesgo retrospectivo consiste en sobreestimar nuestra capacidad de haber predicho un evento una vez que ya conocemos su desenlace. En otras palabras, una vez que algo ha ocurrido, nos parece que era más predecible de lo que realmente era.

Kahneman y Tversky lo demostraron en múltiples experimentos. En uno de ellos, los participantes debían estimar la probabilidad de distintos desenlaces históricos o políticos. Cuando algunos de ellos conocían el resultado real, tendían a asignarle una probabilidad mucho mayor que los que no lo sabían. El conocimiento del desenlace no sólo cambia lo que pensamos, sino lo que recordamos haber pensado.

Seguir leyendo «“Siempre lo supe”: el engañoso poder del sesgo retrospectivo»