Por qué no podemos predecir Cisnes Negros (II): el sesgo de supervivencia y la falacia lúdica como trampas cognitivas inevitables

En la entrega anterior de esta serie exploramos dos filtros mentales —el sesgo narrativo y el sesgo de confirmación— que nos hacen ver el mundo como más ordenado de lo que realmente es. Hoy damos un paso más y abordamos dos sesgos especialmente peligrosos para cualquiera que pretenda predecir: el sesgo de supervivencia y la falacia lúdica. Ambos reducen nuestra visión del mundo y nos hacen creer que entendemos más de lo que realmente entendemos.

Son trampas inevitables porque funcionan antes de que nos demos cuenta. Pero, precisamente por eso, conocerlas es la única forma de que dejen de ser invisibles.

Seguir leyendo «Por qué no podemos predecir Cisnes Negros (II): el sesgo de supervivencia y la falacia lúdica como trampas cognitivas inevitables»

Por qué no podemos predecir Cisnes Negros (I): el poder distorsionador del sesgo narrativo y del sesgo de confirmación

Este artículo forma parte de la serie dedicada a explorar las ideas esenciales de El Cisne Negro, de Nassim Nicholas Taleb. Tras analizar los cuadrantes, Mediocristán vs. Extremistán y algunos ejemplos históricos, hoy entramos en un terreno incómodo pero fundamental: los sesgos cognitivos que nos impiden ver —y predecir— lo que realmente importa.

Cuando hablamos de predicción solemos pensar en modelos, datos y algoritmos. Pero la mayor parte de nuestros errores no provienen de limitaciones estadísticas, sino de limitaciones humanas. Taleb insiste una y otra vez en que no vemos el mundo tal como es, sino a través de filtros cognitivos que distorsionan la información. Y dos de esos filtros —quizás los más insidiosos— son el sesgo narrativo y el sesgo de confirmación.

Seguir leyendo «Por qué no podemos predecir Cisnes Negros (I): el poder distorsionador del sesgo narrativo y del sesgo de confirmación»

Los cuatro cuadrantes de Taleb: una brújula para saber cuándo no debemos predecir

Este post forma parte de la serie dedicada a explorar las ideas esenciales de El Cisne Negro, de Nassim Taleb, cuyo objetivo es mejorar nuestra capacidad predictiva entendiendo, precisamente, cuándo la predicción funciona… y cuándo no.*

Cuando intentamos anticipar el futuro, solemos asumir que las herramientas estadísticas funcionan igual en todas partes. Pero Taleb nos recuerda que no vivimos en un único tipo de mundo. Hay entornos donde los datos se comportan de manera estable y predecible, y otros donde un solo suceso extremo puede cambiarlo todo. Para orientarnos entre estos dos mundos propone un mapa simple pero poderoso: los cuatro cuadrantes de la incertidumbre.

Este mapa cruza dos ejes fundamentales:

  1. el tipo de decisión que queremos tomar (simple o compleja), y
  2. la naturaleza del entorno (Mediocristán o Extremistán).

A continuación, exploramos cada uno de estos cuadrantes de forma clara y práctica.

Seguir leyendo «Los cuatro cuadrantes de Taleb: una brújula para saber cuándo no debemos predecir»

Mediocristán vs Extremistán: dos mundos que deciden si tu modelo predictivo acierta o falla

Este post inaugura una nueva serie del blog dedicada a explorar ideas esenciales de El Cisne Negro de Nassim Taleb. Igual que hicimos con otros libros clave, iremos desgranando conceptos y reflexionando sobre ideas que nos ayudarán a aprender a predecir mejor.

Y no hay mejor punto de partida que uno de los pilares del pensamiento de Taleb: la diferencia radical entre Mediocristán y Extremistán.

Dos mundos, dos tipos de aleatoriedad

Taleb distingue entre dos “países probabilísticos” que se parecen tanto entre sí como un estanque tranquilo respecto a un tsunami.

  • Mediocristán, donde reina la aleatoriedad suave, “domesticada”, con variaciones pequeñas.
  • Extremistán, donde domina la aleatoriedad salvaje, con eventos capaces de romper cualquier estadística.

La idea es simple: algunos fenómenos del mundo real no pueden crecer más allá de ciertos límites físicos (por ejemplo, cuánto mide una persona). Otros, en cambio, pueden escalar sin límite conocido (por ejemplo, cuánto dinero puede generar un libro o un software).

Y esa diferencia lo cambia TODO: cómo modelamos, cómo interpretamos los datos, qué tan seguros podemos estar… y cuán vulnerables somos a un Cisne Negro.

Seguir leyendo «Mediocristán vs Extremistán: dos mundos que deciden si tu modelo predictivo acierta o falla»

Reseña del libro «El cisne negro»

Introducción

El Cisne Negro, publicado en 2007 por Nassim Nicholas Taleb, es un libro que explora uno de los conceptos más influyentes de la última década: la idea de que los eventos raros, inesperados y de enorme impacto —los llamados cisnes negros— son los verdaderos motores de la historia. Taleb, matemático, inversor y filósofo del riesgo, sostiene que lo que desconocemos es mucho más importante que lo que creemos saber, y que nuestra incapacidad para comprender probabilidades extremas nos deja peligrosamente expuestos a estos fenómenos.

La relevancia del libro quedó demostrada solo un año después de su publicación, con la crisis financiera global de 2008. Un evento improbable, devastador y posteriormente “explicado” con aparente claridad: el ejemplo perfecto del cisne negro que Taleb había advertido. Desde entonces, su obra se ha convertido en una referencia imprescindible para entender la fragilidad de los sistemas financieros, tecnológicos y sociales. Y hoy, en una época marcada por pandemias, disrupciones tecnológicas y volatilidad geopolítica, el mensaje de Taleb es más actual que nunca.

A lo largo del libro, Taleb desarrolla su argumento en tres grandes bloques: primero, analiza por qué nuestros cerebros interpretan mal la probabilidad y el riesgo; después, examina la profunda incapacidad humana para predecir en entornos complejos; y finalmente, expone cómo incluso los “expertos” se equivocan sistemáticamente y qué podemos hacer para reducir nuestra vulnerabilidad ante estos eventos imprevisibles.

Seguir leyendo «Reseña del libro «El cisne negro»»

“Siempre lo supe”: el engañoso poder del sesgo retrospectivo

Finalizamos hoy nuestra serie dedicada a Pensar rápido, pensar despacio hablando de uno de los sesgos cognitivos más insidiosos: el sesgo retrospectivo, o como solemos decir coloquialmente, el “ya lo sabía”.

¿Cuántas veces has escuchado —o dicho— frases como “era obvio que iba a pasar”, “se veía venir” o “yo ya lo intuía”? Después de que algo ocurre, nuestra mente tiene una habilidad casi mágica para convencernos de que lo habíamos previsto. No se trata de arrogancia (aunque a veces se parezca), sino de una ilusión cognitiva: una reconstrucción engañosamente coherente del pasado.

¿Cómo funciona el sesgo retrospectivo?

El sesgo retrospectivo consiste en sobreestimar nuestra capacidad de haber predicho un evento una vez que ya conocemos su desenlace. En otras palabras, una vez que algo ha ocurrido, nos parece que era más predecible de lo que realmente era.

Kahneman y Tversky lo demostraron en múltiples experimentos. En uno de ellos, los participantes debían estimar la probabilidad de distintos desenlaces históricos o políticos. Cuando algunos de ellos conocían el resultado real, tendían a asignarle una probabilidad mucho mayor que los que no lo sabían. El conocimiento del desenlace no sólo cambia lo que pensamos, sino lo que recordamos haber pensado.

Seguir leyendo «“Siempre lo supe”: el engañoso poder del sesgo retrospectivo»

Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad

Continuamos con esta serie de post donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— y hoy hablaremos de uno de los sesgos más sutiles, pero también más poderosos: el sesgo de disponibilidad.

¿Qué es el sesgo de disponibilidad?

El sesgo de disponibilidad es la tendencia que tenemos a juzgar la probabilidad o frecuencia de un evento según la facilidad con la que recordamos ejemplos de él. En otras palabras: cuanto más fácilmente recordamos algo, más probable nos parece que sea.

No estimamos con datos, sino con nuestros recuerdos y éstos —como bien explica Kahneman— no son un registro fiel del mundo, sino un archivo sesgado por la emoción, la atención y los medios.

Un ejemplo clásico del libro

Kahneman y Tversky realizaron un experimento muy revelador: preguntaron a un grupo de personas si, en inglés, hay más palabras que empiecen por la letra K o más palabras que tengan la K como tercera letra.

La mayoría respondió que hay más palabras que empiezan por K, porque es más fácil recordar ejemplos como kite o king que pensar en palabras con K en la tercera posición (make, bake…). Sin embargo, la respuesta correcta era la contraria: hay más palabras con “K” en la tercera posición (¡3 veces más!).

El problema no es la falta de inteligencia, sino el mecanismo del Sistema 1, el pensamiento rápido e intuitivo: confunde “lo fácil de recordar” con “lo frecuente en el mundo”.

Seguir leyendo «Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad»

El ancla invisible que distorsiona tus predicciones

Continuando con la serie de posts donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— hoy hablaremos de uno de los sesgos más persistentes y difíciles de detectar: el sesgo de anclaje, esa pequeña “ancla” mental que, sin darnos cuenta, tira de nuestras estimaciones hacia números que en realidad no tienen nada que ver con la realidad.

¿Qué es el sesgo de anclaje?

Kahneman y Tversky descubrieron que, cuando las personas deben estimar un valor —por ejemplo, el porcentaje de países africanos en la ONU o el precio de una casa—, sus respuestas se ven fuertemente influenciadas por un número cualquiera presentado antes, aunque ese número sea totalmente irrelevante.

En uno de los experimentos más famosos del libro, los participantes giraban una ruleta trucada que sólo podía detenerse en el número 10 o en el 65. Luego se les preguntaba:

“¿Qué porcentaje de países africanos pertenece a la ONU?”

Los que habían visto el número 10 daban estimaciones en torno al 25%, mientras que los que habían visto el 65 decían alrededor del 45%.

El número aleatorio —que no tenía ninguna relación con la pregunta— ancló sus juicios.

Seguir leyendo «El ancla invisible que distorsiona tus predicciones»

Por qué pensamos rápido (y a veces mal) y despacio (y mejor)

Con este post inicio una serie en la que exploraremos algunas de las ideas clave de Pensar rápido, pensar despacio, de Daniel Kahneman. Un libro que no solo nos ayuda a entender cómo funciona nuestra mente, sino también cómo podemos mejorar nuestras decisiones y predicciones.

El descubrimiento fundamental: dos sistemas en una misma mente

Kahneman nos propone una metáfora muy útil: pensar en nuestra mente como si tuviera dos sistemas distintos de procesamiento de información.

  • Sistema 1: rápido, intuitivo, automático.
  • Sistema 2: lento, deliberado, analítico.

No son estructuras físicas del cerebro, sino formas de describir cómo procesamos la información.

Seguir leyendo «Por qué pensamos rápido (y a veces mal) y despacio (y mejor)»

Los 10 mandamientos del superpronosticador (y el 11.º)

En la serie que venimos publicando sobre cómo pensar mejor el futuro —desde mirar el mundo “como una libélula” hasta usar estimaciones de Fermi y evaluar nuestras predicciones con el Brier score— hoy damos un paso práctico.

En un anexo de Superforecasting: The Art and Science of Prediction Philip Tetlock y Dan Gardner sintetizan décadas de evidencia en diez hábitos que, entrenados con intención, mejoran la precisión de las predicciones. A continuación los adaptamos a nuestro día a día, con ejemplos, micro-rutinas y una plantilla para que los pongas en marcha ya.

1) Triaje: elige bien tus batallas

Idea: Enfoca el esfuerzo donde rinde: evita lo trivial (reglas simples bastan) y lo casi inescrutable (ni modelos complejos ayudan). Busca la “zona Ricitos de Oro”: dificultad media, datos suficientes y decisiones reales en juego.

Seguir leyendo «Los 10 mandamientos del superpronosticador (y el 11.º)»