Reseña del libro «El cisne negro»

Introducción

El Cisne Negro, publicado en 2007 por Nassim Nicholas Taleb, es un libro que explora uno de los conceptos más influyentes de la última década: la idea de que los eventos raros, inesperados y de enorme impacto —los llamados cisnes negros— son los verdaderos motores de la historia. Taleb, matemático, inversor y filósofo del riesgo, sostiene que lo que desconocemos es mucho más importante que lo que creemos saber, y que nuestra incapacidad para comprender probabilidades extremas nos deja peligrosamente expuestos a estos fenómenos.

La relevancia del libro quedó demostrada solo un año después de su publicación, con la crisis financiera global de 2008. Un evento improbable, devastador y posteriormente “explicado” con aparente claridad: el ejemplo perfecto del cisne negro que Taleb había advertido. Desde entonces, su obra se ha convertido en una referencia imprescindible para entender la fragilidad de los sistemas financieros, tecnológicos y sociales. Y hoy, en una época marcada por pandemias, disrupciones tecnológicas y volatilidad geopolítica, el mensaje de Taleb es más actual que nunca.

A lo largo del libro, Taleb desarrolla su argumento en tres grandes bloques: primero, analiza por qué nuestros cerebros interpretan mal la probabilidad y el riesgo; después, examina la profunda incapacidad humana para predecir en entornos complejos; y finalmente, expone cómo incluso los “expertos” se equivocan sistemáticamente y qué podemos hacer para reducir nuestra vulnerabilidad ante estos eventos imprevisibles.

Seguir leyendo «Reseña del libro «El cisne negro»»

“Siempre lo supe”: el engañoso poder del sesgo retrospectivo

Finalizamos hoy nuestra serie dedicada a Pensar rápido, pensar despacio hablando de uno de los sesgos cognitivos más insidiosos: el sesgo retrospectivo, o como solemos decir coloquialmente, el “ya lo sabía”.

¿Cuántas veces has escuchado —o dicho— frases como “era obvio que iba a pasar”, “se veía venir” o “yo ya lo intuía”? Después de que algo ocurre, nuestra mente tiene una habilidad casi mágica para convencernos de que lo habíamos previsto. No se trata de arrogancia (aunque a veces se parezca), sino de una ilusión cognitiva: una reconstrucción engañosamente coherente del pasado.

¿Cómo funciona el sesgo retrospectivo?

El sesgo retrospectivo consiste en sobreestimar nuestra capacidad de haber predicho un evento una vez que ya conocemos su desenlace. En otras palabras, una vez que algo ha ocurrido, nos parece que era más predecible de lo que realmente era.

Kahneman y Tversky lo demostraron en múltiples experimentos. En uno de ellos, los participantes debían estimar la probabilidad de distintos desenlaces históricos o políticos. Cuando algunos de ellos conocían el resultado real, tendían a asignarle una probabilidad mucho mayor que los que no lo sabían. El conocimiento del desenlace no sólo cambia lo que pensamos, sino lo que recordamos haber pensado.

Seguir leyendo «“Siempre lo supe”: el engañoso poder del sesgo retrospectivo»

Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad

Continuamos con esta serie de post donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— y hoy hablaremos de uno de los sesgos más sutiles, pero también más poderosos: el sesgo de disponibilidad.

¿Qué es el sesgo de disponibilidad?

El sesgo de disponibilidad es la tendencia que tenemos a juzgar la probabilidad o frecuencia de un evento según la facilidad con la que recordamos ejemplos de él. En otras palabras: cuanto más fácilmente recordamos algo, más probable nos parece que sea.

No estimamos con datos, sino con nuestros recuerdos y éstos —como bien explica Kahneman— no son un registro fiel del mundo, sino un archivo sesgado por la emoción, la atención y los medios.

Un ejemplo clásico del libro

Kahneman y Tversky realizaron un experimento muy revelador: preguntaron a un grupo de personas si, en inglés, hay más palabras que empiecen por la letra K o más palabras que tengan la K como tercera letra.

La mayoría respondió que hay más palabras que empiezan por K, porque es más fácil recordar ejemplos como kite o king que pensar en palabras con K en la tercera posición (make, bake…). Sin embargo, la respuesta correcta era la contraria: hay más palabras con “K” en la tercera posición (¡3 veces más!).

El problema no es la falta de inteligencia, sino el mecanismo del Sistema 1, el pensamiento rápido e intuitivo: confunde “lo fácil de recordar” con “lo frecuente en el mundo”.

Seguir leyendo «Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad»

El ancla invisible que distorsiona tus predicciones

Continuando con la serie de posts donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— hoy hablaremos de uno de los sesgos más persistentes y difíciles de detectar: el sesgo de anclaje, esa pequeña “ancla” mental que, sin darnos cuenta, tira de nuestras estimaciones hacia números que en realidad no tienen nada que ver con la realidad.

¿Qué es el sesgo de anclaje?

Kahneman y Tversky descubrieron que, cuando las personas deben estimar un valor —por ejemplo, el porcentaje de países africanos en la ONU o el precio de una casa—, sus respuestas se ven fuertemente influenciadas por un número cualquiera presentado antes, aunque ese número sea totalmente irrelevante.

En uno de los experimentos más famosos del libro, los participantes giraban una ruleta trucada que sólo podía detenerse en el número 10 o en el 65. Luego se les preguntaba:

“¿Qué porcentaje de países africanos pertenece a la ONU?”

Los que habían visto el número 10 daban estimaciones en torno al 25%, mientras que los que habían visto el 65 decían alrededor del 45%.

El número aleatorio —que no tenía ninguna relación con la pregunta— ancló sus juicios.

Seguir leyendo «El ancla invisible que distorsiona tus predicciones»

Por qué pensamos rápido (y a veces mal) y despacio (y mejor)

Con este post inicio una serie en la que exploraremos algunas de las ideas clave de Pensar rápido, pensar despacio, de Daniel Kahneman. Un libro que no solo nos ayuda a entender cómo funciona nuestra mente, sino también cómo podemos mejorar nuestras decisiones y predicciones.

El descubrimiento fundamental: dos sistemas en una misma mente

Kahneman nos propone una metáfora muy útil: pensar en nuestra mente como si tuviera dos sistemas distintos de procesamiento de información.

  • Sistema 1: rápido, intuitivo, automático.
  • Sistema 2: lento, deliberado, analítico.

No son estructuras físicas del cerebro, sino formas de describir cómo procesamos la información.

Seguir leyendo «Por qué pensamos rápido (y a veces mal) y despacio (y mejor)»

Los 10 mandamientos del superpronosticador (y el 11.º)

En la serie que venimos publicando sobre cómo pensar mejor el futuro —desde mirar el mundo “como una libélula” hasta usar estimaciones de Fermi y evaluar nuestras predicciones con el Brier score— hoy damos un paso práctico.

En un anexo de Superforecasting: The Art and Science of Prediction Philip Tetlock y Dan Gardner sintetizan décadas de evidencia en diez hábitos que, entrenados con intención, mejoran la precisión de las predicciones. A continuación los adaptamos a nuestro día a día, con ejemplos, micro-rutinas y una plantilla para que los pongas en marcha ya.

1) Triaje: elige bien tus batallas

Idea: Enfoca el esfuerzo donde rinde: evita lo trivial (reglas simples bastan) y lo casi inescrutable (ni modelos complejos ayudan). Busca la “zona Ricitos de Oro”: dificultad media, datos suficientes y decisiones reales en juego.

Seguir leyendo «Los 10 mandamientos del superpronosticador (y el 11.º)»

¿Cómo saber si tus predicciones son buenas?

Esta entrada, como las anteriores, parte de una idea clave del libro Superforecasting: The Art and Science of Prediction de Philip Tetlock y Dan Gardner. Allí se insiste en que hacer predicciones no es solo cuestión de acertar o fallar, sino de aprender a evaluar la calidad de nuestros juicios para mejorarlos con el tiempo.

Y para mejorar, primero hay que medir.
¿Medir qué exactamente?
👉 La calidad de tus predicciones.

En este post te presento tres conceptos clave para evaluar predicciones, especialmente si te interesa convertirte en un autèntico superforecaster:

  • Calibración
  • Resolución
  • Métricas cuantitativas como el Brier Score o el MAPE
Seguir leyendo «¿Cómo saber si tus predicciones son buenas?»

Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)

A continuación se expondrá en detalle un método que se propone en el libro Superforecasting: The Art and Science of Prediction para descomponer un problema en partes más estimables.

Uno de los retos más frecuentes en análisis es enfrentarse a preguntas sin datos directos. En lugar de improvisar o bloquearse, hay una técnica sorprendentemente útil para avanzar con lógica: la estimación de Fermi.

Esta técnica, popularizada por el físico Enrico Fermi, se basa en dividir un problema complejo en partes más pequeñas y estimar cada una de ellas con números razonables. Pero más allá del cálculo, lo importante es el proceso: establecer límites exteriores (el resultado más amplio razonable) e interiores (el resultado más ajustado posible) del problema, y ser consciente del número que usamos como punto de partida, ya que este actuará como ancla para el resto de nuestras suposiciones.

Seguir leyendo «Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)»

Priors bayesianas (3/3): Distribuciones continuas para modelar creencias que fluyen

En las dos entradas anteriores presentamos el concepto de prior bayesiana y cómo construirla usando distribuciones discretas. Sin embargo, no todo en la vida se cuenta con números enteros. A veces, lo que queremos modelar fluye de forma continua: proporciones, medias, tiempos, tasas…
En este último capítulo de la serie, exploramos las distribuciones continuas más útiles para construir priors cuando las variables no se cuentan, sino que se miden.

¿Qué es una distribución continua?

Una distribución de probabilidad continua describe el comportamiento de una variable que puede tomar cualquier valor dentro de un intervalo, incluso infinitos valores posibles.

Por ejemplo: La proporción de pacientes que se recuperan de una enfermedad, el tiempo de espera en una consulta médica o el ingreso mensual medio de una familia.

Seguir leyendo «Priors bayesianas (3/3): Distribuciones continuas para modelar creencias que fluyen»

Priors bayesianas (2/3): Cómo usar distribuciones discretas para modelar nuestras creencias

En la primera entrega de esta serie vimos qué es una prior: una forma de expresar con números lo que creemos antes de observar datos. Hoy daremos un paso más y veremos cómo podemos construir esas priors utilizando distribuciones de probabilidad discretas cuando el análisis preliminar nos indica que el fenómeno que queremos predecir se comporta así.

Porque sí, hasta nuestras corazonadas pueden adoptar una forma matemática.

¿Qué es una distribución de probabilidad discreta?

Una distribución de probabilidad discreta es una herramienta matemática que asigna probabilidades a valores enteros concretos. Es útil para describir fenómenos contables como:

  • ¿Cuántas veces encestaré si lanzo 10 veces?
  • ¿Cuántos clientes vendrán hoy?
  • ¿Cuánto tardaré en tener un acierto?

Estas distribuciones no trabajan con valores continuos como 3,1416 o 7,82, sino con 0, 1, 2, 3…

Seguir leyendo «Priors bayesianas (2/3): Cómo usar distribuciones discretas para modelar nuestras creencias»