Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad

Continuamos con esta serie de post donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— y hoy hablaremos de uno de los sesgos más sutiles, pero también más poderosos: el sesgo de disponibilidad.

¿Qué es el sesgo de disponibilidad?

El sesgo de disponibilidad es la tendencia que tenemos a juzgar la probabilidad o frecuencia de un evento según la facilidad con la que recordamos ejemplos de él. En otras palabras: cuanto más fácilmente recordamos algo, más probable nos parece que sea.

No estimamos con datos, sino con nuestros recuerdos y éstos —como bien explica Kahneman— no son un registro fiel del mundo, sino un archivo sesgado por la emoción, la atención y los medios.

Un ejemplo clásico del libro

Kahneman y Tversky realizaron un experimento muy revelador: preguntaron a un grupo de personas si, en inglés, hay más palabras que empiecen por la letra K o más palabras que tengan la K como tercera letra.

La mayoría respondió que hay más palabras que empiezan por K, porque es más fácil recordar ejemplos como kite o king que pensar en palabras con K en la tercera posición (make, bake…). Sin embargo, la respuesta correcta era la contraria: hay más palabras con “K” en la tercera posición (¡3 veces más!).

El problema no es la falta de inteligencia, sino el mecanismo del Sistema 1, el pensamiento rápido e intuitivo: confunde “lo fácil de recordar” con “lo frecuente en el mundo”.

Seguir leyendo «Por qué sobreestimamos los tiburones y subestimamos los cocos: el poder del sesgo de disponibilidad»

El ancla invisible que distorsiona tus predicciones

Continuando con la serie de posts donde exploramos las ideas clave del libro Pensar rápido, pensar despacio de Daniel Kahneman —una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos— hoy hablaremos de uno de los sesgos más persistentes y difíciles de detectar: el sesgo de anclaje, esa pequeña “ancla” mental que, sin darnos cuenta, tira de nuestras estimaciones hacia números que en realidad no tienen nada que ver con la realidad.

¿Qué es el sesgo de anclaje?

Kahneman y Tversky descubrieron que, cuando las personas deben estimar un valor —por ejemplo, el porcentaje de países africanos en la ONU o el precio de una casa—, sus respuestas se ven fuertemente influenciadas por un número cualquiera presentado antes, aunque ese número sea totalmente irrelevante.

En uno de los experimentos más famosos del libro, los participantes giraban una ruleta trucada que sólo podía detenerse en el número 10 o en el 65. Luego se les preguntaba:

“¿Qué porcentaje de países africanos pertenece a la ONU?”

Los que habían visto el número 10 daban estimaciones en torno al 25%, mientras que los que habían visto el 65 decían alrededor del 45%.

El número aleatorio —que no tenía ninguna relación con la pregunta— ancló sus juicios.

Seguir leyendo «El ancla invisible que distorsiona tus predicciones»

Por qué perder duele más que ganar (y cómo ese sesgo arruina tus predicciones)

En esta serie de posts estamos explorando las ideas clave del libro “Pensar rápido, pensar despacio” de Daniel Kahneman, una obra fundamental para entender cómo pensamos, decidimos… y, por extensión, cómo predecimos.

Hoy hablaremos de una de las fuerzas más potentes (y más invisibles) que guían nuestras decisiones: la aversión a la pérdida.

¿Qué es la aversión a la pérdida?

Kahneman y Tversky descubrieron que perder duele más que alegra ganar.
Dicho de otro modo: si perder 100 euros nos causa un nivel de malestar de “-10”, ganar 100 euros no nos produce una alegría de “+10”, sino más bien de “+5”.

Esta asimetría emocional hace que evitemos pérdidas incluso cuando hacerlo nos lleva a decisiones irracionales.

Seguir leyendo «Por qué perder duele más que ganar (y cómo ese sesgo arruina tus predicciones)»

Reseña del libro «Pensar rápido, pensar despacio»

Introducción

Pensar rápido, pensar despacio es un libro publicado en 2011 por el psicólogo Daniel Kahneman (Tel Aviv, 1934 – Nunningen, 2024), profesor emérito en la Universidad de Princeton y galardonado con el Premio Nobel de Economía en 2002, junto a Vernon Smith. Su mayor aportación, desarrollada junto con Amos Tversky, fue la Teoría de las perspectivas, que muestra cómo los individuos toman decisiones en contextos de incertidumbre alejándose de los principios de la probabilidad, recurriendo a atajos mentales o heurísticos.

En esta obra, Kahneman sintetiza décadas de investigación sobre cómo pensamos y decidimos, presentando de manera accesible la existencia de dos modos de pensamiento: el Sistema 1, rápido, automático e intuitivo; y el Sistema 2, lento, deliberado y analítico. La peculiaridad es que la mayor parte de las veces no somos conscientes de cuál de ellos domina nuestras decisiones.

El libro se organiza en tres grandes bloques: en el primero se explica el funcionamiento de los dos sistemas de pensamiento; en el segundo se analizan los sesgos y heurísticos que nos llevan a errores; y en el tercero se aborda cómo tomamos decisiones bajo incertidumbre, incluyendo la teoría de las perspectivas y la distinción entre el yo que experimenta y el yo que recuerda.

Seguir leyendo «Reseña del libro «Pensar rápido, pensar despacio»»

Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)

A continuación se expondrá en detalle un método que se propone en el libro Superforecasting: The Art and Science of Prediction para descomponer un problema en partes más estimables.

Uno de los retos más frecuentes en análisis es enfrentarse a preguntas sin datos directos. En lugar de improvisar o bloquearse, hay una técnica sorprendentemente útil para avanzar con lógica: la estimación de Fermi.

Esta técnica, popularizada por el físico Enrico Fermi, se basa en dividir un problema complejo en partes más pequeñas y estimar cada una de ellas con números razonables. Pero más allá del cálculo, lo importante es el proceso: establecer límites exteriores (el resultado más amplio razonable) e interiores (el resultado más ajustado posible) del problema, y ser consciente del número que usamos como punto de partida, ya que este actuará como ancla para el resto de nuestras suposiciones.

Seguir leyendo «Estimaciones de Fermi: cómo razonar cuando no tienes datos (y evitar el disparate)»

Webinar sobre el análisis y predicción de la pandémia de COVID-19

El pasado día 7 de octubre tuve la oportunidad de asistir a un webinar impartido por la Dra. Clara Prats, investigadora del grupo de Biología Computacional y Sistemas Complejos de la UPC. En esta conferencia online se expuso la experiencia de un grupo de investigadores de la UPC con respecto al análisis i control de los datos de la pandemia de COVID en Cataluña

En este post trataré de resumir y exponer algunas de las ideas que me parecieron más interesantes.

Seguir leyendo «Webinar sobre el análisis y predicción de la pandémia de COVID-19»

Reseña del libro aprender con big data

Introducción

Aprender con big data, publicado en 2014, fue escrito por dos autores que son unos reconocidos expertos en el mundo de los datos masivos. Por un lado, tenemos a Viktor Mayer-Schönberger  que ha enseñado gobernanza de internet en prestigiosas universidades como Oxford y Harvard y, además, ha publicado 2 libros y numerosos artículos sobre big data. Por otro lado, tenemos a Kenneth Cukier que es un escritor y periodista en The Economist que también ha escrito junto a Viktor sobre el nuevo paradigma que representa los big data en nuestra sociedad. Seguir leyendo «Reseña del libro aprender con big data»