Por qué no podemos predecir Cisnes Negros (II): el sesgo de supervivencia y la falacia lúdica como trampas cognitivas inevitables

En la entrega anterior de esta serie exploramos dos filtros mentales —el sesgo narrativo y el sesgo de confirmación— que nos hacen ver el mundo como más ordenado de lo que realmente es. Hoy damos un paso más y abordamos dos sesgos especialmente peligrosos para cualquiera que pretenda predecir: el sesgo de supervivencia y la falacia lúdica. Ambos reducen nuestra visión del mundo y nos hacen creer que entendemos más de lo que realmente entendemos.

Son trampas inevitables porque funcionan antes de que nos demos cuenta. Pero, precisamente por eso, conocerlas es la única forma de que dejen de ser invisibles.

El sesgo de supervivencia: escuchar sólo la voz de los ganadores

El sesgo de supervivencia aparece cuando solo observamos los casos que han “sobrevivido” al proceso y descartamos —por olvido o por imposibilidad— a todos los que se quedaron por el camino. Esto distorsiona la realidad de forma sistemática.

¿Por qué este sesgo mata la capacidad predictiva?

Porqué cuando construimos predicciones no solemos basar solo en los éxitos visibles:

  • Subestimamos el riesgo real.
  • Sobreestimamos la estabilidad del sistema.
  • Creemos que entendemos por qué algo funciona… cuando en realidad solo estamos viendo la excepción que ha logrado llegar hasta nosotros.

Es un sesgo particularmente cruel porque convierte lo improbable en aparente normalidad. Y al revés: oculta la magnitud de lo que puede salir mal.

Ejemplo clásico… y actual

El ejemplo típico es estudiar solo a las startups que triunfaron para intentar replicar su método. Pero hoy vemos un caso aún más relevante: la llegada de sistemas de IA generativa con ChatGTP.

Todo el mundo reconoce la disrupción que supuso la llegada del Chatbot de IA generativa de Open AI a finales de 2022 pero casi nadie vislumbra los millones de experimentos fallidos, los modelos descartados, los proyectos cerrados. Sólo vemos:

  • El modelo que “ha sobrevivido”.
  • Su narrativa de éxito.
  • Su aparente inevitabilidad histórica.

De ahí que muchos analistas predigan una evolución lineal y estable de la IA… ignorando que estamos viendo solo la cima de una montaña de fracasos invisibles.

La falacia lúdica: confundir la vida con un casino ordenado

Taleb usa el término falacia lúdica para describir nuestra tendencia a aplicar modelos matemáticos diseñados para juegos cerrados —dados, ruletas, cartas— a un mundo que no es un juego. La realidad es que en un casino las reglas no cambian. Sin embrago, en el mundo real sí lo hacen.

¿Por qué es tan peligrosa?

Porque cuando creemos que el entorno funciona como un juego probabilístico bien definido:

  • Asumimos que conocemos la distribución completa de posibles resultados.
  • Confiamos demasiado en la estadística tradicional.
  • Ignoramos la posibilidad de eventos fuera del modelo.

La falacia lúdica nos lleva a predecir como si todo fuera Mediocristán —estable, acotado, sin sorpresas— cuando muchos sistemas reales viven en Extremistán, donde las colas gordas gobiernan y los cisnes negros mandan.

Ejemplo en la vida real

Los financieros de 2007 modelaban el riesgo hipotecario como si fuera un juego de probabilidades fijo. Pero, como hemos visto, el mundo no es un casino: cambia, retroalimenta, sorprende y rompe las reglas sin avisar.

El punto ciego compartido: la ilusión de completitud

Tanto el sesgo de supervivencia como la falacia lúdica generan la misma ilusión: La sensación de que ya tenemos toda la información relevante para predecir.

Pero eso falso porque:

  • Los datos están filtrados.
  • Los modelos están incompletos.
  • Y el mundo se mueve.

Por eso Taleb insiste: lo que desconocemos pesa más que lo que sabemos. Cuando solo miramos a los supervivientes o solo usamos modelos de casino, estamos cerrando los ojos justo donde se esconden los cisnes negros.

¿Podemos defendernos de estas trampas?

No del todo. Son parte de cómo funciona nuestra mente. Pero sí podemos diseñar mejores estrategias:

  • Exigir datos de los fracasos, no solo de los éxitos.
  • Desconfiar de modelos demasiado pulidos: suelen ocultar supuestos frágiles.
  • Pensar en distribuciones abiertas, no en juegos cerrados.
  • Valorar escenarios extremos, aunque parezcan absurdos.
  • Recordar que ausencia de evidencia no es evidencia de ausencia.

La clave no es eliminar estos sesgos —imposible— sino construir un pensamiento más resistente a ellos.

Deja un comentario