Con este post culmina el recorrido iniciado al distinguir entre Mediocristán y Extremistán, al trazar los cuatro cuadrantes de Taleb y al explorar los sesgos —narrativos, de confirmación y de supervivencia— que nos impiden ver los eventos extremos antes de que ocurran. En el camino aprendimos que muchos fenómenos no fallan por falta de datos, sino por una mala comprensión del tipo de mundo en el que nos movemos. Los cisnes grises, esos eventos improbables pero imaginables, emergen precisamente en esa frontera. Y la llamada burbuja de la IA nos ofrece hoy un caso vivo para observar cómo intentamos anticiparlos… mientras seguimos atrapados en la incertidumbre.
Un cisne gris en directo
La inteligencia artificial no es una promesa vacía. Hay avances técnicos reales, mejoras de productividad tangibles y un cambio profundo en cómo se desarrollan productos y servicios. Precisamente por eso, la hipótesis de una burbuja resulta incómoda. No encaja bien con una narrativa basada en fundamentos sólidos. Sin embargo, que algo sea real no lo hace inmune a la sobrevaloración.
Aquí aparece el cisne gris: sabemos que los mercados tecnológicos pueden sobrecalentarse, sabemos que las historias de disrupción atraen capital de forma no lineal y sabemos que las expectativas pueden adelantarse muchos años a los resultados. Nada de esto es impensable. Lo difícil es integrarlo sin caer ni en el alarmismo ni en el entusiasmo acrítico.
El círculo vicioso de la sobrevaloración
Una señal especialmente reveladora de este episodio es la interconexión estratégica entre las grandes empresas del ecosistema de la IA. Muchas de ellas no solo crecen por sus propios resultados, sino porque se compran acciones entre sí, firman acuerdos sobre negocios futuros, se convierten en clientes y proveedores al mismo tiempo, y refuerzan mutuamente sus narrativas de crecimiento.
Este entramado genera un círculo difícil de romper. Las valoraciones elevadas facilitan adquisiciones y alianzas. Estas alianzas alimentan expectativas de beneficios futuros. Y esas expectativas, a su vez, justifican valoraciones aún más altas. El mercado no solo descuenta flujos de caja esperados, sino promesas compartidas. El riesgo no está en cada acuerdo aislado, sino en la retroalimentación colectiva que magnifica cualquier señal positiva y amortigua las negativas.
Escalabilidad real, expectativas ilimitadas
La IA opera en un entorno que escala de forma natural. Un modelo exitoso puede desplegarse a millones de usuarios con costes marginales bajos. Un avance puede replicarse casi instantáneamente. Esta escalabilidad explica por qué el mercado está dispuesto a pagar múltiplos elevados. Pero el salto problemático ocurre cuando esa lógica se extrapola sin fricción al futuro, como si no existieran límites regulatorios, energéticos, competitivos o de adopción real.
Aquí se repite una lección central de toda la serie: cuando un sistema escala, los extremos son posibles, tanto en el éxito como en la decepción. El error no está en imaginar escenarios muy favorables, sino en tratar esos escenarios como inevitables. En ese punto, el cisne gris deja de ser una hipótesis teórica y se convierte en un riesgo estructural.
La paradoja del cisne gris: cuanto más se ve, menos probable parece
Existe una paradoja interesante que merece reflexión. A medida que más analistas, inversores y medios hablan de una posible burbuja de la IA, el riesgo parece, en cierto modo, diluirse. El mercado empieza a descontar la posibilidad del exceso. Las posiciones se ajustan, el lenguaje se vuelve más prudente y las expectativas se fragmentan.
En términos de Taleb, el cisne gris se aclara. Deja de ser invisible. Y cuando un riesgo es reconocido de forma amplia, pierde parte de su capacidad destructiva. No desaparece, pero cambia de forma. El estallido abrupto se vuelve menos probable; la corrección gradual, más plausible. El peligro ya no es tanto el colapso inesperado como la erosión lenta de expectativas.
Esta paradoja no elimina el riesgo. Lo transforma. Y obliga a pensar de forma más sofisticada que el simple “burbuja sí / burbuja no”.
El error persistente: querer ponerle fecha
Ante este contexto, la tentación sigue siendo la misma: intentar predecir cuándo explotará la burbuja. Pero los sistemas complejos no colapsan cuando “toca”, sino cuando una perturbación —a menudo menor— encuentra un entorno suficientemente frágil. El detonante suele ser trivial; la fragilidad, acumulativa.
La pregunta relevante no es cuándo, sino qué ocurre si. ¿Qué pasa si los beneficios no crecen al ritmo esperado? ¿Si la liquidez se contrae? ¿Si la regulación limita ciertos usos? Pensar así no elimina la incertidumbre, pero desplaza el foco desde la predicción puntual hacia la gestión del riesgo.
Cómo anticiparse a este cisne gris
Si aceptamos que estamos ante un cisne gris —visible, pero incierto—, la estrategia no consiste en acertar el desenlace, sino en reducir la fragilidad frente a cualquiera de ellos. Algunas ideas clave:
- Diversificación real, no narrativa: evitar carteras excesivamente concentradas en el mismo relato tecnológico, aunque adopte múltiples formas.
- Asimetría consciente: limitar pérdidas potenciales sin renunciar por completo a los beneficios del escenario positivo.
- Horizontes diferenciados: separar inversiones basadas en adopción estructural a largo plazo de apuestas tácticas ligadas al ciclo.
- Desconfianza del consenso: cuando todas las historias encajan demasiado bien, suele ser el momento de introducir fricción mental.
- Preparación psicológica: asumir de antemano que los resultados pueden ser decepcionantes sin que ello invalide la tecnología subyacente.
Anticiparse a un cisne gris no es salir corriendo, sino no depender de que todo salga bien.
Reflexión final
La burbuja de la IA —si finalmente lo es— no será recordada solo por su desenlace, sino por cómo la observamos mientras se desarrollaba. Como un ejemplo de nuestra dificultad para convivir con riesgos visibles pero incómodos. Como un recordatorio de que lo verdaderamente peligroso no es lo que no podemos imaginar, sino lo que imaginamos y aun así decidimos minimizar.
Con este post se cierra la serie sobre El cisne negro. No con una conclusión definitiva, sino con una actitud: pensar en términos de fragilidad, no de certezas. Porque, como hemos visto, cuando el futuro finalmente se vuelve obvio, ya suele ser demasiado tarde.
