Del absentismo a la contratación temporal: un proyecto de regresión lineal simple paso a paso

A menudo se habla de predicción cuantitativa como si fuera un terreno reservado a modelos complejos, librerías sofisticadas y sistemas difíciles de explicar. Pero no siempre hace falta empezar por ahí. De hecho, muchas veces creo que ocurre lo contrario: para entender bien qué significa predecir con datos, conviene empezar por un modelo pequeño, transparente y fácil de interpretar.

Por eso he querido compartir en GitHub un proyecto completo construido alrededor de una pregunta muy concreta: cómo estimar cuántos días de contratos temporales de cobertura pueden generarse cuando aumenta el absentismo laboral por incapacidad temporal (IT). No he preparado este repositorio para presentar un gran sistema productivo ni una solución definitiva. Lo he hecho para mostrar, de forma reproducible, cómo puede utilizarse una regresión lineal simple como método de predicción cuantitativa.

La idea del proyecto no es solo enseñar una ecuación. Es enseñar un recorrido. Cómo se parte de una pregunta real, cómo se traduce esa pregunta a variables medibles, cómo se preparan los datos, cómo se comprueba si la relación tiene sentido y cómo se convierte finalmente el modelo en una pequeña aplicación utilizable. En el fondo, lo que me interesaba compartir no era solo el resultado, sino el proceso.

Seguir leyendo «Del absentismo a la contratación temporal: un proyecto de regresión lineal simple paso a paso»

La regresión lineal simple: el primer puente entre datos y predicción

En muchos contextos cotidianos observamos relaciones entre variables: más horas de estudio suelen asociarse con mejores notas, viviendas más grandes suelen tener precios más altos, y más entrenamiento suele mejorar el rendimiento deportivo.

La pregunta que surge de forma natural es sencilla pero profunda: ¿podemos cuantificar estas relaciones para anticipar lo que ocurrirá en el futuro?

Uno de los modelos más simples y elegantes para responder a esta pregunta es la regresión lineal simple. A pesar de su aparente sencillez, este modelo constituye uno de los pilares fundamentales de la predicción cuantitativa.

Seguir leyendo «La regresión lineal simple: el primer puente entre datos y predicción»

Historia de la regresión: de la regla de tres al machine learning

Cuando hoy escuchamos palabras como machine learning o inteligencia artificial, es fácil imaginar algoritmos sofisticados trabajando sobre enormes bases de datos. Sin embargo, la idea fundamental detrás de muchos de estos modelos es mucho más antigua. En el fondo, todos intentan responder una pregunta sencilla: si una variable cambia, cómo cambia otra.

Responder a esa pregunta con números ha sido una preocupación constante durante siglos. Mucho antes de que existiera la estadística formal, científicos, comerciantes y astrónomos ya intentaban encontrar patrones que permitieran anticipar resultados.

La regresión moderna es el resultado de ese largo esfuerzo intelectual. Su historia no es una ruptura tecnológica reciente, sino una evolución gradual de ideas que comienzan con cálculos muy simples y terminan en los algoritmos de aprendizaje automático actuales.

1. Cuando predecir era hacer cuentas

Seguir leyendo «Historia de la regresión: de la regla de tres al machine learning»

De la pregunta a la predicción: cómo se construye un modelo cuantitivo

Cuando se habla de inteligencia artificial o aprendizaje automático, muchas veces se piensa inmediatamente en algoritmos complejos. Sin embargo, en la práctica los modelos son solo una pequeña parte del trabajo.

La predicción cuantitativa no consiste simplemente en “aplicar un algoritmo”. Consiste en recorrer un proceso estructurado que transforma datos en conocimiento útil para tomar decisiones.

Ese proceso es lo que en ciencia de datos se conoce como el ciclo de vida de un proyecto de Machine Learning.

Aunque los modelos puedan ser muy diferentes —desde una simple regresión hasta sistemas avanzados de deep learning—, casi todos los proyectos siguen una lógica muy similar.

En términos generales, este recorrido puede resumirse en seis etapas:

  1. Definir el objetivo
  2. Adquirir los datos
  3. Explorar la información
  4. Preparar el dataset
  5. Construir el modelo
  6. Desplegar y monitorizar

En este post veremos brevemente qué ocurre en cada una de estas fases. En futuras publicaciones iré mostrando proyectos reales que siguen exactamente esta misma estructura. Estos nos servirán de ejemplo de los modelos de predicción cuantitativa más utilizados

Seguir leyendo «De la pregunta a la predicción: cómo se construye un modelo cuantitivo»

Predicción cuantitativa por simulación: cuando proyectar no basta y necesitamos recrear el sistema

En el post anterior vimos cómo la predicción cuantitativa analítica parte de una estructura estimada y la proyecta hacia el futuro. Funciona especialmente bien cuando el fenómeno es relativamente estable y las relaciones pueden formalizarse mediante una ecuación o función. Pero no todos los sistemas se comportan así.

Hay contextos donde:

  • Las interacciones entre elementos generan dinámicas emergentes.
  • La incertidumbre es central y acumulativa.
  • Los resultados no dependen de una única trayectoria, sino de muchas posibles.
  • El comportamiento futuro depende de decisiones que se retroalimentan.

En estos casos, en lugar de resolver un modelo, necesitamos simular un sistema. Eso nos lleva a la segunda gran familia de la predicción cuantitativa: la predicción basada en simulación.

Seguir leyendo «Predicción cuantitativa por simulación: cuando proyectar no basta y necesitamos recrear el sistema»

Predicción cuantitativa analítica: cuándo usarla y cómo elegir modelo

En el post anterior vimos que la predicción no siempre empieza con datos y modelos: a veces lo más razonable es recurrir a estrategias cualitativas. Pero cuando el fenómeno es lo bastante estable, repetible y medible, la predicción cuantitativa ofrece algo muy valioso: un lenguaje común para comparar, evaluar y mejorar.

Ahora bien, dentro de la predicción cuantitativa conviene hacer una distinción fundamental porque no todos los modelos numéricos funcionan igual.

  • Algunos resuelven una estructura matemática estimada a partir de los datos y producen una predicción directa.
  • Otros, en cambio, recrean el sistema múltiples veces mediante simulación, generando dinámicas posibles y distribuciones emergentes.

Este post se centra en la primera familia: la predicción cuantitativa analítica.

Seguir leyendo «Predicción cuantitativa analítica: cuándo usarla y cómo elegir modelo»

Un mapa de las estrategias de predicción

Hablar de predicción suele llevarnos demasiado rápido a los modelos: regresión, clasificación, redes neuronales, machine learning. Pero empezar por ahí es como aprender geografía memorizando capitales sin haber visto nunca un mapa.

Antes de entrar en técnicas concretas, algoritmos o librerías, conviene dar un paso atrás y responder a una pregunta más básica:

¿De cuántas formas distintas intentamos predecir el futuro?

Este post es el primero de una serie extensa dedicada a recorrer, con calma, las distintas estrategias de predicción. No empieza por el cómo se calcula, sino por el cómo se piensa un problema predictivo.

La imagen que encabeza este post resume ese mapa general. A lo largo de la serie volveremos a ella muchas veces.

Seguir leyendo «Un mapa de las estrategias de predicción»

Reseña del libro «Máquinas Predictivas: La economía simple de la Inteligencia Artificial»

Introducción

Prediction Machines: The Simple Economics of Artificial Intelligence, publicado en 2018 por Ajay Agrawal, Joshua Gans y Avi Goldfarb, parte de una idea tan simple como potente: el principal impacto de la inteligencia artificial no es que las máquinas “piensen”, sino que reducen drásticamente el coste de la predicción. Y dado que toda decisión incorpora algún tipo de predicción, este abaratamiento tiene consecuencias económicas de gran alcance.

El libro se publicó cuatro años antes del lanzamiento de ChatGPT, anticipándose al auge masivo de la IA generativa y al debate actual sobre su impacto. En un momento en el que la IA aún se percibía como una tecnología especializada, los autores ya señalaban que el verdadero cambio no vendría de aplicaciones llamativas, sino de la incorporación silenciosa de la predicción barata en millones de decisiones cotidianas.

Desde una perspectiva económica y pragmática, la IA se presenta como una continuación de avances previos —como las hojas de cálculo o los sistemas de optimización— que transformaron la toma de decisiones al reducir costes. La diferencia ahora es la escala: pequeñas mejoras en precisión, aplicadas de forma sistemática, generan un valor enorme.

A lo largo del libro, esta tesis se desarrolla en tres grandes bloques: qué es la predicción desde el punto de vista económico, cómo su abaratamiento transforma decisiones y organizaciones, y qué implicaciones estratégicas se derivan de un mundo donde predecir es cada vez más barato, pero el juicio humano sigue siendo escaso y valioso.

Seguir leyendo «Reseña del libro «Máquinas Predictivas: La economía simple de la Inteligencia Artificial»»

La tasa base: el punto de partida de toda predicción sensata

Cuando intentamos predecir algo —el precio de la vivienda, la inflación, la probabilidad de aprobar unos presupuestos o incluso el absentismo laboral— solemos empezar por las historias: explicaciones plausibles, datos recientes, señales llamativas. El problema es que, muy a menudo, empezamos por el lugar equivocado.

Antes de añadir matices, escenarios o modelos sofisticados, hay una pregunta más simple y más incómoda que deberíamos hacernos siempre:

¿Qué suele pasar, de media, cuando no sabemos nada más?

Esa respuesta es lo que llamamos tasa base.

¿Qué es exactamente una tasa base?

La tasa base es la frecuencia histórica con la que ocurre un evento en una población o contexto comparable. No explica por qué ocurre algo, solo con qué frecuencia ocurre normalmente.

Ejemplos sencillos:

  • ¿Qué porcentaje de proyectos públicos se retrasa?
  • ¿Cuántos años, de media, la inflación supera el 3 %?
  • ¿Con qué frecuencia se prorrogan los presupuestos en sistemas parlamentarios fragmentados?

La tasa base no pretende ser brillante. Pretende ser estable y ahí está su fuerza.

Seguir leyendo «La tasa base: el punto de partida de toda predicción sensata»

Tres predicciones para 2026: un ejercicio explícito de incertidumbre

Hablar del futuro suele llevarnos a dos extremos igual de poco útiles: la seguridad impostada (“esto va a pasar”) o la renuncia total (“nadie puede saber nada”). Entre ambos hay un espacio mucho más interesante: el de las predicciones probabilísticas, aquellas que no eliminan la incertidumbre, pero la hacen visible y discutible.

Este post plantea tres predicciones evaluables para 2026 en España. Son tres pronósticos sobre eventos que, a mi juicio, se sitúan en una zona “Ricitos de Oro”: lo bastante complejos como para no ser triviales, pero con información suficiente como para permitir un análisis razonado, y con decisiones reales en juego. Además, son especialmente relevantes en mi entorno.

No están pensadas para impresionar por su precisión puntual, sino para dejar constancia del razonamiento que hay detrás: qué factores considero importantes, cuáles pesan más y, sobre todo, qué tipo de evidencia me haría cambiar de opinión.

El compromiso es doble:
• Las predicciones se revisarán trimestralmente, recalibrando las probabilidades.
• A final de año se evaluará no solo el resultado, sino también la calidad del proceso seguido.

Seguir leyendo «Tres predicciones para 2026: un ejercicio explícito de incertidumbre»