En 2016 ocurrió algo que, durante décadas, muchos expertos consideraban improbable: una máquina fue capaz de derrotar a uno de los mejores jugadores del mundo en un juego que simbolizaba la intuición humana.
El sistema era AlphaGo, desarrollado por DeepMind, y su oponente era el campeón surcoreano Lee Sedol.
A primera vista, podría parecer simplemente otro avance tecnológico. Pero lo que ocurrió en aquellas partidas fue algo más profundo: por primera vez, una máquina no solo competía con un humano en un terreno complejo, sino que lo hacía de una forma que desafiaba nuestra propia manera de pensar.
Un juego que parecía reservado a la intuición humana
Durante mucho tiempo, el Go se consideró un territorio especialmente resistente a la inteligencia artificial. A diferencia del ajedrez, donde las máquinas habían progresado gracias a la capacidad de cálculo, el Go presenta una complejidad casi infinita. El número de posibles configuraciones del tablero es tan grande que resulta imposible explorarlas de forma exhaustiva.
Pero lo más importante no era solo esa complejidad. Era la sensación compartida de que el Go exigía algo más: intuición. Los jugadores expertos no analizan todas las jugadas posibles, sino que reconocen patrones, perciben el equilibrio del tablero y toman decisiones basadas en una especie de “sentido” del juego difícil de formalizar.
Por eso, cuando AlphaGo empezó a competir al máximo nivel, la pregunta no era si podía calcular más rápido que un humano. La pregunta era si una máquina podía, de algún modo, desarrollar algo parecido a esa intuición.
¿Qué es realmente AlphaGo?
Para entender lo que ocurrió, es importante detenerse en cómo funciona realmente AlphaGo, porque ahí está la clave de todo.
AlphaGo no es un sistema que se limite a calcular jugadas de forma más rápida o más precisa. Es un sistema que aprende. Para ello, combina varias ideas que, juntas, cambian completamente el enfoque tradicional.
- Utiliza redes neuronales profundas que le permiten reconocer patrones en el tablero. Estas redes, entrenadas con miles de partidas humanas y posteriormente refinadas mediante autoaprendizaje, funcionan de forma similar a la intuición: no analizan explícitamente cada posibilidad, sino que identifican configuraciones que “parecen prometedoras”.
- Aprende mediante un proceso de aprendizaje por refuerzo. Juega millones de partidas contra sí mismo y, a través de ese proceso, va ajustando sus decisiones para maximizar su probabilidad de victoria. Es decir, no sigue reglas predefinidas: construye su propio criterio.
- Incorpora un mecanismo de simulación —basado en lo que se conoce como búsqueda Monte Carlo— que le permite explorar distintos futuros posibles. A partir de una posición concreta del tablero, simula múltiples secuencias de jugadas y evalúa cuáles conducen a mejores resultados.
La combinación de estos elementos es lo que lo hace tan potente. AlphaGo no calcula todas las jugadas posibles, ni tampoco se limita a imitar a los humanos. Lo que hace es algo más interesante: estima, para cada decisión, qué probabilidad tiene de conducir a la victoria, teniendo en cuenta muchos futuros posibles.
Desde esta perspectiva, AlphaGo puede entenderse como una máquina predictiva, pero no en el sentido clásico. No predice un único resultado final, sino que evalúa continuamente escenarios y decide en función de cuál parece más favorable.
El movimiento que nadie entendió
Esta forma de operar se hizo especialmente visible en la segunda partida.
En un momento clave, AlphaGo realizó una jugada —el famoso “movimiento 37”— que desconcertó a todos. Los comentaristas la consideraron un error, simplemente porque no encajaba con ningún patrón conocido por los jugadores humanos. Sin embargo, no era un error. Era una jugada extraordinariamente eficaz, fruto de un proceso de evaluación que no seguía las intuiciones humanas habituales.
La reacción de Lee Sedol fue reveladora. Más allá del resultado, lo que le impactó fue la sensación de enfrentarse a algo que no entendía. Llegó a describirlo como jugar contra “un dios”. No porque AlphaGo fuera perfecto, sino porque parecía operar en un espacio de razonamiento diferente.
Un “momento Sputnik”
El impacto de AlphaGo no se limitó al mundo del Go o a la comunidad tecnológica. En algunos países, el acontecimiento fue interpretado como una señal estratégica.
En China, en particular, se vivió como un auténtico “momento Sputnik”. Del mismo modo que el lanzamiento del satélite soviético en 1957 marcó el inicio de una carrera tecnológica, la victoria de AlphaGo fue percibida como una advertencia: la inteligencia artificial iba a convertirse en un elemento clave de poder y competitividad.
A partir de ese momento, China intensificó de forma muy significativa su inversión en inteligencia artificial, con planes nacionales ambiciosos y un claro objetivo de liderazgo en este ámbito. Lo que había ocurrido en un tablero de Go tenía implicaciones mucho más amplias.
Más allá de la predicción clàssica
Desde la perspectiva de la predicción —que es el eje de este blog—, AlphaGo introduce un cambio de enfoque interesante.
En muchos modelos tradicionales, la predicción consiste en estimar un valor: el gasto del mes que viene, la demanda futura o el número de casos esperados. Es una predicción directa. AlphaGo, en cambio, no se centra en predecir un único resultado. Lo que hace es evaluar continuamente qué decisiones aumentan la probabilidad de alcanzar un determinado objetivo.
Esto nos obliga a ampliar la idea de predicción. No siempre se trata de anticipar lo que va a ocurrir, sino de analizar distintos futuros posibles para tomar mejores decisiones. Esta idea conecta directamente con muchos problemas reales. En la práctica, no solo queremos saber qué pasará. Queremos saber qué hacer.
El riesgo de no entender
Pero esta capacidad también tiene un lado incómodo. Cuando un sistema toma decisiones mejores que las nuestras, pero lo hace a través de procesos que no comprendemos del todo, aparece un nuevo tipo de riesgo. No se trata solo de que pueda equivocarse, sino de que nos resulte difícil interpretar por qué lo hace.
En el caso de AlphaGo, esto no tiene consecuencias más allá del juego. Pero en otros contextos —como la medicina, la gestión pública o los sistemas económicos— esta falta de comprensión puede ser problemática. El reto no es solo construir modelos más precisos, sino también mantener cierto grado de control y comprensión sobre sus decisiones.
Reflexión final
La historia de AlphaGo no es solo una historia sobre inteligencia artificial. Es, en el fondo, una historia sobre los límites de nuestra propia forma de pensar.
Durante mucho tiempo hemos asumido que la intuición humana representaba el nivel más alto de comprensión en entornos complejos. AlphaGo nos muestra que pueden existir otras formas de razonar, basadas en la exploración sistemática de escenarios y en la evaluación probabilística.
La cuestión ya no es si las máquinas pueden predecir mejor que nosotros en determinados ámbitos. La cuestión es si estamos preparados para convivir con sistemas que, en ciertos contextos, no solo predicen mejor… sino que también deciden mejor. Pero quizá lo más importante sea si sabremos cuándo confiar en ellos y cuándo seguir confiando en nuestro propio criterio.
