Tesista: Julián Garbulsky
Director: Juan Pablo Pinasco
Resumen.
En este trabajo exploramos representaciones comprimidas de posiciones de ajedrez mediante autoencoders, una clase de redes neuronales no supervisadas. A partir de una base de datos pública de partidas de ajedrez, filtramos posiciones jugadas entre jugadores de alto nivel y las representamos en formato binario (usando una variante del bitboard). Entrenamos un autoencoder con el objetivo de reconstruir estas posiciones, y medimos la calidad de la reconstrucción tanto con el error cuadrático medio como con una métrica especı́fica del dominio que contabiliza cuántas casillas del tablero fueron mal reconstruidas. Para estudiar la interpretabilidad de las representaciones latentes, aplicamos análisis de componentes principales (PCA) y visualizamos cómo las aperturas de ajedrez, ası́ como ciertas estructuras como el enroque y los peones centrales, se reflejan en las primeras componentes principales. Encontramos que algunas de estas caracterı́sticas estratégicas o posicionales se correlacionan con direcciones particulares del espacio latente. Finalmente, evaluamos la robustez del autoencoder aplicándolo a posiciones significativamente distintas a las del entrenamiento, como las jugadas por principiantes o las generadas artificialmente mediante simetrı́as. En ambos casos, observamos un desempeño de reconstrucción menor, lo que sugiere que el modelo captura regularidades propias de partidas de nivel intermedio a alto.
Palabras claves: Ajedrez, Autoencoders, Aprendizaje no supervisado, Representaciones latentes, PCA, Interpretabilidad, Reconstrucción.
Buenos Aires, 2025
Descargar PDF
Ajedrezzinni Latentinni: autoencoders para interpretar el espacio latente del ajedrez