La noticia de que Magnus Carlsen había conseguido ganar a la inteligencia artificial ChatGPT pronto se ha hecho viral en todos los periódicos. Y es que era el propio Magnus el que publicaba en su cuenta oficial de X que había jugado una partida contra ChatGPT mientras “se aburría”.
Que Magnus ganase a ChatGPT parece lógico. Lo sorprendente es que, al terminar la partida, el propio ChatGPT evaluaba el nivel de juego de Carlsen entre 1800 y 2000 puntos de Elo. Una afirmación completamente fuera de lugar teniendo en cuenta que el excampeón del mundo supera los 2800.
Esto me llevó a hacerme la siguiente pregunta: ¿qué pasaría si enfrentáramos a ChatGPT contra un rival aún más fuerte que Carlsen? No un humano, sino un motor de ajedrez profesional como Stockfish 16.1, con una fuerza muy superior a cualquier jugador humano. Y eso fue exactamente lo que hice, utilizando la plataforma ChessBase para seguir y analizar la partida.
ChatGPT vs. Stockfish: así fue la partida
El experimento consistía en enfrentar a ChatGPT con las piezas negras contra Stockfish con blancas. Yo me encargaba de introducir las jugadas para ambos y ver cómo se desarrollaba la partida. Durante las primeras jugadas todo parecía más o menos normal: una apertura italiana con e4, Cf3, Ac4 y d3, sin grandes errores. Incluso ChatGPT daba explicaciones aparentemente lógicas sobre sus decisiones.
Pero a medida que avanzaba la partida, comenzaron los problemas. En la jugada 12, ChatGPT propuso una jugada imposible: Cf8, cuando ningún caballo podía llegar a esa casilla. Al señalárselo reconoció el error, pero su siguiente jugada fue aún peor: b5, debilitando completamente el flanco de dama sin justificación estratégica.
A partir de ese momento, la partida fue completamente cuesta abajo para ChatGPT. Cometió varios errores tácticos graves, se dejó piezas colgadas y realizó jugadas que ningún jugador con cierta experiencia realizaría. Las jugadas dejaron de tener sentido incluso desde un punto de vista básico, y la posición negra colapsó en cuestión de segundos.
Análisis del nivel de juego
Para evaluar objetivamente el nivel de cada jugador, importé la partida a Lichess y pedí un análisis por ordenador. Los resultados fueron contundentes: el bando de Stockfish (jugando con blancas) obtuvo una precisión del 99%, mientras que ChatGPT apenas alcanzó un 75%. En tan pocas jugadas, acumuló imprecisiones, errores y hasta un error grave, lo cual refleja un nivel muy bajo.
En base a esta partida y otras pruebas similares, podemos decir que el nivel de juego de ChatGPT se sitúa en torno a los 1000–1300 puntos de Elo. Es decir, comparable al de un aficionado que ha empezado a jugar recientemente, con nociones básicas pero sin profundidad táctica ni comprensión estratégica.
Conclusiones: ¿se puede aprender ajedrez con ChatGPT?
Este experimento demuestra que ChatGPT no es a día de hoy una herramienta fiable para jugar al ajedrez, ni tampoco para aprender. Aunque pueda dar explicaciones convincentes, su juego real es muy pobre y sus sugerencias, en muchos casos, pueden ser contraproducentes. En nuestra escuela de ajedrez hemos probado también a usarlo para crear planificaciones o evaluar posiciones, y los resultados han sido muy irregulares.
Por eso, si quieres mejorar tu nivel de juego, lo recomendable es utilizar herramientas especializadas como ChessBase y trabajar con motores de análisis profesionales como Stockfish. En nuestra escuela enseñamos a sacarles el máximo partido, y puedes acceder a nuestros cursos de informática aplicada al ajedrez de forma gratuita durante 14 días para probarlos por ti mismo.
Ver el vídeo completo anterior te ayudará a entender paso a paso cómo se desarrolló la partida y qué errores cometió ChatGPT. Y quién sabe… tal vez tú mismo seas capaz de ganarle. Estoy convencido de que muchos jugadores aficionados con un poco de experiencia lo harían sin demasiadas dificultades.