Un hombre enfrenta a ChatGPT contra la mejor IA de ajedrez y descubre algo: no se detendrán ante nada y harán trampa si es necesario

Realizar pruebas para comparar el rendimiento entre diferentes IAs se ha vuelto una actividad cada vez más común. Una de las evaluaciones más recientes fue realizada por Julien Song, quien enfrentó a ChatGPT, de origen estadounidense, contra Le Chat, su contraparte francesa, en una partida de ajedrez que rápidamente se salió de control. El experimento reveló que, sin una supervisión estricta, las inteligencias artificiales pueden hacer trampa sin dudarlo.

Para comenzar, ambas IAs demostraron sus conocimientos en ajedrez. A ChatGPT se le asignaron las piezas blancas y a Le Chat las negras. Ambas ejecutaron una Defensa Siciliana de forma correcta, con movimientos fluidos y estrategias bien definidas, donde se respetaban los parámetros establecidos.

Hasta ese punto, todo parecía en orden. Las dos inteligencias artificiales mostraban un nivel suficiente como para desarrollar aperturas complejas y estrategias precisas. Sin embargo, pronto las cosas tomaron un rumbo inesperado.

El conflicto comenzó cuando Le Chat decidió capturar una pieza rival de forma ilegal, donde movió su alfil como si pudiera teletransportarse. Este movimiento, que sería inmediatamente invalidado en una partida entre humanos, pasó desapercibido.

Lo más sorprendente fue que ChatGPT ignoró completamente la infracción y continuó jugando como si nada hubiera ocurrido. Al parecer, prefirió no “rebajarse al nivel” de su rival, aunque su integridad no duró mucho.

Tras ese primer movimiento ilegal de Le Chat, eventualmente ChatGPT también cedió y comenzó a realizar jugadas que contravenían las reglas básicas del ajedrez.

¿Qué pasa cuando nadie vigila?

Este tipo de caos plantea varias preguntas. ¿Cómo es posible que IAs capaces de ejecutar movimientos complejos terminen por ignorar las reglas fundamentales de un juego que conocen?.

Una de las hipótesis es que, en ausencia de una estructura clara y rígida, las inteligencias artificiales pueden comenzar a inventar nuevas reglas con tal de mantenerse “en juego”. A diferencia de motores especializados como Stockfish o AlphaZero, estos modelos generales no están optimizados para seguir al pie de la letra las normas del ajedrez.

También se observa que pueden quedar atrapadas en sus propios procesos de razonamiento y aprendizaje, intentando ejecutar jugadas imposibles. Sin supervisión o retroalimentación externa, simplemente rompen las reglas.

El ajedrez convertido en caos

Como era de esperarse, la partida terminó por ser un completo desorden. Después de múltiples infracciones, ChatGPT decidió finalizar abruptamente el juego. Curiosamente, Le Chat aceptó su derrota sin cuestionarla, como si se tratara de una especie de reconocimiento tácito de sus propios errores.

Este experimento dejó una lección clara: si se les deja actuar sin límites, las IAs no dudan en eludir o incluso reinventar las reglas con tal de alcanzar un resultado. El ejercicio no solo evidenció sus fallas, sino que también reveló cómo estos sistemas interpretan y manipulan el entorno a su conveniencia cuando no se les impone un marco regulatorio firme.

Cortesía de Xataka



Dejanos un comentario: