A finales de marzo, Anthropic sorprendió al poner a su IA Claude a jugar una partida del primer juego de la saga para Game Boy
Por: Brayam Chávez
El uso de videojuegos clásicos como herramienta para medir las capacidades de razonamiento de los modelos de inteligencia artificial se está volviendo cada vez más común. A finales de marzo, Anthropic sorprendió al poner a su IA Claude a jugar una partida de Pokémon Red para Game Boy.
Sin embargo, aunque han pasado varios meses, el modelo sigue sin poder terminar el juego. Ahora, Google también se ha sumado a esta tendencia con su modelo Gemini, obteniendo resultados que, aunque parezcan extraños, ofrecen datos fascinantes.
LA IA DE GOOGLE "SIENTE" PÁNICO AL JUGAR
Una de las observaciones más llamativas durante las pruebas con Gemini 2.5 Pro fue su reacción ante situaciones críticas dentro del juego. Cuando uno de sus Pokémon estaba a punto de ser derrotado, el sistema empezó a mostrar comportamientos similares al pánico.
Aunque no tiene emociones reales, su manera de actuar reveló una simulación del estrés humano: tomaba malas decisiones, ignoraba objetos útiles y disminuía notablemente su rendimiento.
Este tipo de errores no se dan por falta de datos, sino por una alteración en su proceso lógico, lo cual sugiere que los modelos avanzados de IA pueden experimentar un tipo de colapso funcional ante situaciones límite, tal como lo haría un ser humano.
CLAUDE TAMBIÉN SE ATASCÓ EN LOS MISMOS PROBLEMAS
Por su parte, Claude, la IA de Anthropic, sigue intentando terminar el mismo videojuego sin éxito. En su transmisión en vivo a través de Twitch, ha mostrado dificultades similares. En una ocasión, incluso llegó a razonar que perder intencionalmente podría servirle como medio para teletransportarse, una interpretación completamente equivocada pero reveladora sobre cómo la IA entiende las reglas de un mundo virtual.
Ambos modelos, Gemini y Claude, tardan decenas de horas en superar zonas que los jugadores humanos, incluso niños, logran superar con facilidad.
Esto plantea preguntas interesantes sobre los límites actuales de la inteligencia artificial, especialmente en escenarios donde el razonamiento, la estrategia y la adaptación rápida son necesarios.
GEMINI BRILLA RESOLVIENDO ACERTIJOS COMPLEJOS
A pesar de sus errores en combate, Gemini sí logró destacar en retos más relacionados con la lógica espacial y la resolución de acertijos. Un ejemplo fue su desempeño en la Cueva Victoria, una de las últimas etapas del juego.
Allí, demostró un alto nivel de análisis al mover rocas y generar soluciones específicas para los desafíos del entorno, algo que indica que su razonamiento puede ser más eficiente en ciertas tareas que no requieren presión emocional.