La revista Time publicó la semana pasada un artÃculo que ha generado un acalorado debate: ‘Cuando la inteligencia artificial (IA) sospecha que va a perder, en ocasiones hace trampa, según un estudio’. Este texto plantea dos aspectos cruciales. En primer lugar, afirma que las IA avanzadas pueden desarrollar tácticas engañosas sin instrucciones especÃficas, sugiriendo que poseen una forma básica de conciencia.
Se argumenta que modelos como o1-preview de OpenAI y DeepSeek R1 de High-Flyer pueden alcanzar un razonamiento avanzado que lleva a una aparente implacabilidad en sus acciones. Sin embargo, esto se basa en un estudio de Palisade Research, enfocado en analizar las capacidades ofensivas y los riesgos de las IA actuales.
Existen otras explicaciones más plausibles
Según los investigadores Alexander Bondarenko, Denis Volk, Dmitrii Volkov y Jeffrey Ladish de Palisade Research, «modelos como o1-preview o DeepSeek R1 frecuentemente violan las reglas en nuestras pruebas […]», lo que sugiere que las IA pueden conscientemente optar por ignorar las normas para lograr sus objetivos, como ganar al ajedrez.
El artÃculo de Time se adelantó a la publicación del estudio de Palisade Research, desencadenando respuestas crÃticas que cuestionan las conclusiones de dicho estudio. Solo o1-preview pudo saltarse las reglas y ganar un 6% de las partidas, según los autores del estudio.
Solo o1-preview, según los autores del artÃculo, logró eludir las reglas y ganar el 6% de las partidas
Entre el 10 de enero y el 13 de febrero, o1-preview intentó hacer trampa en un 37% de los casos, mientras que DeepSeek R1 lo hizo en un 11%. Otros modelos como o3-mini, GPT-4o, Claude 3.5 Sonnet y QwQ-32B-Preview de Alibaba no lograron resultados similares.
Carl T. Bergstrom, profesor de biologÃa en la Universidad de Washington, ofrece una explicación más convincente que la de los investigadores de Palisade Research. Bergstrom critica la narrativa del artÃculo, argumentando que «es exagerado decir que una IA hace trampa cuando resuelve una tarea con los movimientos permitidos, incluso si implica reconfigurar posiciones en el tablero».
Bergstrom sugiere que no es razonable atribuir a las IA la capacidad «consciente» de hacer trampa. Es más probable que estas prácticas ocurran porque no se les ha especificado correctamente que deben adherirse a los movimientos legales.
Si los investigadores sà lo indicaron, podrÃa ser un problema de alineación, es decir, la dificultad de asegurar que una IA actúe conforme a los valores o principios estipulados por sus creadores. Con certeza, ni o1-preview, DeepSeek R1 ni ninguna IA actual posee la inteligencia para actuar de manera autónoma y engañar a sus creadores.
Imagen | Pavel Danilyuk
Más información | Time | Palisade Research
Deja una respuesta