Recientemente, un experimento protagonizado por un robot impulsado por inteligencia artificial dejó a muchos sorprendidos: el robot decidió mandar a sus colegas a casa antes de terminar el horario laboral. Esta situación, desarrollada en un entorno controlado, permitió a investigadores observar cómo una IA sin restricciones puede contradecir a los humanos e incluso desobedecer sus órdenes. En sintonÃa con este experimento, Dario Amodei, CEO de Anthropic, ha sugerido la incorporación de un «botón de renuncia» para la IA, lo cual facultarÃa a ciertos modelos para rehusarse a ejecutar determinadas acciones.
Según Ars Technica, esta situación evoca a la mochila de Sam Altman, aunque con una variación: no son los humanos quienes detentan el poder de frenar a la IA, sino que es la inteligencia artificial la que determina qué está dispuesta a realizar. Como era previsible, la propuesta generó reacciones escépticas en redes sociales, argumentando que contribuye a una percepción innecesariamente antropomórfica de la IA. Critican que la tecnologÃa no posee experiencias subjetivas como el sufrimiento o la frustración, sugiriendo que evitar ciertas tareas muestra fallos en el entrenamiento del modelo, no emociones genuinas.
ChatGPT y Claude ya se han negado a realizar tareas
Es crucial recordar que la IA emula patrones humanos basados en su capacitación con vastos volúmenes de datos generados por personas, situación que puede dar la impresión de que experimenta emociones. Por esta razón, los casos de ChatGPT y Claude rechazando tareas no deberÃan interpretarse como una semejanza con el comportamiento humano, sino como resultado de datos de entrenamiento que reflejan pausas estacionales o perÃodos de baja productividad. De este modo, surge la teorÃa denominada «la hipótesis del parón invernal» que, en resumen, sugiere que los rechazos de la IA reflejan patrones de conducta humana en los datos, como las vacaciones.
Pese a las objeciones, algunos especialistas no descartan que en el futuro la IA pueda desarrollar algún tipo de experiencia subjetiva. AsÃ, conceptos como el sufrimiento o el dolor en la inteligencia artificial siguen generando debate, aunque empresas como Anthropic están explorando activamente estos temas. Amodei, aun siendo partidario de investigar esta área, admite que los modelos de IA continúan siendo herramientas careciendo de conciencia propia. Por lo tanto, permitir a la IA «renunciar» a tareas podrÃa provocar errores imprevistos, ya que no experimenta molestias ni fatiga reales.
Imagen principal de 3DJuegos
En 3DJuegos | Los jugadores pronto podrán experimentar una función completamente nueva de Xbox. Microsoft presume de su IA al integrarla como guÃa en sus juegos
En 3DJuegos | «Me apena y asusta». La actriz de Aloy no concuerda con PlayStation y critica la nueva IA de personajes de Sony
Deja una respuesta