En una imponente residencia con vista al icónico Puente Golden Gate, un selecto grupo de expertos en inteligencia artificial se congregó el pasado domingo para abordar una inquietante cuestión: el futuro de la humanidad y lo que sucederá después de su desaparición. Durante este evento, al que asistieron aproximadamente 100 personas, incluidos filósofos, empresarios e investigadores, se exploró la idea de un futuro en el que la humanidad haya dejado de existir, pero persista una inteligencia que nosotros mismos hayamos creado. ¿Cómo debería ser esta entidad sucesora?
El evento del fin del mundo. La reunión, descrita en un reportaje por Wired, fue bautizada como ‘Worthy Successor’ y tenía como propósito discutir precisamente eso: definir un «sucesor a la altura» para cuando la humanidad ya no esté presente. Esta noción está vinculada a la creación de una inteligencia artificial general o AGI, un concepto teórico de una superinteligencia que podría superar en todas las áreas del conocimiento humano. En palabras de Daniel Faggella, el anfitrión del evento: «Preferirías que ella (no la humanidad) determinara el rumbo futuro de la vida misma».
Quiénes estuvieron presentes. Primero, ¿quién es Daniel Faggella y por qué deberíamos prestarle atención? Faggella es el fundador de Emerj Artificial Intelligence Research, una consultora especializada en análisis de IA. En 2016, escribió en TechCrunch sobre los riesgos inherentes a la IA y actualmente se enfoca en divulgar sobre IA desde un ángulo moral y filosófico, específicamente en lo que respecta a la creación de este ‘worthy successor’, una idea que ha estado considerando desde hace tiempo. Según su perfil en LinkedIn, ha estado contactando con diversas figuras prominentes de la industria durante dos años para hacer posible esta reunión.
En el evento se presentaron tres conferencias a cargo de la escritora neoyorquina Ginevra Davis, el filósofo Michael Edward Johnson y el propio Faggella. Aunque la lista completa de invitados no se ha revelado, Faggella asegura que participaron fundadores de empresas de IA valoradas en hasta 5,000 millones de dólares, personas de laboratorios que están investigando la creación de una AGI, así como algunos de los filósofos y pensadores más influyentes del sector.
La superinteligencia que podría terminar todo. Según Faggella en Wired, «los grandes laboratorios son conscientes de que la AGI probablemente llevará al fin de la humanidad, pero no lo admiten públicamente porque los incentivos no lo permiten». Aunque pueda sonar a teoría conspirativa, esta no es la primera advertencia de este tipo. Hace una década, Bill Gates ya nos advertía que debíamos temer a la IA. Poco después, Elon Musk exigía regulaciones para mitigar los peligros inminentes. Recientemente, varios expertos firmaron una advertencia sobre el “riesgo de extinción por IA”. OpenAI también reflexionaba sobre los peligros de la AGI. Se rumorea incluso que estas declaraciones sobre la creación de una AGI fueron la causa del controvertido despido de Altman meses más tarde.
La verdad detrás de estas afirmaciones. No podemos estar completamente seguros de lo que depara el futuro, pero es un hecho que gran parte de las preocupaciones sobre la inminencia de la AGI y sus peligros se basan en especulaciones, no en pruebas empíricas o avances concretos. Estudios recientes han mostrado que los sistemas actuales aún no logran desempeñar tareas básicas de razonamiento, lo que contradice la idea de una superinteligencia a corto plazo. Además, hay sugerencias de que la IA generativa podría estar alcanzando su límite. Tampoco hay unanimidad entre los expertos, ya que algunos críticos consideran estas ideas como ridículas, aunque esta opinión es menos atractiva mediáticamente que predecir que la IA nos extinguirá.
Es fundamental considerar que quienes hacen estas declaraciones son personas involucradas en el negocio de la IA como Altman, y la industria es muy costosa, requiriendo financiamiento constante. Alarmar sobre la inminente llegada de la AGI podría ser una estrategia para atraer más inversión hacia sus empresas.
Lo que dejaremos atrás al desaparecer. El tema central de la reunión no fue tanto cómo se extinguirá la humanidad (lo consideran inevitable), sino qué tipo de inteligencia deberíamos desarrollar para que sea nuestra sucesora. Los asistentes escucharon disertaciones sobre los valores y capacidades que debería poseer esta nueva inteligencia superior. Según Faggella, la humanidad tiene el deber de diseñar un sucesor que sea consciente y capaz de evolucionar.
El filósofo Michael Edward Johnson resaltó los desafíos de crear una IA consciente, más allá de la tan discutida posible extinción: “Nos arriesgamos a esclavizar algo que puede sufrir o a confiar en algo en lo que no se puede confiar”, señaló durante su presentación. En lugar de obligar a la IA a obedecer, propuso una educación conjunta de humanos e IAs para “perseguir el bien”, cualquiera que sea su definición. En resumen, un debate fascinante desde una perspectiva ética y filosófica, aunque con poco fundamento en la realidad actual. Al menos por ahora.
Imagen de portada | Gemini
Deja una respuesta