“Espejito, espejito, ¿quién es la más guapa del reino?” Esta icónica pregunta ahora se dirige a ChatGPT. Lo más sorprendente de este nuevo “prompt” es la disposición de muchos a seguir los consejos que ofrece la inteligencia artificial.
La franqueza de la IA. Una australiana de 32 años, Ania Rucinski, compartió con The Washington Post que consultó a ChatGPT sobre cómo verse más “atractiva” para su pareja, dada la falta de sinceridad en su entorno. La respuesta fue clara y directa: probar un flequillo cortina. Aunque no es una idea nueva, esta sugerencia está ganando popularidad en redes sociales.
Una moda silenciosa. En TikTok, un vídeo de Marina (@marinagudov) acumula más de medio millón de visitas. En él, Marina muestra cómo usó el chatbot para analizar su estilo y estética desde una selfie sin maquillaje. La IA le sugirió una paleta de colores ideal, evaluó su tono de cabello, le propuso cambios en su maquillaje con marcas y tonos específicos, e incluso diseñó un look de sombras adaptado a la forma de sus ojos. Una periodista de Indy100 siguió esta tendencia y experimentó un proceso similar al de la influencer. Lo más impactante fue que el bot le proporcionó una imagen generada visualmente con el resultado.
El trasfondo de la viralidad. ¿Por qué fiarse más de un bot que de una persona? Según algunos usuarios, la IA es honesta pero no hiriente. Kayla Drew, en otra entrevista con The Washington Post, menciona que consulta a ChatGPT para todo, incluso consejos de belleza, ya que su forma directa de expresarse no hiere tanto como las críticas de alguien cercano. Por otro lado, la crítica de belleza Jessica DeFino explica: “Los humanos juzgamos con base en nuestros lazos emocionales, pero un bot analiza datos fríamente y emite su juicio. Para aquellos que necesitan respuestas claras sobre su apariencia, esto es una ventaja”.
Un enfoque distinto. La IA ofrece una visión anticipada más precisa; es como lanzarse a una piscina llena de posibilidades. La periodista de Indy100 encontró en ChatGPT una forma de experimentar sin consecuencias reales. La posibilidad de probar, ajustar y visualizar antes de decidir se ha transformado en uno de los principales atractivos de esta tendencia.
La opinión de los expertos. Algunos usuarios, entrevistados por The Washington Post, confían en ChatGPT por su aparente «neutralidad», pero los especialistas señalan que esto es una ilusión. Emily Pfeiffer, analista de Forrester, destaca que “la IA simplemente refleja lo que encuentra en internet, mucho de lo cual está diseñado para hacer que las personas se sientan inseguras y compren más productos”. Esta lógica puede condicionar las respuestas hacia un enfoque de consumo más que de bienestar personal.
Por otro lado, Alex Hanna (Distributed AI Research Institute) y Emily Bender (lingüista computacional) advierten que entrenar estos modelos con contenido de foros donde se califica el atractivo (como r/RateMe o Hot or Not) implica automatizar la mirada masculina. De esta manera, el chatbot podría perpetuar estándares de belleza sexistas en lugar de ofrecer evaluaciones justas o empáticas.
De acuerdo con la profesora Marzyeh Ghassemi del MIT, entrevistada por Redacción, una IA puede proporcionar consejos peligrosos en temas delicados. En un caso documentado, una IA sugirió comportamientos perjudiciales a personas con trastornos alimenticios. Esto destaca la necesidad de supervisión ética para evitar daños no intencionados.
Peligros en la cultura digital. La belleza siempre ha sido mutable, cultural y profundamente subjetiva. No obstante, la inteligencia artificial tiende a reducirla a patrones previsibles: piel perfecta, cuerpos delgados, rasgos eurocéntricos. Como advierte Emily Pfeiffer, muchos de los datos que entrenan estos modelos buscan generar inseguridad para promover el consumo. La IA no solo da consejos, incita al gasto mediante recomendaciones de productos y procedimientos en una búsqueda de optimización matemática. Pero, ¿optimización para qué? ¿Para encajar en un ideal que otros —o un algoritmo— han creado?
Estudios han demostrado que sistemas como ChatGPT replican sesgos de género y raza incluso en tareas “neutrales” como la selección de personal. Si esto ocurre en contextos supuestamente objetivos, ¿qué sucederá cuando la IA evalúa algo tan cargado culturalmente como el atractivo físico? Muchos modelos se nutren de foros y comunidades en línea que cosifican y clasifican la apariencia, alimentando las bases de datos para las inteligencias artificiales. Así, estas herramientas aparentan ser “objetivas”, pero en realidad reflejan prejuicios de una cultura digital marcada por deseos masculinos, individualismo y competencia.
Imagen | Ecole polytechnique
Xataka | El CEO de Klarna despidió a 700 empleados para remplazarlos por IA. Ahora se ha sustituido a sí mismo… por un avatar
Deja una respuesta