En 2018, los primeros deepfakes comenzaron a hacerse virales, y muchos predijeron que serÃa el inicio del fin de la confianza en el video como evidencia. Sin embargo, esto fue más bien una advertencia de lo que estaba por venir, no el principio del fin en sÃ.
Hoy, con el lanzamiento de Veo 3 de Google, hemos llegado a ese momento. Los videos que se comparten en plataformas como Reddit y X son prácticamente indistinguibles de grabaciones reales. No nos enfrentamos a imágenes con errores evidentes como manos con seis dedos o rostros extraños, sino a videos que podrÃan pasar cualquier prueba visual que un espectador promedio realice. Y si aún no lo logran, lo harán pronto, especialmente en un mundo donde el consumo de contenido se da principalmente en pequeñas pantallas de móviles, que no capturan todos los detalles.
La caÃda del video como evidencia irrefutable
Durante mucho tiempo, el video ha sido considerado el estándar más confiable para comprobar la verdad. Decir «Lo he visto con mis propios ojos» equivalÃa a una garantÃa de veracidad. Las grabaciones tenÃan el poder de desmantelar gobiernos o probar la inocencia de una persona. Pero ahora, esta certeza inquebrantable está en proceso de desaparecer.
La comunidad de usuarios de Veo 3 comparte clips de noticias falsas sobre catástrofes, polÃticos que supuestamente han muerto y actos de violencia que nunca ocurrieron. Los videos cuentan con diálogos perfectamente sincronizados, efectos visuales auténticos y una fÃsica convincente. El modelo de inteligencia artificial incluso es capaz de agregar conversaciones que no fueron solicitadas en el prompt original, como si poseyera su propio criterio narrativo. Se trata de una IA con un instinto para contar historias.
El problema real radica no solo en la facilidad para crear videos falsos convincente, sino en nuestra creciente incapacidad para distinguir entre material auténtico y sintético sin recurrir a herramientas tecnológicas avanzadas. Nos encontramos al borde de una era de incertidumbre visual permanente, en la que cada video suscitará la pregunta: «¿Esto realmente sucedió?».
La nueva coartada para negar los hechos
Un ejemplo de cómo esto puede ser utilizado ocurrió cuando se dijo que Macron fue empujado por su esposa al descender de un avión. Aunque el ElÃseo negó inicialmente la veracidad del video, aduciendo que habÃa sido generado por IA, después tuvo que reconocer su autenticidad. Sin embargo, ya se habÃa encontrado una coartada perfecta.
En un mundo donde cada video puede ser potencialmente falso, cualquier contenido incómodo puede ser desestimado simplemente afirmando que es un montaje artificial. La inteligencia artificial se transforma en el argumento de escape por excelencia. Ahora, tanto polÃticos comprometidos, empresas violentando derechos, como regÃmenes opresores tienen la excusa ideal para generar dudas.
No es necesario confirmar que un video es falso, basta con sembrar la duda. En un entorno donde la falsificación es técnicamente viable, la mera posibilidad se convierte en un argumento convincente.
De manera irónica, una tecnologÃa que permite crear ficciones perfectas también nos facilita negar hechos que están documentados con claridad.
Adaptarse a un mundo sin certezas visuales
Las protecciones de Google son selectivas: no puedes generar un video de Biden cayendo, pero sà de desastres naturales y violencia urbana. Se protege lo evidente, pero no lo sutil.
En un contexto donde cualquier video puede ser falsificado…Â
- ¿Qué ocurre en una sociedad que fundamenta su percepción del mundo en el consumo audiovisual?
- ¿Cómo evaluamos la credibilidad, culpabilidad o legitimidad cuando cualquier prueba puede ser fabricada en cuestión de minutos?
La solución no puede ser únicamente tecnológica. Es necesario fomentar una alfabetización mediática que parta de la premisa de que todo contenido puede ser falsificado. Pero, principalmente, debemos aceptar que hemos perdido para siempre uno de nuestros métodos más básicos para separar la realidad de la ficción.
El video como prueba ha dejado de ser confiable. O está a punto de dejar de serlo. Solo nos queda aprender a vivir en un mundo donde ver ya no es sinónimo de creer.
Imagen destacada | Google DeepMind
Deja una respuesta