Image by Justin Lane, from Unsplash
Científicos Ocultan Códigos de Luz para Exponer Videos Falsos de IA
Investigadores de Cornell desarrollaron una nueva tecnología para ayudar a los verificadores de hechos a detectar videos falsos o manipulados, y lo hicieron incrustando marcas de agua secretas en la luz.
¿Apurado? Aquí están los datos rápidos:
- Investigadores de Cornell desarrollaron marcas de agua basadas en luz para detectar videos falsos o alterados.
- El método oculta códigos secretos en fluctuaciones de luz casi invisibles.
- Las marcas de agua funcionan independientemente de la cámara utilizada para grabar las imágenes.
Los investigadores explican que este método oculta fluctuaciones casi invisibles en la iluminación durante eventos importantes o en lugares clave, como conferencias de prensa o incluso edificios enteros.
Estas fluctuaciones, imperceptibles para el ojo humano, se capturan en cualquier video filmado bajo la iluminación especial, que puede programarse en pantallas de computadora, lámparas de fotografía o en las propias instalaciones existentes.
“El video solía ser tratado como una fuente de verdad, pero ya no es una suposición que podamos hacer”, dijo Abe Davis, profesor asistente de ciencias de la computación en Cornell, quien concibió la idea.
“Ahora puedes crear prácticamente un video de lo que quieras. Eso puede ser divertido, pero también problemático, porque cada vez es más difícil distinguir qué es real”, agregó Davis.
Las técnicas de marca de agua tradicionales modifican los archivos de video directamente, requiriendo la cooperación de la cámara o el modelo de inteligencia artificial utilizado para crearlos. Davis y su equipo eludieron esta limitación al incrustar el código en la propia iluminación, asegurando que cualquier video real del sujeto contenga la marca de agua oculta, sin importar quién lo grabe.
Cada luz codificada produce un “video de código” de baja fidelidad y con sello de tiempo de la escena bajo una iluminación ligeramente diferente. “Cuando alguien manipula un video, las partes manipuladas comienzan a contradecir lo que vemos en estos videos de código”, explicó Davis.
“Y si alguien intenta generar un video falso con IA, los videos de código resultantes simplemente parecen variaciones aleatorias”, agregó Davis.
La líder del proyecto, Peter Michael, explicó que el equipo creó códigos de luz imperceptibles basándose en investigaciones sobre la percepción humana. El sistema utiliza patrones de “ruido” de iluminación normales para dificultar la detección sin la clave secreta. Las luces programables pueden ser codificadas con software, mientras que las lámparas más antiguas pueden utilizar un pequeño chip del tamaño de un sello de correo.
El equipo logró la implementación exitosa de hasta tres códigos separados para diferentes luces dentro de la misma escena, lo cual aumenta significativamente la dificultad de falsificarlos. El sistema demostró su eficacia al aire libre, y en diversas tonalidades de piel.
Aun así, Davis advierte que la batalla contra la desinformación está lejos de terminar. “Este es un problema importante y continuo”, dijo. “No va a desaparecer, y de hecho, solo se va a poner más difícil”.