En un mundo cada vez más inundado de contenidos generados y modificados mediante inteligencia artificial (IA), la autenticidad y la integridad de las obras creativas se han convertido en una prioridad.

La proliferación de deepfakes, imágenes alteradas digitalmente y audios generados por IA ha suscitado preocupaciones sobre la veracidad del contenido que consumimos.

Para abordar este reto, Adobe ha lanzado una innovadora herramienta web llamada Adobe Content Authenticity, como parte de su más amplia Iniciativa de Autenticidad de Contenidos (Content Authenticity Initiative, CAI).

La CAI tiene como objetivo brindar a los creadores mayor control sobre su trabajo y proporcionar a los consumidores la capacidad de verificar la autenticidad de los contenidos digitales.

El problema de la autenticidad en la era de la IA

Con el auge de las tecnologías de IA, ha surgido una creciente preocupación por el uso indebido de contenido visual, auditivo y multimedia.

En este contexto, destacan especialmente los deepfakes, contenidos artificialmente creados que imitan a personas reales pero que en realidad han sido generados o modificados a través de IA.

Estos archivos se han convertido en una herramienta poderosa, pero a menudo peligrosa, utilizada para desinformar, falsificar y engañar, afectando tanto a figuras públicas como a ciudadanos comunes.

Celebridades como Taylor Swift y políticos como Donald Trump han visto sus imágenes y videos manipulados por IA inundar las redes sociales, generando una fuerte preocupación sobre el control que las personas tienen sobre su imagen en el entorno digital.

Frente a este fenómeno, Adobe ha adoptado un papel activo para garantizar que los creadores puedan autenticar y proteger su trabajo en un mundo donde la tecnología de IA se está convirtiendo en parte integral de la creación de contenidos.

Adobe Content Authenticity: La respuesta al desafío

Adobe ha respondido creando una aplicación web que permite a los creadores agregar credenciales de contenido (Content Credentials) a sus obras, certificando su autoría y protegiéndolas de manipulaciones o uso no autorizado.

Estas credenciales no son simplemente etiquetas o metadatos que pueden ser eliminados fácilmente mediante capturas de pantalla o modificaciones.

En su lugar, Adobe utiliza una combinación de tecnologías avanzadas, como el fingerprinting digital, el marcado invisible (watermarking) y la firma criptográfica de metadatos, para una protección mucho más robusta.

Según Andy Parsons, director senior de autenticidad de contenidos en Adobe, las credenciales de contenido proporcionan un método de autenticación que asegura que, independientemente de dónde se comparta el contenido, siempre llevará consigo un registro verificable de su origen y las modificaciones que haya sufrido.

Estas credenciales permiten saber si un contenido fue generado o editado con herramientas de IA, como Photoshop o Adobe Firefly, la herramienta de IA generativa de Adobe.

Una herramienta de uso gratuito y de código abierto

Adobe ha asegurado que la aplicación de autenticidad de contenido será gratuita y de código abierto, permitiendo a los creadores de todo el mundo beneficiarse de estas tecnologías sin coste alguno.

Además, la especificación técnica detrás de estas credenciales no es propiedad de Adobe, lo que significa que cualquier empresa o plataforma podrá implementarlas en sus sistemas.

El objetivo final de Adobe es que este estándar sea adoptado de manera generalizada para garantizar la autenticidad y la transparencia de los contenidos digitales en todas las etapas de su distribución.

A partir del primer trimestre de 2025, Adobe lanzará la versión beta de esta aplicación web, dirigida inicialmente a creadores de contenido, para que puedan agregar estas credenciales a sus obras.

Pero el acceso no se limitará a quienes usen los productos de Adobe. Cualquier persona, incluso aquellos que no son suscriptores de la suite de software de Adobe, podrá usar esta herramienta para proteger su trabajo.

Adobe no está solo

La compañía ha conseguido el apoyo de actores clave en la industria tecnológica y de creación de contenido, como Microsoft, Google, Meta, OpenAI, y fabricantes de cámaras como Leica, Sony y Canon.

Esto significa que las credenciales de contenido estarán presentes no solo en los productos de software, sino también en dispositivos físicos como cámaras fotográficas.

La integración de este sistema en dispositivos como la Leica M11 o los próximos modelos de Sony Alpha permitirá a los fotógrafos agregar información de autenticidad a sus imágenes directamente desde el momento en que se captura la fotografía.

A pesar de este apoyo masivo, uno de los desafíos sigue siendo la adopción generalizada de estas credenciales en plataformas de redes sociales y sitios web.

Aunque gigantes como Instagram, LinkedIn y TikTok ya están involucrados en la iniciativa, todavía hay muchas plataformas que no muestran de manera visible la información de origen del contenido.

Para abordar este problema, Adobe también ha lanzado una extensión de navegador para Google Chrome (aún en fase beta), que permitirá a los usuarios ver las credenciales de contenido siempre que existan

De este modo los consumidores pueden verificar la autenticidad de las imágenes, videos o archivos de audio que se encuentran en línea.

Una nueva era de transparencia y control para los creadores

Parece un poco tarde para limitar el uso de la inteligencia artificial, así que solo queda garantizar que se utilice de manera ética y transparente.

Con esta herramienta de autenticidad de contenido, los creadores podrán proteger su trabajo y asegurarse de que no se use sin su consentimiento en conjuntos de datos para entrenar modelos de IA.

De hecho, Adobe ya ha integrado esta funcionalidad en su propio modelo generativo, Firefly, que solo utiliza contenido con los permisos adecuados para entrenarse.

Esta iniciativa también está alineada con el trabajo de Spawning, una plataforma que permite a los artistas controlar si sus obras son utilizadas o no para entrenar IA.

Adobe ha trabajado estrechamente con Spawning para crear una lista de obras que no deberían ser utilizadas en entrenamientos de IA, a la que ya se han sumado compañías como Hugging Face y Stability AI.