No cabe duda de que el auge de los modelos de lenguaje a gran escala (LLMs, por sus siglas en inglés) ha multiplicado la cantidad de contenido escrito con IAs, gracias a su capacidad para generar textos fluidos y coherentes.
Este hecho ha suscitado preocupaciones sobre la autenticidad de la información y el riesgo de desinformación, ya que es difícil distinguir entre texto humano y texto generado por IA.
Para abordar este problema, el equipo de Google DeepMind ha desarrollado SynthID, una herramienta de watermarking (marca de agua) que permite identificar con precisión si un contenido fue creado por un modelo de inteligencia artificial.
Además, recientemente han liberado la tecnología detrás de SynthID para texto, para que pueda ser utilizada de forma pública y gratuita.
En este artículo, te explicamos cómo funciona SynthID para texto, cuáles son sus limitaciones, y por qué la identificación de contenido generado con IA es crucial para garantizar el uso seguro y responsable de estas tecnologías.
¿Qué es SynthID-Text y cómo funciona?
SynthID-Text es un sistema de marca de agua que permite identificar si un texto ha sido generado por un modelo de IA, sin comprometer la calidad del contenido ni aumentar significativamente los costos de procesamiento.
A diferencia de otros métodos, este enfoque se integra durante el proceso de generación del texto, permitiendo añadir una marca imperceptible sin necesidad de modificar el modelo de lenguaje subyacente.
SynthID-Text utiliza un proceso llamado muestreo por torneos (Tournament Sampling), que altera sutilmente la selección de las palabras que componen el texto generado.
En lugar de simplemente elegir el token con mayor probabilidad, el algoritmo ajusta la probabilidad de las palabras seleccionadas, introduciendo un patrón estadístico que funciona como una marca de agua.
Este patrón es indetectable para los lectores humanos y no afecta la coherencia ni la calidad del texto.
Lo más relevante es que, durante la fase de detección, se puede identificar esta marca sin necesidad de realizar operaciones computacionalmente complejas o tener acceso al modelo original, lo cual es una ventaja en entornos de producción.
Un ejemplo del funcionamiento de SynthID-Text
Imagina que utilizan un modelo de lenguaje, como Google Gemini, que tenga incorporado SynthID. Imaginemos también que deseas generar un artículo sobre la sostenibilidad ambiental.
Al generar el texto, el modelo de lenguaje asigna probabilidades a cada palabra en función del contexto y del texto generado hasta ese momento.
Por ejemplo, si la frase en construcción es «La sostenibilidad es importante porque», el modelo podría asignar altas probabilidades a palabras como «reduce», «promueve» o «aumenta». Aquí es donde entra en juego el proceso de muestreo por torneos.
En lugar de seleccionar solo la palabra más probable, el sistema introduce modificaciones sutiles en las probabilidades de selección de palabras para inyectar una marca de agua.
Por ejemplo, la palabra «reduce» podría tener una probabilidad del 60%, mientras que «promueve» se ajusta a un 25% y «aumenta» a un 15%.
Con el watermarking, SynthID modelo podría ajustar las probabilidades para que «reduce» se convierta en 57%, «promueve» en 28% y «aumenta» en 15%. Esta ligera modificación introduce un patrón que será útil para la detección posterior.
Cuando alguien revisa este texto y quiere verificar si ha sido generado por un modelo de IA que usa SynthID-Text, se aplica un algoritmo de detección que analiza el patrón estadístico del texto.
Este algoritmo puede medir la «firma» del texto y determinar si cumple con las características del watermarking implementado.
Si la detección es exitosa, el sistema confirmará que el texto fue generado por un modelo que utiliza la tecnología SynthID-Text, permitiendo así identificar su origen sin necesidad de acceso al modelo original.
La importancia de marcar los textos generados con IA
Marcar los textos generados por IA responde a los desafíos que surgen con el uso masivo de estas tecnologías.
En primer lugar tenemos la confianza en la información. La creciente presencia de texto generado por IA plantea el riesgo de que se propague contenido sin atribución clara. Identificar su origen es fundamental para mantener la transparencia.
Sin un sistema eficaz de identificación, los modelos de lenguaje pueden ser usados para difundir desinformación o generar contenido malicioso, como spam o suplantación de identidad.
En ciertos contextos, como la educación y la investigación científica, es importante saber si un texto fue elaborado por una persona o por un modelo de IA para evitar fraudes y garantizar la originalidad.
Por último, están los posibles desafíos regulatorio. En un futuro cercano, es posible que los gobiernos exijan que las empresas identifiquen cuándo utilizan contenido generado con IA.
Implementar watermarking desde ahora permitirá a las organizaciones adelantarse a estas exigencias y fomentar el uso responsable.
Limitaciones y desafíos del watermarking con SynthID
A pesar de sus ventajas, SynthID-Text no es una solución infalible. Existen desafíos inherentes al uso de cualquier método de watermarking.
Aunque la marca de agua es sutil, un usuario malintencionado podría modificar el texto para intentar borrar la marca de agua sin afectar la coherencia. Google afirma que la marca es resistente a la edición ligera y a recortes en el texto.
Por otra parte, SynthID-Text se centra en identificar textos generados por los modelos específicos de Google, lo que implica que su uso generalizado requerirá cooperación entre distintos desarrolladores de IA para establecer un estándar común.
Finalmente, si bien el sistema ha probado ser seguro y eficiente, su efectividad podría disminuir al aplicarlo en modelos distintos a aquellos para los que fue diseñado.
El texto es solo el comienzo
La liberación de SynthID por parte de Google marca un precedente importante en la industria, con la esperanza de que sea posible integrar técnicas de marca de agua sin comprometer la experiencia del usuario.
En última instancia, la capacidad de identificar y atribuir textos generados por IA será fundamental para mantener la transparencia y confianza en el ecosistema digital actual. Y pronto tendremos herramientas similares para el audio, las imágenes y el vídeo.
En un mundo donde las IA tienen una presencia cada vez mayor en nuestras vidas, herramientas como esta son esenciales para garantizar el uso seguro y ético de la tecnología.