En la era digital actual, la línea entre humanos y máquinas se está volviendo cada vez más difusa. La inteligencia artificial (IA) ha avanzado tanto que ahora puede generar texto, imágenes y vídeos que son prácticamente indistinguibles de los creados por humanos. 

Este avance plantea un desafío significativo para los métodos tradicionales de verificación, como los CAPTCHA, que ya no son suficientes para garantizar que quien interactúa en línea es realmente una persona.

Un ejemplo reciente y contundente de este problema es el caso de Reddit, donde investigadores de la Universidad de Zúrich utilizaron bots de IA para publicar más de 1.700 comentarios en el subreddit “Change My View”, engañando tanto a los usuarios como a los moderadores. 

Este incidente no solo resalta la capacidad de la IA para manipular discusiones en línea, sino que también pone de manifiesto la necesidad urgente de desarrollar nuevos métodos de verificación que sean resistentes a estas tecnologías.

IA y la obsolescencia de los Métodos Tradicionales

La IA generativa ha cruzado un umbral crítico. Ya que no solo facilita la creación de deepfakes y contenido falso, sino que también permite a los malintencionados acceder a plataformas que previamente estaban protegidas por métodos de verificación más simples.

En el caso de Reddit, los bots de IA no solo publicaron comentarios, sino que también adoptaron personas ficticias, como víctimas de violación o activistas contra el movimiento Black Lives Matter, para influir en las opiniones de los usuarios. 

Este tipo de manipulación no solo distorsiona las discusiones, sino que también erosiona la confianza en la autenticidad del contenido en línea. 

Según un informe de iProov, los ataques de intercambio de rostros (face swaps) aumentaron un 704% entre el primer y el segundo semestre de 2023, destacando la creciente sofisticación de los ataques impulsados por IA.

Además, la proliferación de estas tecnologías pone en riesgo la seguridad de las transacciones financieras, el acceso a servicios gubernamentales y la integridad de las redes sociales, ya que los bots pueden ser utilizados para cometer fraudes, difundir desinformación o incluso para ataques más sofisticados como el phishing.

Métodos de verificación resistentes a la IA

Ante este panorama, las empresas y los desarrolladores están trabajando en la implementación de métodos de verificación más avanzados y seguros. A continuación, se detallan algunas de las estrategias más prometedoras:

Autenticación biométrica

La biometría utiliza características únicas del individuo, como el reconocimiento facial, el escaneo de iris o las huellas dactilares, para verificar la identidad.

Para prevenir el uso de deepfakes, se incorpora la detección de vida, que verifica si la persona está físicamente presente en el momento de la verificación. Esto puede incluir pedir al usuario que realice ciertas acciones, como mover la cabeza o parpadear, para confirmar que no es una imagen estática o un vídeo pregrabado. 

Ejemplo práctico: Stripe Identity utiliza reconocimiento facial con detección de vida para verificar identidades, asegurando que la selfie proporcionada sea de una persona real y no una imagen manipulada.

Biometría conductual

Este método analiza patrones de comportamiento del usuario, como la velocidad de escritura, los movimientos del ratón o la forma de caminar (en dispositivos móviles).

Dado que estos patrones son inherentemente inconsistentes y difíciles de replicar, son una barrera efectiva contra la IA. La IA lucha por emular las variaciones naturales del comportamiento humano, lo que hace que este método sea particularmente robusto.

Ejemplo práctico: FTX Identity utiliza biometría conductual para detectar bots, analizando patrones de interacción que son únicos para cada usuario.

Verificación Multimodal

Esto combina múltiples métodos de verificación, como biometría, análisis de documentos y biometría conductual, para aumentar la seguridad.

Requiere que la IA supere varios obstáculos simultáneamente, lo que la hace mucho más difícil de burlar. Por ejemplo, un sistema podría requerir que el usuario presente un documento oficial, realice una verificación biométrica y pase una prueba de comportamiento.

Ejemplo práctico: Reddit planea trabajar con servicios de terceros como Persona, Alloy, Stripe Identity, Plaid y Footprint, que integran verificación multimodal para garantizar la “humanidad” de los usuarios.

Blockchain para la verificación de identidad

La tecnología blockchain permite la creación de identidades digitales descentralizadas, donde los usuarios controlan su propia información de identidad. 

Las credenciales verificables, almacenadas en una billetera digital, pueden ser compartidas selectivamente con terceros, asegurando que solo la información necesaria sea revelada.

Dado que la blockchain es inmutable y transparente, cualquier intento de falsificación sería inmediatamente detectable. Esto asegura que las identidades digitales sean confiables y resistentes a manipulaciones.

Ejemplo práctico: Telefonica Tech está explorando el uso de blockchain para la identidad autosoberana, permitiendo a los usuarios verificar su identidad sin revelar datos sensibles (Blockchain Identity).

Detección de contenido generado por IA

Herramientas especializadas pueden detectar si un texto, imagen, audio o vídeo ha sido generado por IA, utilizando algoritmos de aprendizaje automático para identificar patrones y características típicas de la generación automática.

Estas herramientas ayudan a filtrar contenido no deseado, asegurando que las interacciones en línea sean auténticas.

Ejemplo práctico: Herramientas como SynthID de Google pueden identificar texto generado por modelos como ChatGPT, Gemini o Claude con alta precisión.

El futuro de la verificación en línea

Tecnologías emergentes como el escaneo ocular o la biometría neuronal podrían convertirse en estándares en el futuro próximo. 

Por ejemplo, el dispositivo de escaneo ocular Orb de Tools for Humanity (una startup de Sam Altman)  promete una verificación de humanidad más robusta al requerir datos biométricos únicos y presencia física.

Sin embargo, estos avances también plantean desafíos éticos y de privacidad, ya que implican la recopilación y almacenamiento de datos biométricos sensibles. 

Además, la educación de los usuarios sobre los riesgos de la IA y cómo protegerse será fundamental para mantener un ecosistema digital seguro y confiable. 

Solo una cosa es segura, la batalla entre humanos y bots de IA en el ámbito de la verificación es solo el comienzo de una carrera armamentista tecnológica. 

En última instancia, el objetivo es crear un entorno digital donde la autenticidad y la confianza sean la norma, no la excepción, asegurando que las interacciones en línea sigan siendo un dominio humano, no una simulación generada por máquinas.