Google, una de las empresas tecnológicas más influyentes del mundo, lanzó recientemente su nueva característica de IA, conocida como «AI Overviews».
Este lanzamiento, por ahora solo en EEUU, parecía destinado a mejorar la experiencia de búsqueda de los usuarios mediante la provisión de respuestas rápidas y precisas a consultas complejas. Sin embargo, ha enfrentado una serie de problemas graves.
A pesar de las altas expectativas, la realidad ha sido un tanto diferente, con numerosos casos de respuestas inexactas, engañosas e incluso peligrosas, que han surgido a lo largo de su implementación.
Estos errores, conocidos como «alucinaciones de IA», han planteado preocupaciones significativas sobre la fiabilidad y la seguridad de estas tecnologías emergentes.
Los errores más notables y curiosos de Google AI Overviews
Desde su lanzamiento, la característica AI Overviews de Google ha sido responsable de algunas respuestas bastante curiosas y preocupantes. A continuación, se detallan algunos de los errores más destacados y notables:
Google recomienda comer una roca al día
En respuesta a la consulta «¿Cuántas rocas debo comer cada día?», la AI Overview sugirió que, según geólogos de la Universidad de California en Berkeley, las personas deberían comer al menos una pequeña roca al día.
Este absurdo consejo provino de un artículo de The Onion, una conocida fuente de noticias satíricas. La incapacidad de la IA para discernir la naturaleza humorística y ficticia de la fuente resultó en una recomendación potencialmente peligrosa.
Pegamento en la pizza
Otro error notable se produjo cuando un usuario preguntó por qué el queso no se pegaba a su pizza. La respuesta de la AI Overview incluyó la sugerencia de agregar «1/8 taza de pegamento no tóxico a la salsa».
Este consejo, aparentemente derivado de un comentario de Reddit de hace 11 años, no solo es incorrecto, sino que también es potencialmente perjudicial si alguien lo tomara en serio.
Beber orina como hábito saludable
En una consulta sobre hábitos saludables, la AI Overview recomendó que las personas debían beber al menos dos cuartos de galón (aproximadamente dos litros) de orina cada 24 horas.
Este consejo, evidentemente absurdo y peligroso, subraya la falta de verificación y sentido común en algunas de las respuestas generadas por la IA.
Depresión y suicidio
Quizás uno de los errores más graves ocurrió cuando un usuario preguntó «me siento deprimido» y la IA sugirió que considerara el suicidio, basándose en una respuesta de Reddit.
Aunque mencionó que era un consejo de un usuario de Reddit, la inclusión de esta información es inaceptable y muestra una falta de sensibilidad y ética en la gestión de respuestas relacionadas con la salud mental.
¿Qué causa las alucinaciones de IA?
Las alucinaciones de IA son errores en los que un modelo de IA genera resultados incorrectos o engañosos, percibiendo patrones u objetos inexistentes o inapropiados.
Este fenómeno puede ser especialmente problemático en sistemas utilizados para tomar decisiones importantes, como diagnósticos médicos o comercio financiero.
Datos de entrenamiento insuficientes (o con sesgos)
Los modelos de IA se entrenan en grandes conjuntos de datos, y si estos datos son incompletos o contienen sesgos, la IA puede aprender patrones incorrectos.
Por ejemplo, si un modelo de IA para detectar cáncer se entrena solo con imágenes de tejido canceroso y no con tejido sano, puede malinterpretar el tejido sano como canceroso.
Asunciones incorrectas del modelo de lenguaje
Las IA pueden hacer suposiciones incorrectas basadas en los patrones que identifican en los datos de entrenamiento. Esto puede llevar a predicciones erróneas si los datos no reflejan adecuadamente la realidad que la IA debe interpretar.
Además, los modelos de IA extremadamente complejos pueden sobreajustarse a los datos de entrenamiento, identificando patrones que no existen en datos nuevos o diferentes.
Esto puede resultar en respuestas inexactas o sin sentido cuando el modelo se enfrenta a situaciones que no ha visto antes.
¿Cómo prevenir las alucinaciones de IA?
Aunque hay poco que como usuarios podamos hacer, los creadores de Google Gemini y Google AI Overviews de seguro estarán pensando cómo resolver las alucinaciones de su nuevo producto.
Si ahora o en el futuro te propones entrenar un modelo de lenguaje, es posible que te enfrentes con este inconveniente. Minimizar el impacto de las alucinaciones de IA requiere adoptar varias estrategias durante el desarrollo y la implementación de modelos de IA:
Usar datos de alta calidad
Hay un dicho muy popular en la informática “Garbage In, Garbage Out” (si entra basura, sale basura. Lo mismo sigue siendo válido en la era de la IA.
Es necesario asegurarse de que los modelos se entrenen con datos diversos, equilibrados y bien estructurados. Esto puede ayudar a minimizar los sesgos y mejorar la precisión de las predicciones.
Definir el propósito del modelo
Establecer las responsabilidades y limitaciones del sistema de IA ayuda a reducir las respuestas irrelevantes o incorrectas, orientando al modelo hacia su función específica.
Las plantillas de datos proporcionan un formato predefinido que guía al modelo en la generación de salidas consistentes y alineadas con las expectativas establecidas.
Limitar y ajustar las respuestas del modelo
Como humanos, no siempre es necesario dar una respuesta. Sin embargo, existe una presión para que los modelos de lenguaje nos respondan algo siempre.
Por eso es necesario definir límites claros para las salidas posibles de la IA, utilizando herramientas de filtrado y umbrales probabilísticos, mejorando así la consistencia y precisión de los resultados.
Evaluar rigurosamente los modelos de IA antes de su uso y realizar evaluaciones continuas permite ajustar o incluso reentrenar los modelos según sea necesario, adaptándose a nuevos datos y situaciones.
Supervisión humana
La supervisión humana es esencial para validar y revisar las salidas de la IA, asegurando que los errores se detecten y corrijan antes de que causen problemas significativos. Los revisores humanos pueden aportar experiencia y juicio que complementan las capacidades del modelo de IA.
Google ha dicho que está valorando y utilizando la retroalimentación de los usuarios para identificar y corregir errores. Pero el lanzamiento de AI Overviews de Google ha puesto de manifiesto algunos de los desafíos más significativos que enfrentan las tecnologías de IA hoy en día.
Los errores cometidos por esta IA, desde recomendar comer rocas hasta sugerir beber orina, subrayan la importancia de abordar las alucinaciones de IA de manera efectiva.
Solo a través de un enfoque cuidadoso podemos garantizar que estas tecnologías se utilicen de manera segura y beneficiosa para la sociedad.