En el campo de la inteligencia artificial (IA), el término alucinaciones se utiliza para describir situaciones en las que los modelos de lenguaje generan información incorrecta o ficticia, pero la presentan como si fuera cierta.
Este fenómeno representa un reto crucial, especialmente cuando la IA se aplica en ámbitos sensibles como la medicina, el derecho o la educación.
En este contexto, Dario Amodei, director ejecutivo de Anthropic, ofreció unas declaraciones que han generado debate en la industria. Durante el evento Code with Claude, Amodei afirmó que los modelos de IA “probablemente alucinan menos que los humanos, pero lo hacen de maneras más sorprendentes”
Exploremos en detalle sus declaraciones y las interesantes implicaciones que esto puede tener.
¿Qué dijo exactamente Dario Amodei?
Durante el evento Code with Claude, organizado por Anthropic en San Francisco, Dario Amodei respondió a una pregunta sobre las alucinaciones en modelos de lenguaje.
Durante la respuesta el directivo afirmó: “Los modelos de IA probablemente alucinan menos que los humanos, pero lo hacen de formas más sorprendentes”. Esta afirmación, que compara directamente el rendimiento de las máquinas con el de las personas, no ha pasado desapercibida y ha suscitado tanto interés como escepticismo.
Amodei también vinculó esta idea con su visión del futuro de la IA. Reiteró su predicción de que la AGI podría alcanzarse en 2026, basándose en un artículo que él mismo publicó el año anterior.
Utilizó una metáfora reveladora: “El agua está subiendo por todas partes”, sugiriendo que los avances tecnológicos están ocurriendo de manera generalizada y acelerada. Lo expresado por Amodei refleja una gran confianza en la capacidad de la IA para superar sus limitaciones actuales, incluida la propensión a alucinar.
¿Qué son las alucinaciones en la IA?
Las alucinaciones en modelos de lenguaje surgen cuando una IA genera respuestas que suenan plausibles pero son erróneas, ficticias o sin base real. Por ejemplo, puede inventar referencias bibliográficas, eventos históricos inexistentes o explicaciones técnicas equivocadas.
Un caso reciente ilustra la gravedad del problema: un abogado de Anthropic tuvo que disculparse ante un tribunal tras presentar una cita legal falsa generada por Claude, el modelo de la empresa, que incluía nombres y referencias jurídicas inventadas
Las causas de las alucinaciones son múltiples. Entre ellas destacan los sesgos o errores en los datos de entrenamiento, la falta de contexto específico y las limitaciones propias de la arquitectura de los modelos.
Aunque se han logrado avances importantes, las alucinaciones continúan representando un reto, especialmente en contextos donde la precisión es imprescindible.
¿Alucinan más los humanos o la IA?
Para evaluar la afirmación de Amodei, conviene analizar estudios que comparan el rendimiento de la IA con el de los humanos. En el ámbito sanitario, por ejemplo, la IA ha demostrado una gran precisión.
Un metaanálisis de 2014 determinó que aproximadamente el 5,08 % de los pacientes en atención primaria en EE. UU. reciben diagnósticos erróneos (PMC). En contraste, algunos modelos de IA han alcanzado un 95 % de precisión en diagnósticos relacionados con la diabetes.
Sin embargo, en tareas como la generación de referencias bibliográficas, los errores son frecuentes. Un estudio publicado en JMIR reportó que modelos como ChatGPT-3.5 y 4 cometen errores en entre un 29 % y un 40 % de las citas.
En periodismo, un estudio de 2005 reveló que el 61 % de las noticias en periódicos estadounidenses contenían errores de hecho, con una media de tres errores por artículo erróneo.
Estos errores humanos suelen deberse a descuidos o malentendidos, mientras que los modelos de IA pueden generar falsedades completas con aparente seguridad.
En resumen, aunque la IA supera a los humanos en algunos contextos, la afirmación de Amodei no puede considerarse universalmente cierta. La falta de estudios comparativos directos entre alucinaciones humanas y artificiales deja abierta la cuestión.
Opiniones divergentes entre expertos
Las palabras de Amodei han provocado reacciones diversas entre profesionales del sector. Algunos comparten su optimismo. Según UX Tigers, los modelos de IA más avanzados muestran tasas de alucinación más bajas gracias a técnicas de entrenamiento más refinadas.
No obstante, otros discrepan. Demis Hassabis, CEO de Google DeepMind, ha advertido de que los modelos actuales presentan lagunas importantes y fallan incluso en preguntas básicas.
Además, New Scientist publicó un informe en mayo de 2025 en el que se alerta de que las alucinaciones están empeorando en algunos modelos recientes diseñados para tareas de razonamiento complejo.
Avances en la reducción de alucinaciones
Para abordar este problema, la comunidad tecnológica ha desarrollado diversas estrategias. Una de las más destacadas es la generación aumentada por recuperación (RAG), que permite a los modelos consultar fuentes externas durante la generación de respuestas.
Un estudio de Stanford publicado en 2024 mostró que esta técnica, combinada con otras, redujo las alucinaciones en un 96 %.
También se están utilizando métodos como el aprendizaje por refuerzo con retroalimentación humana (RLHF), que entrena a los modelos para priorizar respuestas más veraces.
Los grafos de conocimiento (KGs) proporcionan contexto estructurado que reduce errores, y técnicas como chain-of-thought (CoT) favorecen un razonamiento paso a paso que mejora la transparencia del modelo.
Otra estrategia emergente consiste en entrenar a los modelos para que reconozcan sus propios límites y puedan responder “no lo sé” en lugar de inventar una respuesta. Esta aproximación ayuda a reducir la propagación de información errónea (Forbes).
No obstante, la solución definitiva sigue dependiendo del contexto de uso y del grado de verificación externa disponible.
Sin consenso científico
Las opiniones dentro del sector son variadas, y los avances técnicos, aunque prometedores, no resuelven por completo el problema. En consecuencia, se requiere un enfoque riguroso, interdisciplinar y crítico para garantizar que la IA sea no solo poderosa, sino también fiable.
A medida que nos acercamos al posible desarrollo de la AGI, el control de las alucinaciones será clave para generar confianza en la tecnología y asegurar su integración responsable en la sociedad.