DeepSeek-V3: Inteligencia general eficiente y de código abierto

DeepSeek-V3 es el modelo generalista de lenguaje de la compañía, lanzado en diciembre de 2024, que redefine la eficiencia y versatilidad de los grandes modelos de lenguaje. 

Con una ventana de contexto de hasta 128K tokens, V3 está diseñado para abordar una amplia gama de tareas: desde conversaciones naturales y redacción de textos hasta problemas complejos de programación y análisis de datos. 

Su entrenamiento, realizado sobre 14.8 billones de tokens, se destaca por haber sido llevado a cabo con una fracción del coste de sus competidores, en torno a los 5,6 millones de dólares (según sus creadores). Aunque no está exento de polémica, por presunto espionaje industrial y la censura en temas “sensibles”.

Este modelo se compara favorablemente con alternativas de alto nivel como GPT-4 de OpenAI, Gemini de Google o incluso Llama 3.1 de Meta, pero con la ventaja añadida de ser open-source. 

La eficiencia de DeepSeek-V3 radica en su innovadora utilización de técnicas como la atención latente múltiple y la activación selectiva de expertos, lo que le permite obtener resultados de alta calidad sin la necesidad de enormes recursos computacionales.

Gracias a estas características, V3 se posiciona como una opción robusta y flexible para desarrolladores y empresas que buscan integrar IA avanzada a menor coste, sin renunciar al rendimiento y la escalabilidad.