Gemma fue presentado por Google el 21 de febrero de 2024, como una familia de modelos de lenguaje grandes (LLM) ligeros y de código abierto, derivados de la tecnología utilizada en Gemini.
La familia Gemma incluye dos generaciones principales: Gemma 1 y Gemma 2, cada una con diferentes tamaños de modelos para adaptarse a diversas necesidades.
- Gemma 1 está disponible en dos tamaños: 2B (2 mil millones de parámetros) y 7B (7 mil millones de parámetros). Estos modelos son ideales para tareas que requieren un equilibrio entre rendimiento y eficiencia, especialmente en hardware con recursos limitados.
- Gemma 2, por su parte, ofrece tres tamaños: 2B, 9B (9 mil millones de parámetros) y 27B (27 mil millones de parámetros). Esta generación amplía las capacidades de Gemma, permitiendo tareas más complejas y un mayor rendimiento, especialmente en aplicaciones que requieren un procesamiento más intensivo.
Además de los modelos base, Gemma incluye variantes especializadas, como CodeGemma, optimizada para tareas de codificación.
Todos los modelos están disponibles en plataformas como GitHub y Hugging Face, y pueden ejecutarse en entornos locales, en la nube (como Google Cloud o Colab), o incluso en dispositivos móviles.
Para probar Gemma, Google proporciona notebooks de Colab preconfigurados, tutoriales paso a paso y documentación detallada en su página oficial. Esto hace que Gemma sea una herramienta accesible para desarrolladores, investigadores y entusiastas de la IA que buscan experimentar con modelos de lenguaje avanzados.