Desde la personalización de experiencias en dispositivos móviles hasta la creación de avanzados modelos de lenguaje, la inteligencia artificial (IA) está transformando todos los aspectos de la tecnología moderna.
Estos modelos impulsan los chatbots más sofisticados, llevando la interacción con la tecnología a un nuevo nivel. Sin embargo, para que la IA esté más cerca de nosotros, debe funcionar en todos nuestros dispositivos con un consumo energético razonable.
Un pilar fundamental de este avance es el desarrollo de las Unidades de Procesamiento Neuronal (NPUs), chips especializados que optimizan las cargas de trabajo de IA.
Estas NPUs están redefiniendo la arquitectura de los procesadores tanto en PCs como en dispositivos móviles, mejorando la eficiencia y el rendimiento. Veamos cómo serán esos dispositivos del mañana, con NPUs integradas.
¿Qué es una NPU y cómo funciona?
Una NPU (Neural Processing Unit) es un procesador especializado diseñado para ejecutar tareas de inteligencia artificial de manera eficiente.
A diferencia de las CPUs y las GPUs, que tradicionalmente manejan múltiples tipos de operaciones computacionales, las NPUs se centran exclusivamente en procesar cargas de trabajo de IA, especialmente aquellas relacionadas con redes neuronales.
Las NPUs sobresalen en multiplicación matricial, una operación crítica para la mayoría de las aplicaciones de IA, como el entrenamiento de modelos de machine learning o la inferencia en redes neuronales.
Este enfoque en la paralelización y optimización del uso de energía permite a las NPUs realizar grandes cantidades de cálculos con un consumo de energía significativamente menor que las CPUs o GPUs.
Una GPU puede realizar operaciones similares, pero con un mayor gasto energético. Esto las hace menos adecuadas para dispositivos donde la eficiencia energética es clave, como ordenadores portátiles y smartphones.
La evolución de las NPUs
El concepto de una NPU no es totalmente nuevo. De hecho, su origen puede rastrearse hasta los intentos iniciales de desarrollar computación neuromórfica, que buscaba emular la arquitectura del cerebro humano y su sistema nervioso para mejorar la eficiencia de procesamiento.
Aunque muchos de esos primeros intentos fracasaron, algunos derivaron en tecnologías más viables, como los DSP (Procesadores de Señal Digital), que con el tiempo han sido adaptados para aplicaciones de IA.
Empresas como Qualcomm y Xilinx fueron pioneras en esta transición. Qualcomm, por ejemplo, ha ido refinando su Hexagon DSP, transformándolo con el tiempo en lo que hoy se conoce como Hexagon NPU, capaz de ofrecer un rendimiento de hasta 45 TOPS (trillones de operaciones por segundo) en IA.
Este poder de cómputo permite a los dispositivos equipados con NPUs ejecutar tareas complejas de IA, como el reconocimiento de voz y de imágenes, de manera local y sin depender del cloud computing.
Este es un avance crucial en la carrera por lograr una mayor independencia en los dispositivos móviles y PCs.
Ventajas de las NPUs sobre CPUs y GPUs
Uno de los principales problemas que enfrenta la industria de la IA hoy en día es la dependencia del procesamiento en la nube.
Aunque la computación en la nube ofrece una potencia de procesamiento casi ilimitada, también genera problemas de latencia, consumo de ancho de banda y posibles riesgos de seguridad.
Las NPUs permiten que muchos de estos cálculos de IA se realicen directamente en el dispositivo, lo que no solo reduce la latencia, sino que también mejora la seguridad, al evitar que los datos salgan del dispositivo.
Además, las NPUs son mucho más eficientes en términos de energía. Aunque las GPUs son populares para la IA en la nube, debido a su capacidad de paralelización, son extremadamente demandantes en términos energéticos.
Las NPUs, en cambio, logran un rendimiento similar para ciertas tareas de IA, pero con un consumo energético significativamente menor. Esto resulta clave para dispositivos portátiles como ordenadores portátiles y smartphones, donde la duración de la batería es una prioridad.
NPUs en los nuevos procesadores: Intel, Qualcomm y AMD a la cabeza
A medida que la demanda de inteligencia artificial continúa creciendo, los principales fabricantes de procesadores están integrando NPUs en sus nuevas arquitecturas. Intel, Qualcomm y AMD son tres de los principales actores en esta carrera.
Intel Meteor Lake y Lunar Lake
Intel ha sido uno de los pioneros en la integración de NPUs en sus procesadores. Con el lanzamiento de su arquitectura Meteor Lake, Intel ha introducido una «arquitectura híbrida de rendimiento 3D» que incluye no solo un CPU y GPU, sino también un NPU dedicado.
La función de este NPU es manejar tareas de IA sin cargar al CPU o GPU, mejorando la eficiencia y el rendimiento general del sistema.
Meteor Lake ofrece un rendimiento de 11 TOPS en IA, lo que lo convierte en una solución atractiva para PCs que buscan aprovechar la inteligencia artificial sin recurrir a la nube.
Además, Intel ya está trabajando en la siguiente generación de procesadores, conocidos como Lunar Lake, que prometen 100 TOPS de rendimiento en IA, consolidando aún más su posición en la carrera por dominar el mercado de la IA en PCs.
Qualcomm: Snapdragon X Elite
Qualcomm, que lleva años trabajando en la integración de IA en sus SoCs (sistemas en chip) para dispositivos móviles, ha dado un paso más con su Snapdragon X Elite, un chip basado en arquitectura ARM que cuenta con una NPU capaz de ofrecer 45 TOPS.
El Snapdragon X Elite es un fuerte competidor en el mercado de PCs impulsados por IA, con la ventaja de que su enfoque en eficiencia energética lo hace ideal para dispositivos portátiles que buscan maximizar la duración de la batería.
AMD: Ryzen con IA
AMD también se ha unido a esta carrera con sus procesadores Ryzen. Con la incorporación de su XDNA NPU en la serie Ryzen 8040, AMD ofrece 16 TOPS de rendimiento en IA.
Sin embargo, la compañía ya ha anunciado que sus futuros procesadores, como Strix Point, estarán equipados con NPUs capaces de alcanzar los 40 TOPS, lo que los convierte en competidores directos de Qualcomm e Intel.
PCs Copilot+: el futuro de la IA en Windows
Uno de los movimientos más emocionantes en esta evolución es el desarrollo de los PCs Copilot+ por parte de Microsoft.
Estos dispositivos, equipados con NPUs de alto rendimiento, forman parte de una nueva clase de hardware diseñado específicamente para ejecutar tareas intensivas de IA de manera local.
Windows 11 ya está optimizado para aprovechar las NPUs, lo que permite a los usuarios acceder a funciones avanzadas de IA sin depender de la nube.
Entre las funcionalidades destacadas de los PCs Copilot+ se incluyen:
- Windows Studio Effects: Una serie de efectos acelerados por IA, como el desenfoque de fondo, enfoque de voz y contacto visual, que mejoran la experiencia de videoconferencia.
- Super Resolution: Tecnología que utiliza IA para mejorar la calidad visual en videojuegos, haciéndolos más rápidos y mejorando los gráficos.
- Cocreación con Paint: Una nueva función que permite a los usuarios transformar imágenes en arte generado por IA directamente en el programa Microsoft Paint.
Microsoft también ha incluido un botón Copilot en algunos dispositivos, que facilita el acceso rápido a las funciones de IA, permitiendo a los usuarios realizar tareas como traducciones en tiempo real o generar imágenes sin tener que recurrir a servicios externos.
La expansión de las NPUs a otros sistemas operativos
Aunque Microsoft ha sido pionero en la integración de NPUs en su ecosistema Windows, es probable que esta tendencia se extienda a otros sistemas operativos en un futuro cercano.
macOS, por ejemplo, ya cuenta con una Neural Engine en sus chips M1, M2 y M3, aunque su rendimiento en IA es actualmente inferior al de las NPUs de Qualcomm y AMD.
Sin embargo, a medida que la demanda por cómputo local de IA siga creciendo, es casi seguro que veremos más dispositivos de Apple y otras compañías adoptando NPUs más potentes.
En resumen, las NPUs representan el siguiente gran salto en la evolución de los procesadores, y su integración en PCs, dispositivos móviles y otros sistemas marcará el comienzo de una nueva era para la computación local de IA.
Con la llegada de procesadores como los Lunar Lake de Intel y los movimientos de la competencia, estamos a punto de presenciar una revolución en cómo utilizamos la IA en nuestra vida diaria.