En este artículo:
- ¿Qué es la Unidad de procesamiento de visión Movidius Myriad X?
- ¿Qué versiones de Myriad X hay disponibles?
- El primer sistema de procesamiento de visión en chip
¿Qué es la Unidad de procesamiento de visión Movidius Myriad X?
El chip fue desarrollado por Movidius, una empresa adquirida por Intel en 2016, específicamente para el Neural Compute Engine que estaba creando. La idea detrás de este proyecto es ofrecer capacidades de IA a los dispositivos de uso cotidiano. Movidius ya ofrece el Fathom Compute Stick, que permite capacidades de aprendizaje profundo para dispositivos integrados. Intel quería llevar esto a un nuevo nivel, en el que los algoritmos de aprendizaje pudieran entrenarse para identificar imágenes y palabras o analizar secuencias de vídeo. Myriad X aporta estas capacidades a dispositivos como drones, cámaras, robots y auriculares de realidad virtual y realidad aumentada. La nueva VPU es un sistema en un chip de 16 nm que integra aceleradores de visión, aceleradores de imágenes y el Movidius Neural Compute Engine, así como 16 procesadores vectoriales SHAVE emparejados con una CPU. El pequeño chip es capaz de procesar hasta 4 billones de operaciones por segundo y tiene un TDP mínimo de 1,5 W.
¿Qué versiones de Myriad X hay disponibles?
Hay dos versiones de Myriad X: la MA2085, con memoria integrada e interfaz de memoria externa expuesta, y la MA2485, que integra 4 gigabits de memoria LPDDR4 integrada. La VPU admite interfaces PCIe, lo que permite a los fabricantes integrar varios chips en un solo dispositivo.
El primer sistema de procesamiento de visión en chip
Intel ha presentado la unidad de procesamiento de visión (VPU) Movidius Myriad X, que Intel ha calificado como el primer sistema en chip (SoC) de procesamiento de visión con un motor de cálculo neuronal dedicado para acelerar la inferencia de redes neuronales profundas en el extremo de la red.
La introducción del SoC sigue de cerca al lanzamiento en julio del Movidius Neural Compute Stick, una oferta basada en USB "para hacer aún más accesible el desarrollo de aplicaciones de aprendizaje profundo en hardware especializado"
El nuevo motor de cálculo neuronal de la VPU es un bloque de hardware en chip diseñado específicamente para ejecutar redes neuronales profundas a alta velocidad y bajo consumo. "Con la introducción del motor de cálculo neuronal, la arquitectura Myriad X es capaz de realizar 1 TOPS -trillón de operaciones por segundo basadas en el rendimiento máximo de cálculo en coma flotante del motor de cálculo neuronal- en inferencias de redes neuronales profundas", afirma Intel.
Steve Conway, de Hyperion Research, comenta la presentación: "La VPU de Intel es una parte esencial de la estrategia más amplia de la compañía para el aprendizaje profundo y otras metodologías de IA. La HPC se ha situado a la vanguardia de la I+D para la IA, y el procesamiento visual complementa la estrategia de HPC de Intel. En la próxima era de vehículos autónomos y tráfico en red, junto con millones de drones y sensores IoT, el procesamiento visual ultrarrápido será indispensable."
Además de su motor de computación neuronal, Myriad X combina imágenes, procesamiento visual e inferencia de aprendizaje profundo en tiempo real con:
"Procesadores vectoriales VLIW programables de 128 bits: Ejecute simultáneamente múltiples canalizaciones de aplicaciones de imagen y visión con la flexibilidad de 16 procesadores vectoriales optimizados para cargas de trabajo de visión por ordenador.
Mayor número de carriles MIPI configurables: Conecte hasta 8 cámaras RGB de resolución HD directamente a Myriad X con sus 16 carriles MIPI incluidos en su rico conjunto de interfaces, para soportar hasta 700 millones de píxeles por segundo de rendimiento de procesamiento de señales de imagen.
Aceleradores de visión mejorados: Utiliza más de 20 aceleradores de hardware para realizar tareas como el flujo óptico y la profundidad estereoscópica sin introducir sobrecarga computacional adicional.
2.5 MB de memoria homogénea en el chip: La arquitectura de memoria en chip centralizada permite hasta 450 GB por segundo de ancho de banda interno, lo que minimiza la latencia y reduce el consumo de energía al minimizar la transferencia de datos fuera del chip."
Remi El-Ouazzane, antiguo consejero delegado de Movidius y ahora vicepresidente y director general de Movidius, Intel New Technology Group, aparece citado en el comunicado de anuncio: "Dotar a los dispositivos de una inteligencia visual similar a la humana representa el próximo salto adelante en informática. Con Myriad X, estamos redefiniendo lo que significa una VPU cuando se trata de ofrecer toda la potencia de cálculo de IA y visión posible, todo ello dentro de las limitaciones energéticas y térmicas únicas de los dispositivos modernos no conectados."
La tecnología de redes neuronales y el desarrollo de productos avanzan rápidamente tanto en el frente del entrenamiento como en el de la inferencia. Parece probable que se produzca una proliferación de "unidades de procesamiento" relacionadas con la IA que abarquen desde productos a nivel de chip hasta productos a nivel de sistema a medida que la tecnología se afiance tanto dentro de los centros de datos como en los bordes de la red. Google, por supuesto, ha presentado la segunda generación de su unidad de procesamiento tensorial (TPU), Graph core tiene una unidad de procesamiento inteligente (IPU) y Fujitsu una unidad de aprendizaje profundo (DLU).
El-Ouazzane, ha escrito un blog sobre el nuevo SoC, en el que señala: "A medida que continuamos aprovechando la capacidad única de Intel para ofrecer soluciones de IA de extremo a extremo desde la nube hasta el borde, estamos obligados a ofrecer una hoja de ruta de tecnología VPU que continuará aumentando drásticamente el rendimiento de computación de borde sin sacrificar el consumo de energía. La próxima década marcará el nacimiento de nuevas categorías de dispositivos"
Según Intel, entre las principales características del stick de computación neuronal, dirigido a desarrolladores, se incluyen:
- Admite el flujo de trabajo de creación de perfiles, prototipos y ajuste de la CNN
- Todos los datos y la alimentación se suministran a través de un único puerto USB de tipo A
- Inferencia en tiempo real, en el dispositivo: no requiere conectividad a la nube
- Ejecute varios dispositivos en la misma plataforma para aumentar el rendimiento
- Implemente rápidamente modelos CNN existentes o redes entrenadas de forma exclusiva