Dans cet article:
- Qu'est-ce que l'unité de traitement de la vision Movidius Myriad X ?
- Quelles sont les versions du Myriad X disponibles ?
- Le premier système de traitement de la vision sur puce
Qu'est-ce que l'unité de traitement de la vision Movidius Myriad X ?
La puce a été développée par Movidius, une société acquise par Intel en 2016, spécifiquement pour le moteur de calcul neuronal qu'elle était en train de créer. L'idée derrière ce projet est d'offrir des capacités d'IA aux appareils de tous les jours. Movidius propose déjà le Fathom Compute Stick, qui permet aux appareils embarqués de bénéficier de capacités d'apprentissage en profondeur. Intel souhaitait passer à un niveau supérieur, où les algorithmes d'apprentissage peuvent s'entraîner à identifier des images et des mots ou à analyser des flux vidéo. Le Myriad X apporte de telles capacités à des appareils tels que les drones, les caméras, les robots et les casques VR / AR. Le nouveau VPU est un système sur puce de 16 nm qui intègre des accélérateurs de vision, des accélérateurs d'imagerie et le moteur de calcul neuronal Movidius, ainsi que 16 processeurs vectoriels SHAVE associés à un processeur central. La petite puce est capable de traiter jusqu'à 4 billions d'opérations par seconde et son TDP est de 1,5 W.
Quelles sont les versions du Myriad X disponibles ?
Il existe deux versions du Myriad X : le MA2085, qui dispose d'une mémoire intégrée et d'une interface de mémoire externe exposée, et le MA2485, qui intègre 4 gigabits de mémoire LPDDR4 intégrée. Le VPU supporte les interfaces PCIe, ce qui permet aux OEM d'intégrer plusieurs puces dans un seul appareil.
Le premier système de traitement de la vision sur puce
Intel a présenté l'unité de traitement de la vision (VPU) Movidius Myriad X, qu'il a qualifiée de premier système sur puce (SoC) de traitement de la vision doté d'un moteur de calcul neuronal dédié pour accélérer l'inférence des réseaux neuronaux profonds à la périphérie du réseau.
L'introduction du SoC suit de près la sortie de la clé de calcul neuronal Movidius en juillet, une offre basée sur USB "pour rendre le développement d'applications d'apprentissage profond sur du matériel spécialisé encore plus largement disponible"
Le nouveau moteur de calcul neuronal du VPU est un bloc matériel sur puce spécialement conçu pour faire fonctionner des réseaux neuronaux profonds à grande vitesse et à faible consommation d'énergie. "Avec l'introduction du moteur de calcul neuronal, l'architecture Myriad X est capable d'atteindre 1 TOPS (trillion d'opérations par seconde basé sur le débit maximal de calcul en virgule flottante du moteur de calcul neuronal) de performance de calcul sur les inférences des réseaux neuronaux profonds", a déclaré Intel.
Steve Conway, d'Hyperion Research, a commenté cette introduction en ces termes : "Le VPU d'Intel est un élément essentiel de la stratégie globale de l'entreprise en matière d'apprentissage profond et d'autres méthodologies d'intelligence artificielle. Le HPC est devenu le fer de lance de la R&D en matière d'IA, et le traitement visuel complète la stratégie HPC d'Intel. Dans l'ère à venir des véhicules autonomes et de la circulation en réseau, ainsi que des millions de drones et de capteurs IoT, le traitement visuel ultrarapide sera indispensable."
En plus de son moteur de calcul neuronal, Myriad X combine l'imagerie, le traitement visuel et l'inférence d'apprentissage profond en temps réel avec :
"Des processeurs vectoriels VLIW 128 bits programmables : Exécutez simultanément plusieurs pipelines d'applications d'imagerie et de vision grâce à la flexibilité de 16 processeurs vectoriels optimisés pour les charges de travail de vision par ordinateur.
Augmentation des voies MIPI configurables : Connectez jusqu'à 8 caméras RVB de résolution HD directement à Myriad X grâce à ses 16 voies MIPI incluses dans son riche ensemble d'interfaces, pour supporter jusqu'à 700 millions de pixels par seconde de débit de traitement de signal d'image.
Accélérateurs de vision améliorés : Utilisez plus de 20 accélérateurs matériels pour effectuer des tâches telles que le flux optique et la profondeur stéréo sans introduire de surcharge de calcul supplémentaire.
2.5 Mo de mémoire homogène sur puce : L'architecture centralisée de la mémoire sur puce permet d'atteindre une bande passante interne de 450 Go par seconde, ce qui réduit la latence et la consommation d'énergie en minimisant le transfert de données hors puce."
Remi El-Ouazzane, ancien PDG de Movidius et désormais vice-président et directeur général de Movidius, Intel New Technology Group, est cité dans le communiqué de presse : "Permettre aux appareils de disposer d'une intelligence visuelle semblable à celle de l'homme représente le prochain bond en avant dans le domaine de l'informatique. Avec Myriad X, nous redéfinissons ce que signifie un VPU lorsqu'il s'agit de fournir le plus de puissance de calcul possible en matière d'IA et de vision, tout en respectant les contraintes énergétiques et thermiques uniques des appareils modernes non connectés"
La technologie des réseaux neuronaux et le développement de produits évoluent rapidement sur les fronts de la formation et de l'inférence. Il est probable que l'on assistera à une prolifération d'"unités de traitement" liées à l'IA, allant de la puce au système, au fur et à mesure que la technologie s'imposera dans les centres de données et à la périphérie des réseaux. Google, bien sûr, a introduit la deuxième génération de son unité de traitement Tensor (TPU), Graph core a une unité de traitement intelligente (IPU), et Fujitsu a une unité d'apprentissage profond (DLU).
El-Ouazzane, a écrit un blog sur le nouveau SoC, dans lequel il note, "Comme nous continuons à tirer parti de la capacité unique d'Intel à fournir des solutions d'IA de bout en bout, du cloud à la périphérie, nous sommes tenus de fournir une feuille de route technologique VPU qui continuera à augmenter considérablement les performances de calcul de la périphérie sans sacrifier la consommation d'énergie. Cette prochaine décennie marquera la naissance de toutes nouvelles catégories d'appareils."
Selon Intel, les principales caractéristiques de la clé de calcul neuronal, destinée aux développeurs, sont les suivantes :
- Prise en charge du profilage, du prototypage et de la mise au point du CNN
- Toutes les données et l'alimentation sont fournies par un seul port USB de type A
- Inférence en temps réel, sur l'appareil - la connectivité au nuage n'est pas nécessaire
- Faire fonctionner plusieurs appareils sur la même plateforme pour améliorer les performances
- Déploiement rapide de modèles CNN existants ou de réseaux formés de manière unique