Intel a sorti cette semaine une nouvelle version de son OpenVINO avant
Regarde cette video sur Youtube.
API mise à jour et plus propre
- Moins de changements de code lors de la transition depuis les frameworks : les formats de précision sont désormais préservés avec moins de conversion, et les modèles n’ont plus besoin de conversion de mise en page.
- Un chemin plus simple vers une IA plus rapide : les paramètres de l’API de Model Optimizer ont été réduits pour minimiser la complexité.
- Entraînez-vous en pensant à l’inférence : les extensions de formation OpenVINO et le cadre de compression de réseau neuronal (NNCF) offrent des modèles de formation de modèles facultatifs qui fournissent des améliorations de performances supplémentaires avec une précision préservée pour la reconnaissance des actions, la classification des images, la reconnaissance vocale, la réponse aux questions et la traduction.
Prise en charge plus large des modèles
- Prise en charge plus large des modèles de programmation en langage naturel et des cas d’utilisation tels que la synthèse vocale et la reconnaissance vocale : la prise en charge des formes dynamiques permet de mieux activer la famille BERT et les transformateurs Hugging Face.
- Optimisation et prise en charge de la vision par ordinateur avancée : la famille de masques R-CNN est désormais plus optimisée et la prise en charge des modèles à double précision (FP64) a été introduite.
- Prise en charge directe des modèles PaddlePaddle : Model Optimizer peut désormais importer directement des modèles PaddlePaddle sans conversion préalable vers un autre framework.
Portabilité et performances
- Utilisation plus intelligente des appareils sans modifier le code : le mode d’appareil AUTO découvre automatiquement la capacité d’inférence système disponible en fonction des exigences du modèle, de sorte que les applications n’ont plus besoin de connaître leur environnement de calcul à l’avance.
- Optimisation experte intégrée à la boîte à outils : grâce à la fonctionnalité de mise en lot automatique, les performances de l’appareil sont augmentées, en ajustant et en personnalisant automatiquement les paramètres de débit appropriés pour la configuration du système des développeurs et le modèle d’apprentissage en profondeur. Le résultat est un parallélisme évolutif et une utilisation optimisée de la mémoire.
- Conçu pour Intel Core de 12e génération : prend en charge l’architecture hybride pour offrir des améliorations pour une inférence haute performance sur le CPU et le GPU intégré.
La source : Intel

















































