VMware, Inc. a annoncé une collaboration avec Intel pour prolonger plus de deux décennies d'innovation afin d'aider les clients à accélérer l'adoption de l'intelligence artificielle (IA) et d'activer l'IA privée partout, dans les centres de données, les clouds publics et les environnements en périphérie.

VMware et Intel travaillent à la mise au point d'une pile d'IA validée conjointement qui permettra aux clients d'utiliser leur infrastructure VMware et Intel généraliste existante et des logiciels open source pour simplifier la création et le déploiement de modèles d'IA. L'association de VMware Cloud Foundation et de la suite logicielle Intel AI, des processeurs Intel® Xeon® avec accélérateurs AI intégrés et des GPU Intel® Max Series, fournira une pile AI validée et étalonnée pour la préparation des données, l'entraînement des modèles, le réglage fin et l'inférence afin d'accélérer la découverte scientifique et d'enrichir les services aux entreprises et aux particuliers. Plus de 300 000 clients déploient VMware Cloud dans le monde, et le logiciel de virtualisation VMware est déployé presque partout dans l'entreprise où des données sont créées, traitées ou consommées.

VMware Cloud est donc un moyen rapide d'apporter le calcul et les modèles accélérés par l'IA partout où les activités sont menées. De même, Intel propose des solutions ouvertes, évolutives et fiables à des centaines de milliers de clients. L'omniprésence des produits VMware et Intel dans les entreprises est une combinaison puissante qui augmentera l'accessibilité de la science des données et permettra aux organisations du monde entier d'adopter Private AI, une approche architecturale qui vise à équilibrer les gains commerciaux de l'IA avec les besoins pratiques en matière de confidentialité et de conformité.

VMware Private AI apporte de la capacité de calcul et des modèles d'IA là où les données de l'entreprise sont créées, traitées et consommées, que ce soit dans un cloud public, un centre de données d'entreprise ou à la périphérie, pour prendre en charge les charges de travail traditionnelles d'IA/ML et l'IA générative. VMware et Intel permettent d'affiner les modèles spécifiques à une tâche en quelques minutes, voire quelques heures, et d'inférer de grands modèles de langage à une vitesse supérieure à celle de la communication humaine en utilisant les données privées de l'entreprise du client. VMware et Intel permettent désormais d'affiner des modèles plus petits et plus économiques, plus faciles à mettre à jour et à entretenir sur des systèmes virtuels partagés, qui peuvent ensuite être renvoyés vers le pool de ressources informatiques lorsque les tâches d'IA par lots sont terminées.

Les cas d'utilisation tels que la génération de code assistée par l'IA, les systèmes de recommandation des centres de service client expérientiels et l'analyse statistique classique des machines peuvent désormais être hébergés sur les mêmes serveurs à usage général que ceux qui exécutent l'application. VMware et Intel conçoivent une architecture de référence qui associe la suite logicielle d'IA d'Intel, les processeurs Intel® Xeon® et les GPU de centre de données à VMware Cloud Foundation pour permettre aux clients de créer et de déployer des modèles d'IA privés sur l'infrastructure dont ils disposent, réduisant ainsi le coût total de possession et répondant aux préoccupations en matière de durabilité de l'environnement. Cette architecture de référence VMware Private AI avec Intel AI comprendra : Les processeurs Intel® Xeon® de 4e génération avec Intel® Advanced Matrix Extensions (Intel® AMX) offrent jusqu'à 10 fois des améliorations significatives des performances prêtes à l'emploi en utilisant des frameworks et des bibliothèques standard de l'industrie, des outils de productivité de bout en bout pour la science des données et des modèles d'IA optimisés.

Intel® Data Center GPU Max contient jusqu'à 128 c?urs Xe et constitue le bloc de calcul GPU fondamental d'Intel destiné aux charges de travail d'IA les plus exigeantes. Les GPU de la série Intel Max seront disponibles dans plusieurs facteurs de forme pour répondre aux différents besoins des clients. La suite logicielle AI d'Intel comprend un logiciel open source de bout en bout et des composants de licence optionnels pour permettre aux développeurs d'exécuter des flux de travail de pipeline AI complets, de la préparation des données à l'inférence en passant par le réglage fin, d'accélérer la mise à l'échelle multi-n?uds et de déployer l'IA sur l'infrastructure informatique de l'entreprise.

Le cadre ouvert oneAPI permet le développement de logiciels agnostiques aux processeurs et aux accélérateurs matériels, permettant aux développeurs d'écrire du code une seule fois et de l'exécuter sur différentes architectures, éliminant ainsi le besoin de bases de code multiples et de langages spécialisés. Les extensions Transformer d'Intel et l'intégration profonde de PyTorch Extension avec les bibliothèques open source Hugging Face favorites des développeurs fournissent des recettes d'optimisation automatisées pour affiner et compresser les modèles en vue d'une inférence efficace. VMware Cloud Foundation apporte une infrastructure d'entreprise cohérente, une simplicité opérationnelle et une sécurité renforcée à VMware Private AI grâce à des fonctionnalités telles que : L'architecture de stockage VMware vSAN Express, qui offre jusqu'à 30 % de performances supplémentaires et une surcharge minimale pour des fonctionnalités importantes telles que le chiffrement pour les charges de travail d'optimisation et d'inférence AI/ML à forte intensité d'E/S.

vSphere Distributed Resources Scheduler permet d'utiliser efficacement la capacité de calcul disponible pour la formation et l'inférence des modèles d'IA, en exploitant les mêmes clusters que ceux utilisés par d'autres applications d'IA, ce qui maximise la capacité et réduit le coût total de possession. VMware NSX pour créer des capacités de micro-segmentation et de protection avancée contre les menaces. Démarrage sécurisé et TPM virtuel pour assurer la confidentialité des modèles et des données.