Red Hat, Inc. a lancé Red Hat Enterprise Linux AI (RHEL AI), une plateforme de modèles de base qui permet aux utilisateurs de développer, tester et déployer des modèles d'IA générative (GenAI) de manière plus transparente. RHEL AI réunit la famille de modèles de langage Granite Large Language Model (LLM) sous licence open source d'IBM Research, les outils d'alignement de modèles InstructLab basés sur la méthodologie LAB (Large-scale Alignment for chatBots) et une approche communautaire du développement de modèles dans le cadre du projet InstructLab. L'ensemble de la solution est présenté sous la forme d'une image RHEL optimisée et amorçable pour les déploiements de serveurs individuels dans le nuage hybride et est également inclus dans OpenShift AI, la plateforme hybride d'opérations d'apprentissage machine (MLOps) de Red Hat, pour l'exécution de modèles et d'InstructLab à l'échelle dans des environnements de clusters distribués.

Le lancement de ChatGPT a suscité un intérêt considérable pour la GenAI, et le rythme de l'innovation n'a fait que s'accélérer depuis. Les entreprises ont commencé à passer des premières évaluations des services GenAI à la mise en place d'applications basées sur l'IA. Un écosystème en pleine expansion d'options de modèles ouverts a stimulé l'innovation dans le domaine de l'IA et montré qu'il n'y aura pas "un seul modèle pour tous".

Les clients bénéficieront d'un éventail de choix pour répondre à des besoins spécifiques, qui seront tous accélérés par une approche ouverte de l'innovation. La mise en œuvre d'une stratégie d'IA ne se limite pas à la sélection d'un modèle ; les organisations technologiques ont besoin de l'expertise nécessaire pour adapter un modèle donné à leur cas d'utilisation spécifique, ainsi que pour faire face aux coûts importants de la mise en œuvre de l'IA. La rareté des compétences en science des données est aggravée par des exigences financières substantielles, notamment en ce qui concerne l'acquisition d'une infrastructure d'IA ou la consommation d'IA : L'acquisition d'une infrastructure d'IA ou la consommation de services d'IA Le processus complexe de réglage des modèles d'IA en fonction des besoins spécifiques de l'entreprise L'intégration de l'IA dans les applications d'entreprise La gestion du cycle de vie de l'application et du modèle.

Pour véritablement abaisser les barrières à l'entrée de l'innovation en matière d'IA, les entreprises doivent être en mesure d'élargir la liste des personnes pouvant travailler sur les initiatives d'IA tout en maîtrisant les coûts. Avec les outils d'alignement InstructLab, les modèles Granite et RHEL AI, Red Hat vise à appliquer les avantages de véritables projets open source - librement accessibles et réutilisables, transparents et ouverts aux contributions - à GenAI afin d'éliminer ces obstacles. IBM Research a créé la technique LAB (Large-scale Alignment for chatBots), une approche de l'alignement des modèles qui utilise la génération de données synthétiques guidée par la taxonomie et un nouveau cadre de réglage multiphase.

Cette approche rend le développement de modèles d'IA plus ouvert et accessible à tous les utilisateurs en réduisant la dépendance à l'égard des annotations humaines coûteuses et des modèles propriétaires. La méthode LAB permet d'améliorer les modèles en spécifiant les compétences et les connaissances liées à une taxonomie, en générant des données synthétiques à partir de ces informations à grande échelle afin d'influencer le modèle et en utilisant les données générées pour l'entraînement du modèle. Après avoir constaté que la méthode LAB pouvait contribuer à améliorer de manière significative la performance des modèles, IBM et Red Hat ont décidé de lancer InstructLab, une communauté open source construite autour de la méthode LAB et des modèles open source Granite d'IBM.

Le projet InstructLab vise à mettre le développement LLM entre les mains des développeurs en rendant la construction et la contribution à un LLM aussi simple que la contribution à n'importe quel autre projet open source. Dans le cadre du lancement d'InstructLab, IBM a également publié une famille de modèles de langue et de code anglais Granite. Ces modèles sont publiés sous une licence Apache avec une transparence sur les ensembles de données utilisés pour former ces modèles.

Le modèle de langue anglaise Granite 7B a été intégré à la communauté InstructLab, où les utilisateurs finaux peuvent apporter leurs compétences et leurs connaissances pour améliorer collectivement ce modèle, comme ils le feraient en contribuant à n'importe quel autre projet open source. Une prise en charge similaire des modèles de code Granite au sein d'InstructLab sera bientôt disponible. RHEL AI s'appuie sur cette approche ouverte de l'innovation en matière d'IA, en intégrant une version prête pour l'entreprise du projet InstructLab et du langage et des modèles de code Granite, ainsi que la première plateforme Linux d'entreprise au monde, afin de simplifier le déploiement dans un environnement d'infrastructure hybride.

Cela crée une plateforme de modèle de base pour introduire les modèles GenAI sous licence open source dans l'entreprise. RHEL AI comprend Des modèles de langage et de code Granite sous licence Open Source pris en charge et indemnisés par Red Hat. Une distribution d'InstructLab, prise en charge et soumise à un cycle de vie, qui fournit une solution évolutive et rentable pour améliorer les capacités LLM et rendre les contributions en matière de connaissances et de compétences accessibles à un éventail beaucoup plus large d'utilisateurs.

Instances d'exécution de modèle optimisées et amorçables avec les modèles Granite et les paquets d'outils InstructLab en tant qu'images RHEL amorçables via le mode image RHEL, y compris les bibliothèques d'exécution Pytorch optimisées et les accélérateurs pour AMD Instinct ? MI300X d'AMD, les GPU d'Intel et de NVIDIA et les cadres NeMo. La promesse d'un support et d'un cycle de vie complets pour les entreprises de Red Hat, qui commence par une distribution de produits d'entreprise de confiance, un support de production 24x7 et un support de cycle de vie étendu.

Lorsque les entreprises expérimentent et mettent au point de nouveaux modèles d'IA sur RHEL AI, elles disposent d'une rampe d'accès pour la mise à l'échelle de ces flux de travail avec Red Hat OpenShift AI, qui inclura RHEL AI, et où elles peuvent tirer parti du moteur Kubernetes d'OpenShift pour former et servir des modèles d'IA à l'échelle et des capacités MLOps intégrées d'OpenShift AI pour gérer le cycle de vie du modèle. Le studio d'entreprise watsonx.ai d'IBM, qui est construit sur Red Hat OpenShift AI aujourd'hui, bénéficiera de l'inclusion de RHEL AI dans OpenShift AI dès sa disponibilité, apportant des capacités supplémentaires pour le développement de l'IA d'entreprise, la gestion des données, la gouvernance des modèles et l'amélioration de la performance des prix.