Red Hat, Inc. et Run:ai ont annoncé une collaboration visant à apporter les capacités d'allocation de ressources de Run:ai à Red Hat OpenShift AI. En rationalisant les opérations d'IA et en optimisant l'infrastructure sous-jacente, cette collaboration permet aux entreprises de tirer le meilleur parti des ressources d'IA, en maximisant les flux de travail pilotés par l'homme et le matériel, sur une plateforme MLOps de confiance pour la création, le réglage, le déploiement et la surveillance à l'échelle des applications et des modèles basés sur l'IA. Les GPU sont les moteurs de calcul des workflows d'IA, permettant l'entraînement des modèles, l'inférence, l'expérimentation et bien plus encore.

Cependant, ces processeurs spécialisés peuvent être coûteux, en particulier lorsqu'ils sont utilisés pour des tâches de formation et d'inférence distribuées. Red Hat et Run:ai s'efforcent de répondre à ce besoin critique d'optimisation des ressources GPU avec l'opérateur OpenShift certifié de Run:ai sur Red Hat OpenShift AI, qui aide les utilisateurs à mettre à l'échelle et à optimiser leurs charges de travail d'IA où qu'elles se trouvent. La plateforme d'orchestration de calcul cloud-native de Run:ai sur Red Hat OpenShift AI permet de : Résoudre les problèmes de planification des GPU pour les charges de travail d'IA avec un planificateur de charge de travail dédié pour prioriser plus facilement les charges de travail critiques et confirmer que des ressources suffisantes sont allouées pour prendre en charge ces charges de travail.

Utilisez les GPU fractionnés et les capacités de surveillance pour allouer dynamiquement les ressources en fonction de priorités et de politiques prédéfinies et améliorer l'efficacité de l'infrastructure. Améliorez le contrôle et la visibilité sur l'infrastructure GPU partagée pour faciliter l'accès et l'allocation des ressources au sein des équipes informatiques, de science des données et de développement d'applications. L'opérateur OpenShift certifié de Run:ai est disponible dès maintenant. À l'avenir, Red Hat et Run:ai prévoient de continuer à développer cette collaboration avec des capacités d'intégration supplémentaires pour Run:ai sur Red Hat OpenShift AI.

L'objectif est de favoriser des expériences client plus transparentes et d'accélérer le transfert des modèles d'IA dans les flux de travail de production avec une cohérence encore plus grande.