Avec de nouvelles options de déploiement, un système de point de contrôle amélioré et une détection de matériel optimisée, cette mise à jour facilite le développement de modèles de langage de grande taille et simplifie les charges de travail d’IA multi-cloud.

Red Hat a officiellement lancé la version 1.2 de Red Hat Enterprise Linux AI (RHEL AI), propulsant sa plateforme de modèle fondamental pour l’IA générative (GenAI). RHEL AI se concentre sur le développement, le test et l’exécution de modèles de langage de grande taille (LLM) pour des applications d’entreprise, utilisant les modèles Granite et les outils InstructLab, distincts du système d’exploitation RHEL classique.

Cette version inaugure le support des GPU AMD Instinct pour la première fois. Grâce à l’intégration de la pile de calcul open-source ROCm, les entreprises peuvent exploiter les GPUs MI300X pour l’entraînement et l’inférence, ainsi que les MI210 pour des charges de travail d’inférence uniquement. Cette addition offre une plus grande flexibilité en complément des opérations basées sur les GPU et CPU NVIDIA existants.

RHEL AI est désormais disponible sur Microsoft Azure et Google Cloud Platform, ce qui permet aux entreprises de déployer facilement des instances de GPU pour l’IA. Ce soutien au cloud permet aux entreprises de faire fonctionner des charges de travail d’IA en toute transparence dans des environnements multi-cloud. Les utilisateurs peuvent également le déployer sur les serveurs Lenovo ThinkSystem SR675 V3. Les options de déploiement préchargées simplifient le processus d’installation, garantissant une meilleure compatibilité avec les accélérateurs matériels et une amélioration de l’efficacité globale. Une nouvelle fonction de point de contrôle périodique permet aux utilisateurs d’enregistrer de longues sessions d’entraînement à des intervalles spécifiques, ce qui garantit que les modèles peuvent être affinés à partir du dernier point de contrôle, améliorant ainsi l’efficacité et économisant les ressources computationnelles.

L’interface en ligne de commande ilab inclut désormais la détection automatique des GPUs et autres accélérateurs matériels. Cette fonctionnalité minimise les efforts de configuration manuelle, optimisant ainsi les performances en s’alignant sur le matériel disponible. De plus, elle introduit le Fully Sharded Data Parallel (FSDP) via PyTorch, permettant un entraînement de modèles distribué en fragmentant les paramètres, gradients et états des optimiseurs. Cette fonctionnalité réduit considérablement le temps d’entraînement pour des modèles complexes, améliorant ainsi la productivité globale.

Notre Opinion

Dans un paysage technologique en constante évolution, la mise à jour de RHEL AI constitue un pas en avant significatif vers l’amélioration des capacités des entreprises en matière d’intelligence artificielle. L’adoption des GPU AMD et l’optimisation des processus de déploiement reflètent une vision stratégique qui pourrait bien redéfinir les standards de l’IA générative. À mesure que les entreprises cherchent à tirer parti de modèles de langage sophistiqués, la simplification des infrastructures de déploiement jouera un rôle clé dans l’accélération de l’innovation. L’approche de Red Hat pour intégrer des fonctionnalités qui augmentent l’efficacité tout en minimisant la complexité opérationnelle mérite d’être suivie de près, car elle pourrait influencer d’autres fournisseurs à adopter des pratiques similaires.



  • Source image(s) : www.opensourceforu.com
  • Source : https://www.opensourceforu.com/2024/10/next-gen-ai-platform-supporting-gpus/

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *