OVHcloud aide les organisations à exécuter le travail IA avec des GPU dernière génération
OVHcloud continue de développer son portefeuille de solutions IA avec l’ajout de nouvelles gammes de GPU NVIDIA participant à sa vision stratégique pour l’intelligence artificielle. Reconnaissant l’impact considérable que l’IA aura dans les années à venir, OVHcloud se fixe pour mission d’aider ses clients à développer leur activité autour d’un écosystème de solutions IA innovantes, simples et abordables, basées sur des modèles transparents, éthiques et ouverts qui préservent la confidentialité des données.
Fort de plus d’une vingtaine d’années d’expertise en infrastructure, et s’appuyant sur un modèle industriel unique intégré verticalement, OVHcloud développe des infrastructures conçues pour l’IA et reposant sur de nouveaux GPU, les meilleurs de leur catégorie, allant jusqu’aux GPUs Tensor Core NVIDIA H100 et A100. Les clients pourront choisir parmi un éventail de solutions pour propulser leurs scénarii d’apprentissage automatique, y compris les modèles de langage de grande taille (LLM).
Complétant les très compétitives et très appréciées NVIDIA V100 et NVIDIA V100S d’ancienne génération, le Groupe annonce de nouvelles offres basées sur les GPU suivants : NVIDIA H100, NVIDIA A100, NVIDIA L40S et NVIDIA L4 avec un déploiement effectif dans les semaines à venir.
Nouvelles instances GPU avec NVIDIA A100 pour l’entrainement en apprentissage profond et l’inférence
Les nouvelles instances NVIDIA A100 80 Go sont disponibles immédiatement et permettent aux spécialistes de l’IA d’exécuter des projets complexes sur les unités hautement spécialisées de NVIDIA, les Tensor Cores. Avec des capacités exceptionnelles en entraînement pour l’apprentissage profond, le A100 est idéalement placé pour l’inférence grâce à diverses optimisations apportées pour ces charges de travail intégrant les projets LLM. Le calcul haute performance est un autre domaine où les instances GPU A100 contribueront à la prochaine vague de découvertes au travers de simulations avancées, grâce notamment à leurs performances en calcul double précision et à la mémoire à haute bande passante.
Les instances A100 Public Cloud peuvent être configurées comme A100-180 avec 1x A100, 15 vCore et 180 Go de RAM, A100-360 avec 2x A100, 30 vCore et 360 Go de RAM et A100-720 avec 4x A100, 60 vCore et 720 Go de RAM.
Nouvelles instances GPU avec NVIDIA H100 pour l’entrainement en apprentissage profond
OVHcloud annonce également de nouvelles instances GPU sur base de H100 bénéficiant des dernières avancées de NVIDIA avec une puissance de calcul de 26 petaFLOPS (FP64) par GPU en PCIe. Conçu spécifiquement pour les modèles IA les plus exigeants, le NVIDIA H100 est le choix de référence pour innover en IA qu’il s’agisse d’accélérer les LLM avec le Transformer Engine ou de créer des applicatifs d’IA générative.
Pour les cas d’usage les plus élaborés, notamment en matière de fine-tuning ou d’entrainement, le Groupe proposera des solutions basées sur les NVIDIA H100 SXM. Avec une puissance de calcul de 67 TFlops (FP64) et une bande passante GPU supérieure, cette offre démontrera toute la puissance de l’architecture de GPU NVIDIA Hopper.
Nouvelles instances GPU et serveurs Bare Metal avec NVIDIA L4 et L40S
Le groupe annonce également de nouvelles instances GPU avec le GPU NVIDIA L4 armé de 24 Go de mémoire. Le L4 est basé sur l’architecture GPU NVIDIA Ada Lovelace et se présente comme un GPU universel apte à tous types de charges de travail avec des capacités IA et vidéo améliorées. Cette puce offre des ressources de calcul optimales pour le graphisme, la simulation ainsi que les scénarii d’analyse de données et de science des données.
Le GPU NVIDIA L40S lancé récemment par NVIDIA rejoint les instances GPU proposées par le groupe en configuration 48 Go de mémoire. Le NVIDIA L40S profite de la quatrième génération de Tensor Cores et des Transformer Engine FP8 pour de solides performances dans les tâches relatives à l’IA comme l’entraînement ou l’inférence.
Ces nouvelles références de GPU seront disponibles au travers d’instances Public Cloud mais aussi dans des serveurs dédiés Bare Metal : le L4 rejoindra la gamme SCALE-GPU et le L40S la gamme HGR-AI.
De solides bases pour propulser l’IA des clients
Grâce à un choix unique d’architectures GPU NVIDIA, OVHcloud propose dorénavant une infrastructure pensée pour l’IA permettant aux ingénieurs, chercheurs, data scientists et data practitionners de mettre à profit l’élasticité du cloud pour répondre à leurs besoins en matière d’entrainement ou d’inférence.
OVHcloud ajoutera graduellement des options NVIDIA H100 et A100 à son ensemble de solutions IA PaaS conçues pour accompagner le cycle de vie de la donnée : AI Notebooks, AI Training et AI Deploy. Les solutions IA OVHcloud constituent une puissante boîte à outils, facile à utiliser et permettant d’explorer les données, d’entrainer les modèles ou de les servir en production.
« L’IA va sérieusement transformer l’activité de nos clients et nous sommes idéalement positionnés pour les aider à faciliter cette transition vers une nouvelle ère. Avec une infrastructure IA unique qui tire profit de nos expertises et des GPU les plus recherchés, nous proposons des performances de classe mondiale avec tous les avantages du cloud. Nos clients des solutions IA bénéficieront également de ces nouveautés avec nos offres faciles d’emploi que sont AI Notebooks, AI Training et AI Deploy. » a déclaré Michel Paulin, Directeur Général OVHcloud.
« Les entreprises recherchent des services et des options de cloud flexibles pour stimuler l’innovation en interne et aider leurs clients à adopter de nouvelles applications d’IA générative. » indique Matthew McGrigg, director of global development for cloud partners pour NVIDIA. « En offrant une gamme complète de solutions de calcul accélérées par NVIDIA, OVHcloud supporte toute une variété de charges de travail allant de l’inférence à l’entraînement. »
Suivant une feuille de route solide dédiée à l’IA, OVHcloud annoncera dans les semaines à venir une nouvelle vague d’innovations dédiées à l’IA et conçues pour aider ses clients à naviguer dans ce nouveau paradigme.
Prix et disponibilité
Les instances GPU basées sur les NVIDIA A100 sont maintenant disponibles sur Cloud Public à partir de 4,07 CAD l’heure. Les instances NVIDIA H100 PCIe dans l’univers Cloud Public seront proposées durant l’automne avec une pré-réservation qui démarre dès à présent. Les clients intéressés par les prochaines offres NVIDIA H100 SXM peuvent dès à présent solliciter un devis personnalisé.
Les instances GPU NVIDIA L4 et L40S seront disponibles dans le courant du mois d’octobre. De nouveaux serveurs Bare Metal disposant des NVIDIA L4 et L40S sont attendus pour un lancement cet automne.