public cloud compute  gpu

Des serveurs cloud taillés pour le traitement de tâches massivement parallèles

Les instances GPU intègrent des processeurs graphiques NVIDIA Tesla V100 pour répondre aux exigences du calcul massivement parallélisé. Intégrées à l’offre OVHcloud, elles profitent des avantages des ressources à la demande et de la facturation à l’heure. Ce sont des serveurs cloud adaptés aux besoins du machine learning ou du deep learning.

À base de NVIDIA Tesla V100

Ces GPU, parmi les plus puissant du marché, sont conçus pour l’exploitation en datacenter. Ils accélèrent les calculs dans les domaines de l’intelligence artificielle (AI) et du calcul graphique.

NVIDIA GPU Cloud

Afin d’offrir la meilleure expérience utilisateur, OVH et NVIDIA se sont associés pour fournir la plateforme accélérée par GPU la plus performante pour le deep learning, le calcul haute performance et l'intelligence artificielle (AI). Il s’agit du moyen le plus simple pour déployer et maintenir des conteneurs accélérés par le GPU, via un catalogue complet. En savoir plus.

De 1 à 4 cartes aux performances garanties

Les cartes Tesla sont directement fournies à l'instance via PCI Passthrough, sans couche de virtualisation, de sorte que toute leur puissance soit dédiée à votre utilisation. De plus, jusqu'à 4 cartes peuvent être raccordées afin de coupler leurs performances. Ainsi, le matériel délivre toute sa capacité de calcul à votre application.

Caractéristiques des NVIDIA Tesla V100

Performances avec NVIDIA GPU Boost

Bande passante d’interconnexion bidirectionnelle

Mémoire CoWoS Stacked HBM2
  • double précision, 7 téraFLOPS ;
  • simple précision, 14 téraFLOPS ;
  • deep learning, 112 téraFLOPS.
  • PCIe 32 Go/s.
  • capacité, 16 Go HBM2 ;
  • bande passante, 900 Go/s.

 

Cas d'utilisation

Reconnaissance d'image

Extraire les informations des images pour les classer, identifier un élément ou construire des documents plus riches est nécessaire dans bien des domaines. Imagerie médicale, réseaux sociaux, protection et sécurité du public… grâce aux frameworks comme Caffe2 couplés au GPU Tesla V100, cela devient possible et même facilement accessible.

Analyse de situation

Le temps réel s'impose dans certains cas, où une réaction appropriée est attendue face à des situations variées et imprévisibles. On retrouve ce genre de besoins pour les voitures autonomes ou l’analyse de trafic réseau internet, par exemple. C'est là que le deep learning intervient pour former des réseaux de neurones qui apprennent d'eux-mêmes à travers une étape d'entraînement.

Interaction humaine

Par le passé, l'homme a appris à communiquer avec les machines. Nous sommes maintenant dans l'ère où les machines apprennent à communiquer avec l'homme. Que ce soit par la reconnaissance vocale ou l'identification des émotions par le son et la vidéo, les outils comme TensorFlow permettent de repousser les limites de ces interactions et ouvrent une multitude de nouveaux usages.

Prêt à commencer ?

Créez un compte et lancez vos services dans la minute

Usage

1

Démarrer

Lancez votre instance en choisissant le modèle T1 qui vous convient ainsi que l'image NGC.

2

Configurer

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Utiliser

Votre framework AI est disponible pour commencer les calculs.

tarif public cloud

Facturation de GPU

Les instances GPU sont facturées comme toutes nos autres instances, en pay-as-you-go à la fin de chaque mois. Le prix dépend de la taille de l'instance démarrée et de la durée d'utilisation.