Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Cadres et régions AWS pris en charge
Avant d’utiliser le chargeur de données de l’analyse intelligente SageMaker, vérifiez que le cadre de votre choix est pris en charge, que les types d’instances sont disponibles dans votre compte AWS et que votre compte AWS se trouve dans l’une des AWS prises en charge.
Note
L’analyse intelligente SageMaker prend en charge l’entraînement des modèles PyTorch grâce au parallélisme de données traditionnelles et au parallélisme de données distribuées, ce qui permet de créer des répliques de modèles chez tous les GPU et d’utiliser l’opération AllReduce. Elle ne fonctionne pas avec les techniques de parallélisme des modèles, notamment le parallélisme des données partitionnées. L’analyse intelligente SageMaker étant adaptée aux tâches de parallélisme des données, assurez-vous que le modèle que vous entraînez s’adapte à la mémoire de chaque GPU.
Cadres pris en charge
L’analyse intelligente SageMaker prend en charge les cadres de deep learning suivants et est disponible via AWS Deep Learning Containers.
Rubriques
PyTorch
| Cadre | Version du cadre | URI des Deep Learning Containers |
|---|---|---|
| PyTorch | 2.1.0 |
|
Pour plus d’informations sur les conteneurs prédéfinis, consultez Conteneurs SageMaker AI Framework
Régions AWS
Les conteneurs fournis avec la bibliothèque d’analyse intelligente SageMaker
Types d’instances
Vous pouvez utiliser l’analyse intelligente SageMaker pour toutes les tâches d’entraînement PyTorch, quel que soit le type d’instance. Nous vous recommandons d’utiliser des instances P4d, P4de ou P5.