Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Cadres et Régions AWS pris en charge
Avant d’utiliser la bibliothèque SageMaker de parallélisme des modèles v2 (SMP v2), vérifiez les cadres et les types d’instances pris en charge, et déterminez si les quotas sont suffisants dans votre compte AWS et dans la Région AWS.
Note
Pour vérifier les dernières mises à jour et notes de mises à jour de la bibliothèque, consultez Notes de mise à jour de la bibliothèque SageMaker de parallélisme des modèles.
Cadres pris en charge
SMP v2 prend en charge les cadres de deep learning suivants et est disponible via les conteneurs Docker SMP et un canal Conda SMP. Si vous utilisez les classes d’estimateur de cadre du kit SageMaker Python SDK et que vous spécifiez la configuration de distribution pour utiliser SMP v2, SageMaker AI récupère automatiquement les conteneurs Docker SMP. Pour utiliser SMP v2, nous vous recommandons de toujours mettre à jour le kit SageMaker Python SDK dans votre environnement de développement.
Versions PyTorch prises en charge par la bibliothèque SageMaker de parallélisme des modèles
| Version PyTorch | Version de la bibliothèque de parallélisme de modèles SageMaker | URI d’image Docker SMP | URI d’image |
|---|---|---|---|
| v2.5.1 | smdistributed-modelparallel==v2.8.0 |
658645717510.dkr.ecr. |
https://sagemaker-distributed-model-parallel.s3. |
| v2.4.1 | smdistributed-modelparallel==v2.7.0 |
658645717510.dkr.ecr. |
https://sagemaker-distributed-model-parallel.s3. |
smdistributed-modelparallel==v2.6.1 |
N/A | ||
smdistributed-modelparallel==v2.6.0 |
N/A | ||
| v2.3.1 | smdistributed-modelparallel==v2.5.0 |
658645717510.dkr.ecr. |
N/A |
smdistributed-modelparallel==v2.4.0 |
|||
| v2.2.0 | smdistributed-modelparallel==v2.3.0 |
658645717510.dkr.ecr. |
N/A |
smdistributed-modelparallel==v2.2.0 |
|||
| v2.1.2 | smdistributed-modelparallel==v2.1.0 |
658645717510.dkr.ecr. |
N/A |
| v2.0.1 | smdistributed-modelparallel==v2.0.0 |
658645717510.dkr.ecr. |
N/A |
Canal Conda SMP
Le compartiment Amazon S3 suivant est le canal Conda public hébergé par l’équipe du service SMP. Si vous souhaitez installer la bibliothèque SMP v2 dans un environnement tel que les clusters SageMaker HyperPod, utilisez ce canal Conda pour effectuer cette opération correctement.
https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/smp-v2/
Pour plus d’informations sur les canaux Conda en général, consultez Channels
Note
Pour trouver les versions précédentes de la bibliothèque SMP v1.x et les DLC pré-empaquetés, consultez Cadres pris en charge dans la documentation SMP v1.
Utilisation de SMP v2 avec des bibliothèques open source
La bibliothèque SMP v2 fonctionne avec d’autres bibliothèques open source basées sur PyTorch, telles que PyTorch Lightning, Transformeurs Hugging Face et Hugging Face Accelerate, car SMP v2 est compatible avec les API PyTorch FSDP. Si vous avez d’autres questions sur l’utilisation de la bibliothèque SMP avec d’autres bibliothèques tierces, contactez l’équipe du service SMP à l’adresse sm-model-parallel-feedback@amazon.com.
Régions AWS
SMP v2 est disponible dans les Régions AWS suivantes. Si vous souhaitez utiliser les URI d’image Docker SMP ou le canal Conda SMP, consultez la liste suivante et choisissez la Région AWS correspondant à la vôtre, puis mettez à jour l’URI d’image ou l’URL de canal en conséquence.
-
ap-northeast-1
-
ap-northeast-2
-
ap-northeast-3
-
ap-south-1
-
ap-southeast-1
-
ap-southeast-2
-
ca-central-1
-
eu-central-1
-
eu-north-1
-
eu-west-1
-
eu-west-2
-
eu-west-3
-
sa-east-1
-
us-east-1
-
us-east-2
-
us-west-1
-
us-west-2
Types d’instance pris en charge
SMP v2 requiert l’un des types d’instances de ML suivants.
| Type d’instance |
|---|
ml.p4d.24xlarge |
ml.p4de.24xlarge |
ml.p5.48xlarge |
ml.p5e.48xlarge |
Astuce
À partir de SMP v2.2.0, qui prend en charge PyTorch v2.2.0 et versions ultérieures, l’Entraînement de précision mixte avec des FP8 instances P5 à l'aide de Transformer Engine est disponible.
Pour les spécifications des types d’instances de machine learning SageMaker en général, consultez la section Calcul accéléré sur la page Types d’instances Amazon EC2
Si vous rencontrez un message d’erreur semblable au suivant, suivez les instructions de la section Demande d’augmentation de quota dans le Guide de l’utilisateur AWS Service Quotas.
ResourceLimitExceeded: An error occurred (ResourceLimitExceeded) when calling the CreateTrainingJob operation: The account-level service limit 'ml.p3dn.24xlarge for training job usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please contact AWS support to request an increase for this limit.