Unterstützte Frameworks und AWS-Regionen - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Unterstützte Frameworks und AWS-Regionen

Bevor Sie die SageMaker-Modellparallelismus-Bibliothek verwenden, überprüfen Sie die unterstützten Frameworks und Instance-Typen und stellen Sie fest, ob in Ihrem AWS-Konto und AWS-Region genügend Kontingente vorhanden sind.

Anmerkung

Die neuesten Updates und Versionshinweise der Bibliothek finden Sie in den Versionshinweisen zu SageMaker Model Parallel in der SageMaker Python SDK-Dokumentation.

Unterstützte Frameworks

Die Modellparallelitätsbibliothek von SageMaker unterstützt die folgenden Deep-Learning-Frameworks und ist in AWS Deep Learning Containers (DLC) verfügbar oder als Binärdatei herunterladbar.

Von SageMaker AI und der SageMaker-AI-Modellparallelitätsbibliothek unterstützte PyTorch-Versionen

PyTorch-Version Version der Bibliothek für Modellparallelität in SageMaker smdistributed-modelparallel integrierter DLC-Image-URI URL der Binärdatei**
v2.0.0 smdistributed-modelparallel==v1.15.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:2.0.0-gpu-py310-cu118-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-2.0.0/build-artifacts/2023-04-14-20-14/smdistributed_modelparallel-1.15.0-cp310-cp310-linux_x86_64.whl
v1.13.1 smdistributed-modelparallel==v1.15.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.13.1-gpu-py39-cu117-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.13.1/build-artifacts/2023-04-17-15-49/smdistributed_modelparallel-1.15.0-cp39-cp39-linux_x86_64.whl
v1.12.1 smdistributed-modelparallel==v1.13.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.12.1-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.12.1/build-artifacts/2022-12-08-21-34/smdistributed_modelparallel-1.13.0-cp38-cp38-linux_x86_64.whl
v1.12.0 smdistributed-modelparallel==v1.11.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.12.0/build-artifacts/2022-08-12-16-58/smdistributed_modelparallel-1.11.0-cp38-cp38-linux_x86_64.whl
v1.11.0 smdistributed-modelparallel==v1.10.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.11.0-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.11.0/build-artifacts/2022-07-11-19-23/smdistributed_modelparallel-1.10.0-cp38-cp38-linux_x86_64.whl
v1.10.2 smdistributed-modelparallel==v1.7.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.10.2-gpu-py38-cu113-ubuntu20.04-sagemaker

-
v1.10.0 smdistributed-modelparallel==v1.5.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.10.0-gpu-py38-cu113-ubuntu20.04-sagemaker

-
v1.9.1 smdistributed-modelparallel==v1.4.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.9.1-gpu-py38-cu111-ubuntu20.04

-
v1.8.1* smdistributed-modelparallel==v1.6.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.8.1-gpu-py36-cu111-ubuntu18.04

-
Anmerkung

Die Modellparallelismusbibliothek von SageMaker v1.6.0 und höher bietet erweiterte Funktionen für PyTorch. Weitere Informationen finden Sie unter Kernfunktionen der SageMaker-Modell-Parallelitätsbibliothek.

** Die URLs der Binärdateien dienen der Installation der SageMaker-Modellparallelismus-Bibliothek in benutzerdefinierten Containern. Weitere Informationen finden Sie unter Erstellen Sie Ihren eigenen Docker-Container mit der SageMaker Distributed Model Parallel Library.

Von SageMaker AI und der SageMaker-AI-Modellparallelitätsbibliothek unterstützte TensorFlow-Versionen

TensorFlow Version Version der Bibliothek für Modellparallelität in SageMaker smdistributed-modelparallel integrierter DLC-Image-URI
v2.6.0 smdistributed-modelparallel==v1.4.0 763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.6.0-gpu-py38-cu112-ubuntu20.04
v2.5.1 smdistributed-modelparallel==v1.4.0 763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.5.1-gpu-py37-cu112-ubuntu18.04

Versionen von Hugging Face Transformers, die von SageMaker AI und der SMDDP-Bibliothek (SageMaker Distributed Data Parallel) unterstützt werden

Die AWS Deep Learning Containers für Hugging Face verwenden die SageMaker-Trainingscontainer für PyTorch und TensorFlow als Basisimages. Die Bibliotheksversionen von Hugging Face Transformers und die gepaarten Versionen von PyTorch und TensorFlow finden Sie in den neuesten Hugging Face Containers und den vorherigen Hugging Face Container-Versionen.

AWS-Regionen

Die parallel SageMaker-Datenbibliothek ist in allen Bereichen verfügbar, in AWS-Regionen denen die AWS Deep Learning Containers für SageMaker im Einsatz sind. Weitere Informationen finden Sie unter Verfügbare Deep Learning Container-Images.

Unterstützte Instance-Typen

Die Modellparallelitätsbibliothek von SageMaker erfordert einen der folgenden ML-Instance-Typen.

Instance-Typ
ml.g4dn.12xlarge
ml.p3.16xlarge
ml.p3dn.24xlarge
ml.p4d.24xlarge
ml.p4de.24xlarge

Die Spezifikationen der Instance-Typen finden Sie im Abschnitt Beschleunigte Datenverarbeitung auf der Seite Amazon-EC2-Instance-Typen. Informationen zu den Preisen für Instances finden Sie unter Preise von Amazon SageMaker AI.

Wenn Sie auf eine Fehlermeldung gestoßen sind, die der folgenden ähnelt, folgen Sie den Anweisungen unter Beantragen Sie eine Erhöhung des Servicekontingents für SageMaker-AI-Ressourcen.

ResourceLimitExceeded: An error occurred (ResourceLimitExceeded) when calling the CreateTrainingJob operation: The account-level service limit 'ml.p3dn.24xlarge for training job usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please contact AWS support to request an increase for this limit.