Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Führen Sie einen verteilten SageMaker-Trainingsjob mit Modellparallelismus aus
Erfahren Sie, wie Sie mithilfe des SageMaker Python SDK mit der SageMaker-Bibliothek für Modellparallelismus einen modellparallelen Trainingsjob Ihres eigenen Trainingsskripts ausführen.
Es gibt drei Anwendungsszenarien für die Ausführung eines SageMaker-Trainingsjobs.
-
Sie können einen der vorgefertigten AWS Deep Learning Container für TensorFlow und PyTorch verwenden. Diese Option wird empfohlen, wenn Sie die Modellparallelbibliothek zum ersten Mal verwenden. Ein Tutorial zur Ausführung eines SageMaker-Modellparallelitäts-Trainingsjobs finden Sie in den Beispiel-Notebooks unter PyTorch-Training mit der Modellparallelitätsbibliothek von Amazon SageMaker AI
. -
Sie können die vorgefertigten Container erweitern, um zusätzliche funktionale Anforderungen für Ihren Algorithmus oder Ihr Modell zu erfüllen, die das vorgefertigte SageMaker Docker-Image nicht unterstützt. Ein Beispiel dafür, wie Sie einen vorgefertigten Container erweitern können, finden Sie unter Erweitern eines vorgefertigten Containers.
-
Mit dem SageMaker AI Training Toolkit
können Sie Ihren eigenen Docker-Container so anpassen, dass er mit SageMaker AI funktioniert. Ein Beispiel finden Sie unter Anpassung Ihres eigenen Trainingscontainers.
Die Optionen 2 und 3 in der vorherigen Liste finden Sie unter Erweitern Sie einen vorgefertigten Docker-Container, der die Distributed Model Parallel Library von SageMaker enthält, um zu erfahren, wie Sie die Model Parallel Library in einem erweiterten oder benutzerdefinierten Docker-Container installieren.
In allen Fällen starten Sie Ihren Trainingsjob, indem Sie einen SageMaker TensorFlow oder PyTorch Estimator konfigurieren, um die Bibliothek zu aktivieren. Weitere Informationen finden Sie unter den folgenden Themen.