(Archiviert) SageMaker-Modellparallelitätsbibliothek v1.x - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

(Archiviert) SageMaker-Modellparallelitätsbibliothek v1.x

Wichtig

Am 19. Dezember 2023 wurde die SageMaker-Modellparallelitätsibliothek (SMP) v2 veröffentlicht. Zugunsten der SMP-Bibliothek v2 werden die Funktionen von SMP v1 in zukünftigen Versionen nicht mehr unterstützt. Die folgenden Abschnitte und Themen sind archiviert und beziehen sich auf die Verwendung der SMP-Bibliothek v1. Weitere Informationen zur Verwendung der SMP-Bibliothek v2 finden Sie unter SageMaker Modellparallelitätsbibliothek v2.

Verwenden Sie die Modellparallelbibliothek von Amazon SageMaker AI, um große Deep-Learning-Modelle (DL) zu trainieren, die aufgrund von GPU-Speicherbeschränkungen schwierig zu trainieren sind. Die Bibliothek teilt ein Modell automatisch und effizient auf mehrere GPUs und Instances auf. Mithilfe der Bibliothek können Sie schneller eine Zielvorhersagegenauigkeit erreichen, indem Sie größere DL-Modelle mit Milliarden oder Billionen von Parametern effizient trainieren.

Sie können die Bibliothek verwenden, um Ihre eigenen TensorFlow- und PyTorch-Modelle mit minimalen Codeänderungen automatisch auf mehrere GPUs und mehrere Knoten zu partitionieren. Sie können über das SageMaker Python SDK auf die API der Bibliothek zugreifen.

In den folgenden Abschnitten erfahren Sie mehr über Modellparallelität und die Modellparallelbibliothek von SageMaker. Die API-Dokumentation dieser Bibliothek befindet sich unter Distributed Training APIs in der Dokumentation zu SageMaker Python SDK v2.199.0.