Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Unterstützte Frameworks und AWS-Regionen
Bevor Sie SageMaker Smart Sifting beim Datenladeprozess verwenden, prüfen Sie, ob das Framework Ihrer Wahl unterstützt wird, ob die Instance-Typen in Ihrem AWS-Konto verfügbar sind und ob sich Ihr AWS-Konto in einem der unterstützten AWS-Regionen befindet.
Anmerkung
SageMaker Smart Sifting unterstützt das PyTorch-Modelltraining mit herkömmlicher Datenparallelität und verteilter Datenparallelität, wodurch Modellreplikate in allen GPU-Workern erstellt und die AllReduce-Operation verwendet wird. Es funktioniert nicht mit Methoden zur Modellparallelität wie der Parallelität fragmentierter Daten. Da SageMaker Smart Sifting für Datenparallelitätsaufträge funktioniert, sollten Sie sicherstellen, dass das Modell, das Sie trainieren, in jeden GPU-Speicher passt.
Unterstützte Frameworks
SageMaker Smart Sifting unterstützt die folgenden Deep-Learning-Frameworks und ist über Deep-Learning-Container von AWS erhältlich.
Themen
PyTorch
| Framework | Framework-Version | Deep Learning Container URI |
|---|---|---|
| PyTorch | 2.1.0 |
|
Weitere Informationen zu den vorgefertigten Containern finden Sie unter SageMaker AI Framework Containers
AWS-Regionen
Die Container, die mit der Smart-Sifting-Bibliothek von SageMaker vorkonfiguriert sind
Instance-Typen
Sie können SageMaker Smart Sifting für alle PyTorch-Trainingsjobs auf beliebigen Instance-Typen verwenden. Wir empfehlen die Verwendung von P4d-, P4de- oder P5-Instances.