Schätzerkonfiguration für Framework-Profiling - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Schätzerkonfiguration für Framework-Profiling

Warnung

Zugunsten von Amazon SageMaker Profiler lehnt SageMaker AI Debugger die Framework-Profilerstellungsfunktion ab TensorFlow 2.11 und PyTorch 2.0 ab. Sie können die Funktion in den vorherigen Versionen der Frameworks und SDKs weiterhin wie folgt verwenden.

  • SageMaker Python SDK <= v2.130.0

  • PyTorch >= v1.6.0, < v2.0

  • TensorFlow >= v2.3.1, < v2.11

Siehe auch 16. März 2023.

Um die Debugger-Framework-Profilerstellung zu aktivieren, konfigurieren Sie den framework_profile_params Parameter, wenn Sie einen Schätzer erstellen. Das Debugger-Framework-Profiling sammelt Framework-Metriken, wie z. B. Daten aus der Initialisierungsphase, Datenladeprozesse, Python-Operatoren von Deep-Learning-Frameworks und Trainingsskripten, detailliertes Profiling innerhalb und zwischen den Schritten, mit den Optionen cProfile oder Pyinstrument. Mithilfe der FrameworkProfile Klasse können Sie benutzerdefinierte Framework-Profiling-Optionen konfigurieren.

Anmerkung

Bevor Sie mit der Debugger-Framework-Profilerstellung beginnen, stellen Sie sicher, dass das Framework, das zur Erstellung Ihres Modells verwendet wurde, von Debugger für die Framework-Profilerstellung unterstützt wird. Weitere Informationen finden Sie unter Unterstützte Frameworks und Algorithmen.

Der Debugger speichert die Framework-Metriken in einem Standard-S3-Bucket. Das Format der standardmäßigen S3-Bucket-URI ist s3://sagemaker-<region>-<12digit_account_id>/<training-job-name>/profiler-output/.