Schätzerkonfiguration für Framework-Profiling - Amazon SageMaker AI

Schätzerkonfiguration für Framework-Profiling

Warnung

Zugunsten von Amazon SageMaker Profiler lehnt SageMaker AI Debugger die Framework-Profilerstellungsfunktion ab TensorFlow 2.11 und PyTorch 2.0 ab. Sie können die Funktion in den vorherigen Versionen der Frameworks und SDKs weiterhin wie folgt verwenden.

  • SageMaker Python SDK <= v2.130.0

  • PyTorch >= v1.6.0, < v2.0

  • TensorFlow >= v2.3.1, < v2.11

Siehe auch 16. März 2023.

Um die Debugger-Framework-Profilerstellung zu aktivieren, konfigurieren Sie den framework_profile_params Parameter, wenn Sie einen Schätzer erstellen. Das Debugger-Framework-Profiling sammelt Framework-Metriken, wie z. B. Daten aus der Initialisierungsphase, Datenladeprozesse, Python-Operatoren von Deep-Learning-Frameworks und Trainingsskripten, detailliertes Profiling innerhalb und zwischen den Schritten, mit den Optionen cProfile oder Pyinstrument. Mithilfe der FrameworkProfile Klasse können Sie benutzerdefinierte Framework-Profiling-Optionen konfigurieren.

Anmerkung

Bevor Sie mit der Debugger-Framework-Profilerstellung beginnen, stellen Sie sicher, dass das Framework, das zur Erstellung Ihres Modells verwendet wurde, von Debugger für die Framework-Profilerstellung unterstützt wird. Weitere Informationen finden Sie unter Unterstützte Frameworks und Algorithmen.

Der Debugger speichert die Framework-Metriken in einem Standard-S3-Bucket. Das Format der standardmäßigen S3-Bucket-URI ist s3://sagemaker-<region>-<12digit_account_id>/<training-job-name>/profiler-output/.