Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Beispiel-Notebooks und Codebeispiele zur Konfiguration des Debugger-Hooks
Die folgenden Abschnitte enthalten Notebooks und Codebeispiele zur Verwendung des Debugger-Hooks zum Speichern, Zugreifen und Visualisieren von Ausgabetensoren.
Themen
Beispiel-Notebooks für Tensorvisualisierungen
Die folgenden zwei Notebook-Beispiele zeigen die erweiterte Verwendung von Amazon SageMaker Debugger für die Visualisierung von Tensoren. Der Debugger bietet einen transparenten Einblick in das Training von Deep-Learning-Modellen.
-
Interaktive Tensoranalyse in SageMaker Studio-Notebook mit MXNet
Dieses Notebook-Beispiel zeigt, wie Sie gespeicherte Tensoren mit Amazon SageMaker Debugger visualisieren können. Durch die Visualisierung der Tensoren können Sie leicht sehen, wie sich die Tensorwerte ändern, während Sie Deep-Learning-Algorithmen trainieren. Dieses Notebook enthält eine Trainingsaufgabe mit einem schlecht konfigurierten neuronalen Netzwerk und verwendet Amazon SageMaker Debugger zum Aggregieren und Analysieren von Tensoren, einschließlich Gradienten, Aktivierungsausgaben und Gewichtungen. Das folgende Diagramm zeigt beispielsweise die Verteilung der Gradienten eines Convolutional Layers (faltenden Layers), bei dem ein Problem in Zusammenhang mit dem Verschwinden des Gradienten vorliegt.
Dieses Notebooks veranschaulicht auch, wie eine gute anfängliche Hyperparametereinstellung den Trainingsprozess verbessert, indem die gleichen Tensorverteilungsdiagramme generiert werden.
-
Visualisieren und Debuggen von Tensoren aus dem MXNet-Modelltraining
Dieses Notebook-Beispiel zeigt, wie Sie Tensoren aus einer MXNet Gluon-Modelltrainingsaufgabe mit Amazon SageMaker Debugger speichern und visualisieren können. Es veranschaulicht, dass der Debugger so eingestellt ist, dass alle Tensoren in einem Amazon-S3-Bucket gespeichert werden, und ReLu-Aktivierungsausgaben für die Visualisierung abruft. Die folgende Abbildung zeigt eine dreidimensionale Visualisierung der ReLu-Aktivierungsausgaben. Im Hinblick auf das Farbschema bedeutet Blau, dass es sich um Werte nahe 0 handelt, und Gelb, dass die Werte nahe 1 sind.
In diesem Notebook ist die aus
tensor_plot.pyimportierteTensorPlot-Klasse so konzipiert, dass sie Convolutional Neural Networks (CNNs) mit zweidimensionalen Bildern als Eingabe plottet. Das mit dem Notebook geliefertetensor_plot.pySkript ruft mit Debugger Tensoren ab und visualisiert das CNN. Sie können dieses Notebook in SageMaker Studio ausführen, um die Tensorvisualisierung zu reproduzieren und Ihr eigenes CNN-Modell zu implementieren. -
Echtzeit-Tensoranalyse in einem SageMaker-Notebook mit MXNet
Dieses Beispiel führt Sie durch die Installation der erforderlichen Komponenten für die Ausgabe von Tensoren in einem Amazon SageMaker-Trainingsauftrags und die Verwendung der Debugger-API-Operationen, um während des Trainings auf diese Tensoren zuzugreifen. Ein Gluon-CNN-Modell wird mit dem Fashion MNIST-Datensatz trainiert. Während der Auftrag ausgeführt wird, werden Sie sehen, wie der Debugger die Aktivierungsausgaben der ersten Faltungsschicht aus jedem der 100 Batches abruft und sie visualisiert. Außerdem erfahren Sie, wie Sie Gewichte nach Abschluss der Arbeit visualisieren.
Speichern von Tensoren mit integrierten Debugger-Sammlungen
Sie können integrierte Sammlungen von Tensoren mithilfe der CollectionConfig API verwenden und sie mithilfe der DebuggerHookConfig API speichern. Das folgende Beispiel zeigt, wie Sie die Standardeinstellungen der Debugger-Hook-Konfigurationen verwenden, um einen TensorFlow-Schätzer von SageMaker AI zu erstellen. Sie können dies auch für MXNet-, PyTorch- und XGBoost-Schätzer verwenden.
Anmerkung
Im folgenden Beispielcode ist der s3_output_path Parameter für DebuggerHookConfig optional. Wenn Sie ihn nicht angeben, speichert Debugger die Tensoren unter s3://<output_path>/debug-output/, wo der Standardausgabepfad von SageMaker-Trainingsaufträgen <output_path> ist. Zum Beispiel:
"s3://sagemaker-us-east-1-111122223333/sagemaker-debugger-training-YYYY-MM-DD-HH-MM-SS-123/debug-output"
import sagemaker from sagemaker.tensorflow import TensorFlow from sagemaker.debugger import DebuggerHookConfig, CollectionConfig # use Debugger CollectionConfig to call built-in collections collection_configs=[ CollectionConfig(name="weights"), CollectionConfig(name="gradients"), CollectionConfig(name="losses"), CollectionConfig(name="biases") ] # configure Debugger hook # set a target S3 bucket as you want sagemaker_session=sagemaker.Session() BUCKET_NAME=sagemaker_session.default_bucket() LOCATION_IN_BUCKET='debugger-built-in-collections-hook' hook_config=DebuggerHookConfig( s3_output_path='s3://{BUCKET_NAME}/{LOCATION_IN_BUCKET}'. format(BUCKET_NAME=BUCKET_NAME, LOCATION_IN_BUCKET=LOCATION_IN_BUCKET), collection_configs=collection_configs ) # construct a SageMaker TensorFlow estimator sagemaker_estimator=TensorFlow( entry_point='directory/to/your_training_script.py', role=sm.get_execution_role(), base_job_name='debugger-demo-job', instance_count=1, instance_type="ml.p3.2xlarge", framework_version="2.9.0", py_version="py39", # debugger-specific hook argument below debugger_hook_config=hook_config ) sagemaker_estimator.fit()
Eine Liste der integrierten Debugger-Sammlungen finden Sie unter Integrierte Debugger-Sammlungen
Speichern von Tensoren mit integrierten Debugger-Sammlungen
Sie können die integrierten Debugger-Sammlungen mithilfe der CollectionConfig API-Operation ändern. Das folgende Beispiel zeigt, wie die integrierte losses-Sammlung optimiert und ein TensorFlow-Schätzer von SageMaker AI erstellt wird. Sie können dies auch für MXNet-, PyTorch- und XGBoost-Schätzer verwenden.
import sagemaker from sagemaker.tensorflow import TensorFlow from sagemaker.debugger import DebuggerHookConfig, CollectionConfig # use Debugger CollectionConfig to call and modify built-in collections collection_configs=[ CollectionConfig( name="losses", parameters={"save_interval": "50"})] # configure Debugger hook # set a target S3 bucket as you want sagemaker_session=sagemaker.Session() BUCKET_NAME=sagemaker_session.default_bucket() LOCATION_IN_BUCKET='debugger-modified-collections-hook' hook_config=DebuggerHookConfig( s3_output_path='s3://{BUCKET_NAME}/{LOCATION_IN_BUCKET}'. format(BUCKET_NAME=BUCKET_NAME, LOCATION_IN_BUCKET=LOCATION_IN_BUCKET), collection_configs=collection_configs ) # construct a SageMaker TensorFlow estimator sagemaker_estimator=TensorFlow( entry_point='directory/to/your_training_script.py', role=sm.get_execution_role(), base_job_name='debugger-demo-job', instance_count=1, instance_type="ml.p3.2xlarge", framework_version="2.9.0", py_version="py39", # debugger-specific hook argument below debugger_hook_config=hook_config ) sagemaker_estimator.fit()
Eine vollständige Liste der CollectionConfig Parameter finden Sie unter Debugger CollectionConfig API
Speichern von reduzierten Tensoren mit benutzerdefinierten Debugger-Sammlungen
Sie können auch eine reduzierte Anzahl an Tensoren anstelle des vollständigen Satzes von Tensoren speichern, um beispielsweise die in Ihrem Amazon-S3-Bucket gespeicherte Datenmenge zu verringern. Das folgende Beispiel zeigt, wie Sie die Debugger-Hook-Konfiguration ändern, um Zieltensoren zum Speichern anzugeben. Sie können dies für TensorFlow-, MXNet-, PyTorch- und XGBoost-Schätzer verwenden.
import sagemaker from sagemaker.tensorflow import TensorFlow from sagemaker.debugger import DebuggerHookConfig, CollectionConfig # use Debugger CollectionConfig to create a custom collection collection_configs=[ CollectionConfig( name="custom_activations_collection", parameters={ "include_regex": "relu|tanh", # Required "reductions": "mean,variance,max,abs_mean,abs_variance,abs_max" }) ] # configure Debugger hook # set a target S3 bucket as you want sagemaker_session=sagemaker.Session() BUCKET_NAME=sagemaker_session.default_bucket() LOCATION_IN_BUCKET='debugger-custom-collections-hook' hook_config=DebuggerHookConfig( s3_output_path='s3://{BUCKET_NAME}/{LOCATION_IN_BUCKET}'. format(BUCKET_NAME=BUCKET_NAME, LOCATION_IN_BUCKET=LOCATION_IN_BUCKET), collection_configs=collection_configs ) # construct a SageMaker TensorFlow estimator sagemaker_estimator=TensorFlow( entry_point='directory/to/your_training_script.py', role=sm.get_execution_role(), base_job_name='debugger-demo-job', instance_count=1, instance_type="ml.p3.2xlarge", framework_version="2.9.0", py_version="py39", # debugger-specific hook argument below debugger_hook_config=hook_config ) sagemaker_estimator.fit()
Eine vollständige Liste der CollectionConfig Parameter finden Sie unter Debugger CollectionConfig