Optimieren eines Objekterkennungsmodells - Amazon SageMaker AI

Optimieren eines Objekterkennungsmodells

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit SageMaker AI.

Vom Objekterkennungsalgorithmus berechnete Metriken

In der folgenden Tabelle finden Sie heraus, welche Metriken vom Object Detection – TensorFlow-Algorithmus berechnet werden.

Metrikname Beschreibung Optimierungsrichtung Regex-Musterung
validation:localization_loss

Der Lokalisierungsverlust bei der Box-Vorhersage.

Minimieren

Val_localization=([0-9\\.]+)

Optimierbare Objekterkennungshyperparameter

Stimmen Sie ein Objekterkennungsmodell mit den folgenden Hyperparametern ab. Die Hyperparameter mit den größten Auswirkungen auf objektive Objekterkennungsmetrik sind: batch_size, learning_rate und optimizer. Optimieren Sie die auf den Optimierer bezogenen Hyperparameter, wie momentum, regularizers_l2, beta_1, beta_2 und eps basierend auf dem ausgewählten optimizer. Verwenden Sie z. B. beta_1 und beta_2 nur, wenn adam der optimizer ist.

Weitere Informationen dazu, welche Hyperparameter für die einzelnen optimizer verwendet werden, finden Sie unter Objekterkennung – TensorFlow Hyperparameters.

Name des Parameters Parametertyp Empfohlene Bereiche
batch_size

IntegerParameterRanges

MinValue: 8, MaxValue: 512

beta_1

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.999

beta_2

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.999

eps

ContinuousParameterRanges

MinValue: 1e-8, MaxValue: 1.0

learning_rate

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.5

momentum

ContinuousParameterRanges

MinValue: 0.0, MaxValue: 0.999

optimizer

CategoricalParameterRanges

['sgd', 'adam', 'rmsprop', 'nesterov', 'adagrad', 'adadelta']

regularizers_l2

ContinuousParameterRanges

MinValue: 0.0, MaxValue: 0.999

train_only_on_top_layer

CategoricalParameterRanges

true, false

initial_accumulator_value

CategoricalParameterRanges

MinValue: 0.0, MaxValue: 0.999