Optimieren Sie eine Textklassifizierung – TensorFlow-Modell - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Optimieren Sie eine Textklassifizierung – TensorFlow-Modell

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatisches Modelloptiming mit KI SageMaker .

Vom Textklassifizierungs-TensorFlow-Algorithmus berechnete Metriken

In der folgenden Tabelle finden Sie heraus, welche Metriken vom Textklassifizierung – TensorFlow-Algorithmus berechnet werden.

Metrikname Beschreibung Optimierungsrichtung Regex-Muster
validation:accuracy

Das Verhältnis der Anzahl von richtigen Prognosen zur Gesamtzahl der erstellten Voraussagen.

Maximieren

val_accuracy=([0-9\\.]+)

Einstellbare Textklassifizierung – TensorFlow-Hyperparameter

Stimmen Sie ein Textklassifikationsmodell mit den folgenden Hyperparametern ab. Die Hyperparameter mit den größten Auswirkungen auf die objektiven Metriken der Bildklassifizierung sind: batch_size, learning_rate und optimizer. Optimieren Sie die auf den Optimierer bezogenen Hyperparameter, wie momentum, regularizers_l2, beta_1, beta_2, eps und , basierend auf dem ausgewählten optimizer. Verwenden Sie z. B. beta_1 und beta_2 nur, wenn adamw oder adam der optimizer ist.

Weitere Informationen dazu, welche Hyperparameter für die optimizer einzelnen Parameter verwendet werden, finden Sie unter Textklassifizierungs- TensorFlow Hyperparameter.

Name des Parameters Parametertyp Empfohlene Bereiche
batch_size

IntegerParameterRanges

MinValue: 4, MaxValue: 128

beta_1

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.999

beta_2

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.999

eps

ContinuousParameterRanges

MinValue: 1e-8, MaxValue: 1.0

learning_rate

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0.5

momentum

ContinuousParameterRanges

MinValue: 0.0, MaxValue: 0.999

optimizer

CategoricalParameterRanges

['adamw', 'adam', 'sgd', 'rmsprop', 'nesterov', 'adagrad', 'adadelta']

regularizers_l2

ContinuousParameterRanges

MinValue: 0.0, MaxValue: 0.999

train_only_on_top_layer

CategoricalParameterRanges

['True', 'False']