Ottimizzazione di un modello di classificazione del testo - TensorFlow - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ottimizzazione di un modello di classificazione del testo - TensorFlow

L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati. Scegli gli iperparametri ottimizzabili, un intervallo di valori per ciascuno di essi e un parametro obiettivo. Puoi scegliere il parametro obiettivo tra i parametri calcolati dall'algoritmo. L'ottimizzazione automatica del modello ricerca gli iperparametri scelti per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro obiettivo.

Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica dei modelli con AI SageMaker .

Parametri calcolati dall'algoritmo di classificazione del testo - TensorFlow.

Fai riferimento alla tabella seguente per scoprire quali metriche vengono calcolate dall'algoritmo Classificazione del testo - TensorFlow.

Nome parametro Descrizione Direzione dell'ottimizzazione Modello regex
validation:accuracy

Il rapporto tra il numero di previsioni corrette e il numero totale di previsioni effettuate.

Massimizza

val_accuracy=([0-9\\.]+)

Iperparametri di classificazione del testo ottimizzabili - TensorFlow

Ottimizza un modello di classificazione del testo con i seguenti iperparametri. Gli iperparametri che hanno il maggiore impatto sui parametri obiettivo di classificazione del testo sono: batch_size, learning_rate e optimizer. Modifica gli iperparametri correlati all'ottimizzatore, come ad esempio momentum, regularizers_l2, beta_1, beta_2 e eps in base all’optimizer selezionato. Ad esempio usa beta_1 e beta_2 solo quando adamw o adam è optimizer.

Per ulteriori informazioni su quali iperparametri vengono utilizzati in ogni optimizer, consulta Iperparametri di classificazione del testo - TensorFlow.

Nome parametro Tipo parametro Intervalli consigliati
batch_size

IntegerParameterRanges

MinValue: 4, MaxValue: 128

beta_1

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0,999

beta_2

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0,999

eps

ContinuousParameterRanges

MinValue: 1e-8, MaxValue: 1,0

learning_rate

ContinuousParameterRanges

MinValue: 1e-6, MaxValue: 0,5

momentum

ContinuousParameterRanges

MinValue: 0,0, MaxValue: 0,999

optimizer

CategoricalParameterRanges

['adamw', 'adam', 'sgd', 'rmsprop', 'nesterov', 'adagrad', 'adadelta']

regularizers_l2

ContinuousParameterRanges

MinValue: 0,0, MaxValue: 0,999

train_only_on_top_layer

CategoricalParameterRanges

['True', 'False']