

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Régler une classification de texte - TensorFlow modèle
<a name="text-classification-tensorflow-tuning"></a>

Le *réglage de modèle automatique*, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur votre jeu de données. Vous choisissez les hyperparamètres réglables, une plage de valeurs pour chacun d'eux et une métrique d'objectif. Vous choisissez la métrique d'objectif parmi les métriques que calcule l'algorithme. Le réglage de modèle automatique recherche parmi les hyperparamètres choisis la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'objectif.

Pour plus d'informations sur le réglage de modèle, consultez [Réglage automatique du modèle grâce à l' SageMaker IA](automatic-model-tuning.md).

## Métriques calculées par l' TensorFlow algorithme de classification du texte
<a name="text-classification-tensorflow-metrics"></a>

Reportez-vous au tableau suivant pour savoir quelles mesures sont calculées par l' TensorFlow algorithme de classification de texte.


| Nom de la métrique | Description | Orientation de l'optimisation | Motif Regex | 
| --- | --- | --- | --- | 
| validation:accuracy | Rapport entre le nombre de prédictions correctes et le nombre total de prédictions effectuées. | Agrandir | `val_accuracy=([0-9\\.]+)` | 

## Classification de texte réglable - hyperparamètres TensorFlow
<a name="text-classification-tensorflow-tunable-hyperparameters"></a>

Réglez un modèle de classification de texte à l'aide des hyperparamètres ci-dessous. Les hyperparamètres ayant le plus grand impact sur les métriques d'objectif de la classification de texte sont les suivants : `batch_size`, `learning_rate` et `optimizer`. Réglez les hyperparamètres associés à l'optimiseur, tels que `momentum`, `regularizers_l2`, `beta_1`, `beta_2` et `eps`, en fonction de l'`optimizer` sélectionné. Par exemple, utilisez `beta_1` et `beta_2` uniquement si `adamw` ou `adam` est le `optimizer`.

Pour plus d'informations sur les hyperparamètres qui sont utilisés pour chaque `optimizer`, consultez [Classification du texte - TensorFlow Hyperparamètres](text-classification-tensorflow-Hyperparameter.md).


| Nom du paramètre | Type de paramètre | Plages recommandées | 
| --- | --- | --- | 
| batch\$1size | IntegerParameterRanges | MinValue: 4, MaxValue 128 | 
| beta\$11 | ContinuousParameterRanges | MinValue: 1e-6, 0,99 MaxValue | 
| beta\$12 | ContinuousParameterRanges | MinValue: 1e-6, 0,99 MaxValue | 
| eps | ContinuousParameterRanges | MinValue: 1e-8, MaxValue : 1,0 | 
| learning\$1rate | ContinuousParameterRanges | MinValue: 1e-6, MaxValue : 0,5 | 
| momentum | ContinuousParameterRanges | MinValue: 0,0, MaxValue 0,99 | 
| optimizer | CategoricalParameterRanges | ['adamw', 'adam', 'sgd', 'rmsprop', 'nesterov', 'adagrad', 'adadelta'] | 
| regularizers\$1l2 | ContinuousParameterRanges | MinValue: 0,0, MaxValue 0,99 | 
| train\$1only\$1on\$1top\$1layer | CategoricalParameterRanges | ['True', 'False'] | 