Hyperparamètres Text Classification - TensorFlow
Les hyperparamètres sont des paramètres définis avant qu'un modèle de machine learning ne commence à apprendre. Les hyperparamètres suivants sont pris en charge par l’algorithme Object Detection - TensorFlow intégré à Amazon SageMaker AI. Consultez Réglage d'un modèle Text Classification - TensorFlow pour obtenir des informations sur le réglage des hyperparamètres.
| Nom du paramètre | Description |
|---|---|
batch_size |
Taille de lot pour l'entraînement. Pour l'entraînement sur des instances dotées de plusieurs GPU, cette taille de lot est utilisée sur l'ensemble des GPU. Valeurs valides : nombre entier positif. Valeur par défaut : |
beta_1 |
Version beta1 des optimiseurs Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
beta_2 |
Version beta2 des optimiseurs Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
dropout_rate |
Taux d'abandon pour la couche d'abandon au niveau de la couche de classification supérieure. Utilisé uniquement quand Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
early_stopping |
Définissez ce paramètre sur Valeurs valides : chaîne, valeur : ( Valeur par défaut : |
early_stopping_min_delta |
Modification minimale requise pour être considérée comme une amélioration. Une modification absolue inférieure à la valeur de early_stopping_min_delta ne constitue pas une amélioration. Utilisé uniquement quand early_stopping a pour valeur "True".Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
early_stopping_patience |
Nombre d'époques pour continuer l'entraînement sans amélioration. Utilisé uniquement quand Valeurs valides : nombre entier positif. Valeur par défaut : |
epochs |
Nombre de dates epoch d'entraînement. Valeurs valides : nombre entier positif. Valeur par défaut : |
epsilon |
Epsilon des optimiseurs Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
initial_accumulator_value |
Valeur de départ pour les accumulateurs, ou valeurs de moment par paramètre, pour l'optimiseur Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
learning_rate |
Taux d'apprentissage de l'optimiseur. Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
momentum |
Moment pour les optimiseurs Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
optimizer |
Type d'optimiseur. Pour plus d'informations, consultez Optimiseurs Valeurs valides : chaîne, l'une des valeurs suivantes : ( Valeur par défaut : |
regularizers_l2 |
Facteur de régularisation L2 pour la couche dense au niveau de la couche de classification. Utilisé uniquement quand Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
reinitialize_top_layer |
Si ce paramètre a pour valeur Valeurs valides : chaîne, l'une des valeurs suivantes : ( Valeur par défaut : |
rho |
Facteur de déduction pour le gradient des optimiseurs Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
train_only_on_top_layer |
S'il a pour valeur Valeurs valides : chaîne, valeur : ( Valeur par défaut : |
validation_split_ratio |
Fraction des données d'entraînement à diviser de manière aléatoire pour créer des données de validation. Utilisé uniquement si les données de validation ne sont pas fournies via le canal Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |
warmup_steps_fraction |
Fraction du nombre total d'étapes de mise à jour du gradient, au cours de laquelle le taux d'apprentissage passe de 0 au taux d'apprentissage initial en guise d'échauffement. Utilisé uniquement avec l'optimiseur Valeurs valides : valeur à virgule flottante, plage : [ Valeur par défaut : |