

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Réglage automatique du modèle grâce à l' SageMaker IA
<a name="automatic-model-tuning"></a>

Amazon SageMaker AI Automatic Model Tuning (AMT) trouve la meilleure version d'un modèle en exécutant de nombreuses tâches de formation sur votre ensemble de données. Le réglage automatique des modèles (AMT) d'Amazon SageMaker AI est également connu sous le nom de réglage des hyperparamètres. Pour ce faire, l’AMT utilise l’algorithme et les plages d’hyperparamètres que vous spécifiez. Il choisit ensuite les valeurs d'hyperparamètres qui créent un modèle aux performances optimales, telles qu'elles sont mesurées par une métrique que vous choisissez.

Prenons comme exemple l’exécution d’un problème de *[classification binaire](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#binary-classification-model)* sur un jeu de données marketing. Votre objectif est d'optimiser la métrique *[aire sous la courbe (AUC)](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#AUC)* de l'algorithme en entraînant un modèle [XGBoost algorithme avec Amazon SageMaker AI](xgboost.md). Vous souhaitez déterminer les valeurs des hyperparamètres `eta`, `alpha`, `min_child_weight` et `max_depth` qui permettront d'entraîner le meilleur modèle. Spécifiez une plage de valeurs pour ces hyperparamètres. Ensuite, le réglage des hyperparamètres par l' SageMaker IA effectue une recherche dans les plages pour trouver une combinaison permettant de créer une tâche de formation qui crée un modèle présentant l'AUC la plus élevée. Pour économiser les ressources ou répondre à des attentes spécifiques en matière de qualité de modèle, configurez des critères d’achèvement pour arrêter le réglage une fois ces critères satisfaits.

Vous pouvez utiliser SageMaker AI AMT avec des algorithmes intégrés, des algorithmes personnalisés ou des conteneurs SageMaker IA prédéfinis pour les frameworks d'apprentissage automatique.

SageMaker AI AMT peut utiliser une instance Amazon EC2 Spot pour optimiser les coûts lors de l'exécution de tâches de formation. Pour de plus amples informations, veuillez consulter [Entraînement d’instances Spot gérées dans Amazon SageMaker AI](model-managed-spot-training.md).

Avant de commencer à utiliser le réglage des hyperparamètres, vous devez disposer d'un problème de machine learning bien défini, y compris les éléments suivants :
+ Un jeu de données
+ La compréhension du type d'algorithme que vous devez entraîner
+ Une bonne compréhension de la façon dont vous mesurez la réussite

Préparez votre ensemble de données et votre algorithme pour qu'ils fonctionnent dans l' SageMaker IA et qu'ils exécutent avec succès une tâche de formation au moins une fois. Pour plus d’informations sur la configuration et l’exécution d’une tâche d’entraînement, reportez-vous à la section [Guide de configuration d'Amazon SageMaker AI](gs.md).

**Topics**
+ [Découvrez les stratégies de réglage des hyperparamètres disponibles dans Amazon AI SageMaker](automatic-model-tuning-how-it-works.md)
+ [Définition de métriques et de variables d'environnement](automatic-model-tuning-define-metrics-variables.md)
+ [Définition des plages d'hyperparamètres](automatic-model-tuning-define-ranges.md)
+ [Suivi et définition des critères d'achèvement de votre tâche de réglage](automatic-model-tuning-progress.md)
+ [Réglage de plusieurs algorithmes avec l'optimisation des hyperparamètres pour trouver le meilleur modèle](multiple-algorithm-hpo.md)
+ [Exemple : tâche de réglage d'hyperparamètres](automatic-model-tuning-ex.md)
+ [Arrêter de manière précoce des tâches d'entraînement](automatic-model-tuning-early-stopping.md)
+ [Exécution d'une tâche de réglage des hyperparamètres avec démarrage à chaud](automatic-model-tuning-warm-start.md)
+ [Limites des ressources pour le réglage automatique du modèle](automatic-model-tuning-limits.md)
+ [Bonnes pratiques pour le réglage des hyper-paramètres](automatic-model-tuning-considerations.md)