Beispiel: Hyperparameter-Optimierungsauftrag
In diesem Beispiel wird gezeigt, wie Sie ein neues Notebook zum Konfigurieren und Starten eines Hyperparameter-Optimierungsauftrags erstellen. Der Optimierungsauftrag nutzt den XGBoost-Algorithmus mit Amazon SageMaker AI, um ein Modell zu trainieren, das dann vorhersagt, ob ein Kunde eine Banktermineinlage registriert, nachdem er per Telefon kontaktiert wurde.
Sie verwenden das Low-Level-SDK für Python (Boto3), um den Hyperparameter-Tuning-Job zu konfigurieren und zu starten, und das AWS-Managementkonsole, um den Status von Hyperparameter-Tuning-Jobs zu überwachen. Sie können auch das Amazon SageMaker AI High-Level Amazon SageMaker Python SDK
Voraussetzungen
Sie benötigen zur Ausführung des Codes in diesem Beispiel
-
Ein Amazon-S3-Bucket zum Speichern Ihres Trainingsdatensatzes und der während des Trainings erstellten Modellartefakte