Esempio: processo di ottimizzazione degli iperparametri
Questo esempio illustra come creare un nuovo notebook per la configurazione e l'avvio di un processo di ottimizzazione degli iperparametri. Il processo di ottimizzazione utilizza Algoritmo XGBoost con Amazon SageMaker AI per eseguire l’addestramento di un modello per prevedere se un cliente eseguirà la registrazione per un deposito bancario a termine dopo essere stato contattato telefonicamente.
Puoi utilizzare l'SDK di basso livello per Python (Boto3) per configurare e avviare il processo di ottimizzazione degli iperparametri e Console di gestione AWS per monitorare lo stato dei processi di ottimizzazione degli iperparametri. Puoi anche utilizzare l’Amazon SageMaker Python SDK
Prerequisiti
Per eseguire il codice in questo esempio, è necessario
-
Un bucket Amazon S3 per l'archiviazione del set di dati di addestramento e degli artefatti del modello creati durante l’addestramento