Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esempi e ulteriori informazioni: utilizzo del proprio algoritmo o modello
I seguenti notebook Jupyter e le informazioni aggiunte mostrano come utilizzare i propri algoritmi o modelli già sottoposti ad addestramento da un'istanza del notebook Amazon SageMaker. Per i link ai repository GitHub con Dockerfile predefiniti per i framework TensorFlow, MXNet, Chainer e PyTorch e le istruzioni sull’utilizzo degli strumenti di stima AWS SDK per Python (Boto3) per eseguire gli algoritmi di addestramento personali su SageMaker AI Learner e i modelli sull’hosting di SageMaker AI, consulta Immagini Docker SageMaker AI predefinite per il deep learning
Configurazione
-
Creazione di un'istanza del notebook SageMaker Per istruzioni su come creare e accedere a istanze del notebook Jupyter, consulta Istanze SageMaker per notebook Amazon.
-
Apri l'istanza del notebook che hai creato.
-
Scegli la scheda Esempi SageMaker AI per un elenco di tutti i notebook di esempio SageMaker AI.
-
Apri il notebook di esempio dalla sezione Funzionalità avanzata nell'istanza del notebook o in GitHub utilizzando i collegamenti forniti. Per aprire un notebook, seleziona la relativa scheda Usa, quindi scegli Crea copia.
Hosting di modelli addestrati in Scikit-learn
Per ulteriori informazioni su come ospitare modelli addestrati in Scikit-learn per effettuare previsioni in SageMaker AI inserendo container k-means e XGBoost proprietari, consulta i seguenti notebook di esempio.
Creazione di un pacchetto di modelli TensorFlow e Scikit-learn per l’utilizzo in SageMaker AI
Per ulteriori informazioni su come creare pacchetti di algoritmi che hai sviluppato in TensorFlow e framework scikit-learn per l’addestramento e l’implementazione nell’ambiente SageMaker AI, consulta i seguenti notebook. Questi mostrano come compilare, registrare e distribuire i container Docker utilizzando Dockerfile.
Addestrare e implementare una rete neurale in SageMaker AI
Per ulteriori informazioni su come eseguire l’addestramento di una rete neurale in locale utilizzando MXNet o TensorFlow e quindi creare un endpoint dal modello addestrato e implementarlo in SageMaker AI, consulta i seguenti notebook. Il modello MXNet viene addestrato per riconoscere i numeri scritti a mano dal dataset MNIST. Il modello TensorFlow è addestrato per classificare iris.
Addestramento in modalità pipe
Per ulteriori informazioni su come utilizzare un Dockerfile per compilare un container che chiama train.py script e utilizza la modalità pipe per eseguire l’addestramento personalizzato di un algoritmo, consulta i seguenti notebook. In modalità pipe, i dati di input vengono trasferiti all'algoritmo durante l’addestramento dello stesso. Questo consente di ridurre il tempo di addestramento rispetto all'utilizzo della modalità file.
Usa il tuo modello R
Per informazioni su come utilizzare l'aggiunta di un'immagine R personalizzata per creare e addestrare un modello in un notebook AWS SMS, consulta il seguente post del blog. Questo post del blog utilizza un Dockerfile R di esempio da una libreria di esempi di immagini personalizzate di SageMaker AI Studio Classic
Estensione di un'immagine del container PyTorch predefinita.
Per ulteriori informazioni su come estendere un’immagine del container SageMaker AI PyTorch predefinita quando si dispone di ulteriori requisiti funzionali per l’algoritmo o il modello non supportato dall’immagine Docker predefinita, consulta i seguenti notebook.
Per ulteriori informazioni sull'estensione di un container, consulta Extend a Pre-built Container.
Addestra ed esegui il debug di processi di addestramento su un container personalizzato
Per informazioni su come addestrare ed eseguire il debug dei processi di addestramento con Debugger SageMaker, consulta il seguente notebook. Uno script di addestramento fornito tramite questo esempio utilizza il modello TensorFlow Keras ResNet 50 e il set di dati CIFAR10. Un container personalizzato Docker viene creato con lo script di addestramento e inviato ad Amazon ECR. Durante l'esecuzione del processo di addestramento, Debugger raccoglie gli output dei tensori e identifica i problemi di debug. Con gli strumenti della libreria client smdebug, puoi impostare un oggetto di prova smdebug che richiama il processo di addestramento e le informazioni di debug, controlla lo stato delle regole di addestramento e Debugger e recupera i tensori salvati in un bucket Amazon S3 per analizzare i problemi di addestramento.