Beispiele und weitere Informationen: Verwenden Sie Ihren eigenen Algorithmus oder Ihr eigenes Modell - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Beispiele und weitere Informationen: Verwenden Sie Ihren eigenen Algorithmus oder Ihr eigenes Modell

Die folgenden Jupyter Beispiel-Notebooks zeigen die Verwendung eigener Algorithmen oder vortrainierter Modelle aus einer Notebook-Instance für Amazon SageMaker. Links zu den GitHub-Repositorys mit den vordefinierten Dockerfiles für die TensorFlow-, MXNet-, Chainer- und PyTorch-Frameworks sowie Anweisungen zur Verwendung der AWS SDK für Python (Boto3)-Schätzfunktionen zur Ausführung Ihrer eigenen Trainingsalgorithmen in SageMaker AI Learner und Ihrer eigenen Modell in SageMaker AI Hosting finden Sie unter Vorgefertigte Docker-Images von SageMaker AI für Deep Learning.

Aufstellen

  1. Erstellen einer SageMaker-Notebook-Instance. Anweisungen zum Erstellen von Jupyter-Notebook-Instances und zum Zugriff darauf finden Sie unter SageMaker Amazon-Notebook-Instanzen.

  2. Öffnen Sie die Notebook-Instance, die Sie erstellt haben.

  3. Wählen Sie die Registerkarte SageMaker-AI-Beispiele für eine Liste aller Beispiel-Notebooks für SageMaker AI aus.

  4. Sie können die Beispiel-Notebooks über den Abschnitt Erweiterte Funktionen in Ihrer Notebook-Instance oder auf GitHub unter den bereitgestellten Links öffnen. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).

Hosten Sie Modelle, die in Scikit-Learn trainiert wurden

Um zu erfahren, wie Sie in Scikit-learn trainierte Module hosten können, um Prognosen in SageMaker AI zu erstellen, indem Sie K-Means- und XGBoost-Container von Erstanbietern einfügen, beachten Sie die folgenden Beispiel-Notebooks.

Verpacken von TensorFlow- und Scikit-Learn-Modellen für die Verwendung in SageMaker AI

Um zu erfahren, wie Sie Algorithmen packen, die Sie in TensorFlow- und Scikit-learn-Frameworks für das Training und die Bereitstellung in der SageMaker-AI-Umgebung entwickelt haben, beachten Sie die folgenden Notebooks. Sie zeigen Ihnen, wie Sie Ihre eigenen Docker-Container mithilfe von Dockerfiles erstellen, registrieren und bereitstellen können.

Trainieren und Bereitstellen eines neuronalen Netzwerks und auf SageMaker AI

Um zu erfahren, wie Sie ein neuronales Netzwerk lokal mithilfe von MXNet oder TensorFlow trainieren und anschließend einen Endpunkt aus dem trainierten Modell erstellen und in SageMaker AI bereitstellen, beachten Sie die folgenden Notebooks. Das MXNet-Modell ist trainiert, um handschriftliche Zahlen aus dem MNIST-Datensatz zu erkennen. Das TensorFlow-Modell ist auf die Irisklassifizierung trainiert.

Trainieren mit Pipe-Modus

Um zu erfahren, wie Sie eine Dockerfile zum Erstellen eines Containers verwenden, der das train.py script aufruft und den Pipe-Modus zum benutzerdefinierten Training eines Algorithmus verwendet, beachten Sie das folgende Notebook. Im Pipe-Modus werden die Eingabedaten während des Trainings auf den Algorithmus übertragen. Dadurch kann sich die Trainingszeit im Vergleich zum Dateimodus verkürzen.

Bringen Sie Ihr eigenes R-Modell mit

Wie man ein benutzerdefiniertes R-Image hinzufügt, um ein Modell in einem AWS SMS-Notebook zu erstellen und zu trainieren, erfahren Sie im folgenden Blogbeitrag. In diesem Blogbeitrag wird ein R-Dockerfile-Beispiel aus einer Bibliothek mit SageMaker AI Studio Classic Custom Image Samples verwendet.

Erweitern Sie ein vordefiniertes PyTorch Container-Image

Um zu erfahren, wie Sie ein vordefiniertes PyTorch-Container-Image von SageMaker AI erweitern, wenn für Ihren Algorithmus oder Ihr Modell zusätzliche funktionelle Anforderungen gelten, die das vordefinierte Docker-Image nicht unterstützt, beachten Sie das folgende Notebook.

Weitere Informationen zum Erweitern eines Containers finden Sie unter Erweitern eines vorgefertigten Containers.

Trainieren und debuggen Sie Trainingsaufträge in einem benutzerdefinierten Container

Informationen zum Trainieren und Debuggen von Trainingsaufträgen mit dem SageMaker Debugger finden Sie im folgenden Notebook. Ein in diesem Beispiel bereitgestelltes Trainingsskript verwendet das TensorFlow Keras ResNet 50-Modell und den CIFAR10-Datensatz. Ein benutzerdefinierter Docker-Container wird mit dem Trainingsskript erstellt und an Amazon ECR übertragen. Während der Trainingsauftrag ausgeführt wird, sammelt der Debugger die Tensorausgaben und identifiziert Debugging-Probleme. Mit den smdebug Client-Bibliothek-Tools können Sie ein smdebug Testobjekt einrichten, das den Trainingsauftrag und die Debugging-Informationen aufruft, den Status der Trainings- und Debugger-Regeln überprüfen und in einem Amazon-S3-Bucket gespeicherte Tensoren abrufen, um Trainingsprobleme zu analysieren.