Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Optionen der Modellbereitstellung in Amazon SageMaker AI
Nachdem Sie Ihr Machine-Learning-Modell trainiert haben, können Sie es mit Amazon SageMaker AI bereitstellen, um Prognosen zu erhalten. Amazon SageMaker AI unterstützt je nach Anwendungsfall die folgenden Möglichkeiten, ein Modell bereitzustellen:
-
Verwenden Sie für persistente Echtzeit-Endpunkte, die jeweils eine Vorhersage treffen, die Echtzeit-Hosting-Dienste von SageMaker AI. Siehe Echtzeit-Inferenz.
-
Für Workloads, bei denen es zwischen den einzelnen Verkehrsspitzen Leerlaufzeiten gibt und die Kaltstarts tolerieren können, sollten Sie Serverless Inference verwenden. Siehe Modelle mit Amazon SageMaker Serverless Inference bereitstellen.
-
Anfragen mit großen Nutzlasten von bis zu 1 GB, langen Verarbeitungszeiten und Latenzanforderungen nahezu in Echtzeit verwenden Amazon SageMaker Asynchronous Inference. Siehe Asynchrone Inferenz-Inferenz.
-
Um Prognosen für einen ganzen Datensatz zu erhalten, verwenden Sie die SageMaker-AI-Stapeltransformation. Siehe Batch-Transformation für Inferenz mit Amazon AI SageMaker .
SageMaker AI bietet Funktionen zum Verwalten von Ressourcen und Optimieren der Inferenzleistung bei der Bereitstellung von Machine Learning (ML)-Modellen.
-
Informationen zur Verwaltung von Modellen auf Edge-Geräten, sodass Sie Machine-Learning-Modelle auf Flotten von Edge-Geräten optimieren, sichern, überwachen und verwalten können, finden Sie unter Modellieren Sie die Bereitstellung am SageMaker Netzwerkrand mit Edge Manager. Dies gilt für Edge-Geräte wie Smart-Kameras, Roboter, PCs und Mobilgeräte.
-
Wie Neo Gluon-, Keras-, MXNet-, PyTorch-, TensorFlow-, TensorFlow-Lite- und ONNX-Modelle automatisch für die Inferenz auf Android-, Linux- und Windows-Computern optimiert , die mit Prozessoren von Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments und Xilinx arbeiten, finden Sie unter Optimierung der Modellleistung mit SageMaker Neo.
Weitere Informationen zu allen Bereitstellungsoptionen finden Sie unter Modelle für Inference einsetzen.