Optionen der Modellbereitstellung in Amazon SageMaker AI - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Optionen der Modellbereitstellung in Amazon SageMaker AI

Nachdem Sie Ihr Machine-Learning-Modell trainiert haben, können Sie es mit Amazon SageMaker AI bereitstellen, um Prognosen zu erhalten. Amazon SageMaker AI unterstützt je nach Anwendungsfall die folgenden Möglichkeiten, ein Modell bereitzustellen:

SageMaker AI bietet Funktionen zum Verwalten von Ressourcen und Optimieren der Inferenzleistung bei der Bereitstellung von Machine Learning (ML)-Modellen.

  • Informationen zur Verwaltung von Modellen auf Edge-Geräten, sodass Sie Machine-Learning-Modelle auf Flotten von Edge-Geräten optimieren, sichern, überwachen und verwalten können, finden Sie unter Modellieren Sie die Bereitstellung am SageMaker Netzwerkrand mit Edge Manager. Dies gilt für Edge-Geräte wie Smart-Kameras, Roboter, PCs und Mobilgeräte.

  • Wie Neo Gluon-, Keras-, MXNet-, PyTorch-, TensorFlow-, TensorFlow-Lite- und ONNX-Modelle automatisch für die Inferenz auf Android-, Linux- und Windows-Computern optimiert , die mit Prozessoren von Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments und Xilinx arbeiten, finden Sie unter Optimierung der Modellleistung mit SageMaker Neo.

Weitere Informationen zu allen Bereitstellungsoptionen finden Sie unter Modelle für Inference einsetzen.