Ressourcen für die Verwendung von SparkML Serving mit Amazon SageMaker AI - Amazon SageMaker AI

Ressourcen für die Verwendung von SparkML Serving mit Amazon SageMaker AI

Das Amazon SageMaker Python SDK SparkML Serving-Modell und der Predictor sowie der SparkML-Serving-Container (Open Source) von Amazon SageMaker AI unterstützen die Bereitstellung von Apache Spark ML-Pipelines, die mit MLeap in SageMaker AI serialisiert wurden, um Inferenzberechnungen durchzuführen. Verwenden Sie die folgenden Ressourcen, um zu lernen, wie Sie SparkML Serving mit SageMaker AI verwenden.

Informationen zur Verwendung des SparkML-Serving-Containers zur Bereitstellung von Modellen in SageMaker AI finden Sie im GitHub-Repository des SageMaker AI Spark ML-Containers. Informationen über das Amazon SageMaker Python SDK SparkML Serving Modell und die Prädiktoren finden Sie in der Dokumentation SparkML Serving Model und Predictor API.