Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Anfordern von Inferenzen von einem bereitgestellten Service (Amazon SageMaker SDK)
Verwenden Sie die folgenden Codebeispiele, um Rückschlüsse von Ihrem bereitgestellten Dienst anzufordern, die auf dem Framework basieren, das Sie zum Trainieren Ihres Modells verwendet haben. Die Codebeispiele für die verschiedenen Frameworks sind ähnlich. Der Hauptunterschied besteht darin, dass TensorFlow application/json als Inhaltstyp benötigt.
PyTorch und MXNet
Wenn Sie PyTorch v1.4 oder höher oder MXNet 1.7.0 oder höher verwenden und über einen InService-Endpunkt von Amazon SageMaker AI verfügen, können Sie mit dem predictor-Paket des SageMaker AI SDK für Python Inferenzanfragen stellen.
Anmerkung
Die API variiert je nach Version des SageMaker AI SDK für Python:
-
Verwenden Sie für Version 1.x die
RealTimePredictorund PredictAPI.
Das folgende Codebeispiel zeigt, wie diese APIs verwendet werden können, um ein Bild für die Inferenz zu senden:
TensorFlow
Das folgende Codebeispiel zeigt, wie Sie mit der SageMaker-Python-SDK-API ein Bild zur Inferenz senden.
from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint ='insert the name of your endpoint here'# Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)