Anfordern von Inferenzen von einem bereitgestellten Service (Amazon SageMaker SDK) - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Anfordern von Inferenzen von einem bereitgestellten Service (Amazon SageMaker SDK)

Verwenden Sie die folgenden Codebeispiele, um Rückschlüsse von Ihrem bereitgestellten Dienst anzufordern, die auf dem Framework basieren, das Sie zum Trainieren Ihres Modells verwendet haben. Die Codebeispiele für die verschiedenen Frameworks sind ähnlich. Der Hauptunterschied besteht darin, dass TensorFlow application/json als Inhaltstyp benötigt.

PyTorch und MXNet

Wenn Sie PyTorch v1.4 oder höher oder MXNet 1.7.0 oder höher verwenden und über einen InService-Endpunkt von Amazon SageMaker AI verfügen, können Sie mit dem predictor-Paket des SageMaker AI SDK für Python Inferenzanfragen stellen.

Anmerkung

Die API variiert je nach Version des SageMaker AI SDK für Python:

Das folgende Codebeispiel zeigt, wie diese APIs verwendet werden können, um ein Bild für die Inferenz zu senden:

SageMaker Python SDK v1.x
from sagemaker.predictor import RealTimePredictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image') inference_response = predictor.predict(data=payload) print (inference_response)
SageMaker Python SDK v2.x
from sagemaker.predictor import Predictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = Predictor(endpoint) inference_response = predictor.predict(data=payload) print (inference_response)

TensorFlow

Das folgende Codebeispiel zeigt, wie Sie mit der SageMaker-Python-SDK-API ein Bild zur Inferenz senden.

from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint = 'insert the name of your endpoint here' # Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)