Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Richiesta di inferenze da un servizio distribuito (Amazon SageMaker SDK)
Utilizza i seguenti esempi di codice per richiedere inferenze dal servizio distribuito in base al framework utilizzato per addestrare il modello. Gli esempi di codice per i diversi framework sono simili. La differenza principale è che TensorFlow richiede application/json come tipo di contenuto.
PyTorch e MXNet
Se utilizzi PyTorch v1.4 o versione successiva oppure MXNet 1.7.0 o versione successiva e disponi di un endpoint Amazon SageMaker AI InService, puoi effettuare richieste di inferenza utilizzando il pacchetto predictor di SageMaker AI Python SDK.
Nota
L’API varia in base alla versione di SageMaker AI Python SDK:
-
Per la versione 1.x, utilizza l'API
RealTimePredictore Predict.
L'esempio di codice seguente mostra come utilizzare queste API per inviare un'immagine per l'inferenza:
TensorFlow
L'esempio di codice seguente mostra come utilizzare l’API SageMaker Python SDK per inviare un'immagine per l'inferenza:
from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint ='insert the name of your endpoint here'# Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)