Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Solicitud de inferencias desde un servicio implementado (CLI AWS)
Las solicitudes de inferencia se pueden realizar con sagemaker-runtime invoke-endpoint una vez que tenga un punto de conexión de Amazon SageMaker AI InService. Puede realizar solicitudes de inferencia con AWS Command Line Interface (AWS CLI). En el siguiente ejemplo se muestra cómo enviar una imagen a modo de inferencia:
aws sagemaker-runtime invoke-endpoint --endpoint-name'insert name of your endpoint here'--body fileb://image.jpg --content-type=application/x-image output_file.txt
Si la inferencia se realizó correctamente, se crea un output_file.txt con información sobre sus solicitudes de inferencia.
Para TensorFlow, envíe una entrada con application/json como tipo de contenido.
aws sagemaker-runtime invoke-endpoint --endpoint-name'insert name of your endpoint here'--body fileb://input.json --content-type=application/json output_file.txt