Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Anfordern von Inferenzen von einem bereitgestellten Service (AWS CLI)
Inferenzanfragen können mit dem sagemaker-runtime invoke-endpoint gestellt werden, sobald Sie einen InService-Endpunkt von Amazon SageMaker AI haben. Sie können Inferenzanfragen mit dem AWS Command Line Interface (AWS CLI) stellen. Das folgende Beispiel zeigt, wie ein Bild zur Inferenz gesendet wird.
aws sagemaker-runtime invoke-endpoint --endpoint-name'insert name of your endpoint here'--body fileb://image.jpg --content-type=application/x-image output_file.txt
Eine output_file.txt mit Informationen zu Ihren Inferenzanfragen wird gestellt, wenn die Inferenz erfolgreich war.
Für TensorFlow reichen Sie eine Eingabe mit application/json als Inhaltstyp ein.
aws sagemaker-runtime invoke-endpoint --endpoint-name'insert name of your endpoint here'--body fileb://input.json --content-type=application/json output_file.txt