View a markdown version of this page

Verwalten von Inferenzendpunkten mit dem Befehl endpoints - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwalten von Inferenzendpunkten mit dem Befehl endpoints

Mit dem Neptune-ML-Befehl endpoints können Sie einen Inferenzendpunkt erstellen, seinen Status überprüfen, ihn löschen oder vorhandene Inferenzendpunkte auflisten.

Erstellen eines Inferenzendpunkts mit dem Neptune ML-Befehl endpoints

Ein Neptune-ML-Befehl endpoints zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

AWS CLI
aws neptunedata create-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique ID for the new endpoint)" \ --ml-model-training-job-id "(the model-training job-id of a completed job)"

Weitere Informationen finden Sie create-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.create_ml_endpoint( id='(a unique ID for the new endpoint)', mlModelTrainingJobId='(the model-training job-id of a completed job)' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/endpoints \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

AWS CLI
aws neptunedata create-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique ID for the new endpoint)" \ --update \ --ml-model-training-job-id "(the model-training job-id of a completed job)"

Weitere Informationen finden Sie create-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.create_ml_endpoint( id='(a unique ID for the new endpoint)', update=True, mlModelTrainingJobId='(the model-training job-id of a completed job)' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/endpoints \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

AWS CLI
aws neptunedata create-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique ID for the new endpoint)" \ --ml-model-transform-job-id "(the model-transform job-id of a completed job)"

Weitere Informationen finden Sie create-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.create_ml_endpoint( id='(a unique ID for the new endpoint)', mlModelTransformJobId='(the model-transform job-id of a completed job)' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-transform job-id of a completed job)" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/endpoints \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-transform job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

AWS CLI
aws neptunedata create-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique ID for the new endpoint)" \ --update \ --ml-model-transform-job-id "(the model-transform job-id of a completed job)"

Weitere Informationen finden Sie create-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.create_ml_endpoint( id='(a unique ID for the new endpoint)', update=True, mlModelTransformJobId='(the model-transform job-id of a completed job)' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-transform job-id of a completed job)" }'
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/endpoints \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-transform job-id of a completed job)" }'
Parameter für die Erstellung von Inferenzendpunkten mit endpoints
  • id   –   (Optional) Eine eindeutige ID für den neuen Inferenzendpunkt.

    Typ: Zeichenfolge. Standard: Ein automatisch generierter Name mit Zeitstempel.

  • mlModelTrainingJobId   –   Die Auftrags-ID des abgeschlossenen Modelltrainingsauftrags, der das Modell erstellt hat, auf das der Inferenzendpunkt verweisen wird.

    Typ: Zeichenfolge.

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • mlModelTransformJobId   –   Die Auftrags-ID eines abgeschlossenen Modelltransformationsauftrags.

    Typ: Zeichenfolge.

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • update   –   (Optional) Wenn vorhanden, gibt dieser Parameter an, dass es sich um eine Aktualisierungsanforderung handelt.

    Typ: boolesch. Standardwert: false

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • neptuneIamRoleArn— (Optional) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

  • modelName   –   (Optional) Modelltyp für das Training. Standardmäßig basiert das ML-Modell automatisch auf dem modelType, der in der Datenverarbeitung verwendet wird. Sie können hier jedoch einen anderen Modelltyp angeben.

    Typ: Zeichenfolge. Standardwert: rgcn für heterogene Diagramme und kge für Wissensdiagramme. Gültige Werte: für heterogene Diagramme: rgcn. Für Wissensdiagramme: kge, transe, distmult oder rotate.

  • instanceType   –   (Optional) Der Typ der ML-Instance, die für die Online-Bereitstellung verwendet wird.

    Typ: Zeichenfolge. Standardwert: ml.m5.xlarge.

    Hinweis: Die Auswahl der ML-Instance für einen Inferenzendpunkt ist von Aufgabentyp, Diagrammgröße und Budget abhängig. Siehe Auswahl einer Instance für einen Inferenzendpunkt.

  • instanceCount   –   (Optional) Die Mindestanzahl von Amazon-EC2-Instances, die auf einem Endpunkt bereitgestellt werden sollen, um Vorhersagen zu erstellen.

    Typ: Ganzzahl. Standardwert: 1.

  • volumeEncryptionKMSKey— (Optional) Der Schlüssel AWS Key Management Service (AWS KMS), den SageMaker KI verwendet, um Daten auf dem Speichervolume zu verschlüsseln, das an die ML-Compute-Instances angehängt ist, auf denen die Endgeräte ausgeführt werden.

    Typ: Zeichenfolge. Standardwert: keiner.

Abrufen des Status eines Inferenzendpunkts mit dem Neptune-ML-Befehl endpoints

Dies ist ein Beispiel für den Neptune-ML-Befehl endpoints für den Abruf des Status eines Instance-Endpunkts:

AWS CLI
aws neptunedata get-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(the inference endpoint ID)"

Weitere Informationen finden Sie get-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.get_ml_endpoint( id='(the inference endpoint ID)' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \ --region us-east-1 \ --service neptune-db \ -X GET
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl -s \ "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool
Parameter für den Abruf des Instance-Endpunktstatus mit endpoints
  • id   –   (Erforderlich) Die eindeutige ID des Inferenzendpunkts.

    Typ: Zeichenfolge.

  • neptuneIamRoleArn— (Optional) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

Löschen eines Instance-Endpunkts mit dem Neptune-ML-Befehl endpoints

Dies ist ein Beispiel für den Neptune-ML-Befehl endpoints für das Löschen des Status eines Instance-Endpunkts:

AWS CLI
aws neptunedata delete-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(the inference endpoint ID)"

Um auch verwandte Artefakte zu bereinigen:

aws neptunedata delete-ml-endpoint \ --endpoint-url https://your-neptune-endpoint:port \ --id "(the inference endpoint ID)" \ --clean

Weitere Informationen finden Sie delete-ml-endpointin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.delete_ml_endpoint( id='(the inference endpoint ID)', clean=True ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \ --region us-east-1 \ --service neptune-db \ -X DELETE

Um auch verwandte Artefakte zu bereinigen:

awscurl "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true" \ --region us-east-1 \ --service neptune-db \ -X DELETE
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl -s \ -X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)"

Oder:

curl -s \ -X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true"
Parameter zum Löschen eines Inferenzendpunkts mit endpoints
  • id   –   (Erforderlich) Die eindeutige ID des Inferenzendpunkts.

    Typ: Zeichenfolge.

  • neptuneIamRoleArn— (Optional) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

  • clean   –   (Optional) Gibt an, dass alle Artefakte, die sich auf diesen Endpunkt beziehen, ebenfalls gelöscht werden sollen.

    Typ: boolescher Wert. Standardwert: FALSE.

Auflisten von Inferenzendpunkten mit dem Neptune ML-Befehl endpoints

Dies ist ein Neptune-ML-Befehl endpoints zum Auflisten von Inferenzendpunkten:

AWS CLI
aws neptunedata list-ml-endpoints \ --endpoint-url https://your-neptune-endpoint:port

Um die Anzahl der Ergebnisse zu begrenzen:

aws neptunedata list-ml-endpoints \ --endpoint-url https://your-neptune-endpoint:port \ --max-items 3

Weitere Informationen finden Sie list-ml-endpointsin der AWS CLI Befehlsreferenz.

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.list_ml_endpoints( maxItems=3 ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/endpoints \ --region us-east-1 \ --service neptune-db \ -X GET

Um die Anzahl der Ergebnisse zu begrenzen:

awscurl "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \ --region us-east-1 \ --service neptune-db \ -X GET
Anmerkung

In diesem Beispiel wird davon ausgegangen, dass Ihre AWS Anmeldeinformationen in Ihrer Umgebung konfiguriert sind. Ersetze es us-east-1 durch die Region deines Neptun-Clusters.

curl
curl -s "https://your-neptune-endpoint:port/ml/endpoints" \ | python -m json.tool

Oder:

curl -s "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \ | python -m json.tool
Parameter zum Auflisten von Inferenzendpunkten mit dataprocessing
  • maxItems   –   (Optional) Die maximale Anzahl der Elemente, die zurückgegeben werden sollen.

    Typ: Ganzzahl. Standardwert: 10. Maximal zulässiger Wert: 1024.

  • neptuneIamRoleArn— (Optional) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.