Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Administración de los puntos de conexión de inferencia mediante el comando endpoints
El comando endpoints de Neptune ML se utiliza para crear un punto de conexión de inferencia, comprobar su estado, eliminarlo o enumerar los puntos de conexión de inferencia existentes.
Creación de un punto de conexión de inferencia mediante el comando endpoints de Neptune ML
Un comando endpoints de Neptune ML para crear un punto de conexión de inferencia a partir de un modelo creado por un trabajo de entrenamiento tiene el siguiente aspecto:
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--ml-model-training-job-id "(the model-training job-id of a completed job)"
Para obtener más información, consulte create-ml-endpointla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
mlModelTrainingJobId='(the model-training job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Un comando endpoints de Neptune ML para actualizar un punto de conexión de inferencia existente a partir de un modelo creado por un trabajo de entrenamiento tiene el siguiente aspecto:
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--update \
--ml-model-training-job-id "(the model-training job-id of a completed job)"
Para obtener más información, consulte create-ml-endpointla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
update=True,
mlModelTrainingJobId='(the model-training job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTrainingJobId": "(the model-training job-id of a completed job)"
}'
Un comando endpoints de Neptune ML para crear un punto de conexión de inferencia a partir de un trabajo de transformación de modelos tiene el siguiente aspecto:
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--ml-model-transform-job-id "(the model-transform job-id of a completed job)"
Para obtener más información, consulte create-ml-endpointla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
mlModelTransformJobId='(the model-transform job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Un comando endpoints de Neptune ML para actualizar un punto de conexión de inferencia existente a partir de un trabajo de transformación de modelos tiene el siguiente aspecto:
- AWS CLI
-
aws neptunedata create-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(a unique ID for the new endpoint)" \
--update \
--ml-model-transform-job-id "(the model-transform job-id of a completed job)"
Para obtener más información, consulte create-ml-endpointla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.create_ml_endpoint(
id='(a unique ID for the new endpoint)',
update=True,
mlModelTransformJobId='(the model-transform job-id of a completed job)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl \
-X POST https://your-neptune-endpoint:port/ml/endpoints \
-H 'Content-Type: application/json' \
-d '{
"id" : "(a unique ID for the new endpoint)",
"update" : "true",
"mlModelTransformJobId": "(the model-transform job-id of a completed job)"
}'
Parámetros para la creación de puntos de conexión de inferencia endpoints
-
id: (opcional) un identificador único para el nuevo punto de conexión de inferencia.
Tipo: cadena. Valor predeterminado: un nombre con marca temporal generado automáticamente.
-
mlModelTrainingJobId: el ID del trabajo de entrenamiento de modelos completado que ha creado el modelo al que apuntará el punto de conexión de inferencia.
Tipo: cadena.
Nota: Debe proporcionar el valor mlModelTrainingJobId o el valor mlModelTransformJobId.
-
mlModelTransformJobId: el ID de trabajo de un trabajo de transformación de modelos completado.
Tipo: cadena.
Nota: Debe proporcionar el valor mlModelTrainingJobId o el valor mlModelTransformJobId.
-
update: (opcional) si está presente, este parámetro indica que se trata de una solicitud de actualización.
Tipo: booleano. Valor predeterminado: false
Nota: Debe proporcionar el valor mlModelTrainingJobId o el valor mlModelTransformJobId.
-
neptuneIamRoleArn— (Opcional) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.
Tipo: cadena. Nota: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.
-
modelName: (opcional) tipo de modelo para el entrenamiento. De forma predeterminada, el modelo de ML se basa automáticamente en el modelType utilizado en el procesamiento de datos, pero aquí puede especificar otro tipo de modelo.
Tipo: cadena. Valor predeterminado: rgcn para gráficos heterogéneos y kge para gráficos de conocimientos. Valores válidos: para gráficos heterogéneos: rgcn. Para gráficos de conocimientos: kge, transe, distmult o rotate.
-
instanceType: (opcional) el tipo de instancia de ML que se utiliza para el mantenimiento en línea.
Tipo: cadena. Valor predeterminado: ml.m5.xlarge.
Nota: La selección de la instancia de ML para un punto de conexión de inferencia depende del tipo de tarea, del tamaño del gráfico y del presupuesto. Consulte Selección de una instancia para un punto de conexión de inferencia.
-
instanceCount: (opcional) el número mínimo de instancias de Amazon EC2 que se deben implementar en un punto de conexión para la predicción.
Tipo: número entero. Valor predeterminado: 1.
-
volumeEncryptionKMSKey— (Opcional) La AWS Key Management Service (AWS KMS) clave que utiliza la SageMaker IA para cifrar los datos del volumen de almacenamiento adjunto a las instancias informáticas de aprendizaje automático que ejecutan los puntos finales.
Tipo: cadena. Valor predeterminado: ninguno.
Obtención del estado de un punto de conexión de inferencia mediante el comando endpoints de Neptune ML
Un ejemplo del comando endpoints de Neptune ML para el estado de un punto de conexión de instancia:
- AWS CLI
-
aws neptunedata get-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)"
Para obtener más información, consulte la get-ml-endpointReferencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.get_ml_endpoint(
id='(the inference endpoint ID)'
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
--region us-east-1 \
--service neptune-db \
-X GET
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl -s \
"https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)" \
| python -m json.tool
Parámetros para el estado del punto de conexión de instancia endpoints
-
id: (obligatorio) el identificador único del punto de conexión de inferencia.
Tipo: cadena.
-
neptuneIamRoleArn— (Opcional) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.
Tipo: cadena. Nota: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.
Eliminación de un punto de conexión de instancia mediante el comando endpoints de Neptune ML
Un ejemplo del comando endpoints de Neptune ML para eliminar un punto de conexión de instancia:
- AWS CLI
-
aws neptunedata delete-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)"
Para limpiar también los artefactos relacionados:
aws neptunedata delete-ml-endpoint \
--endpoint-url https://your-neptune-endpoint:port \
--id "(the inference endpoint ID)" \
--clean
Para obtener más información, consulte delete-ml-endpointla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.delete_ml_endpoint(
id='(the inference endpoint ID)',
clean=True
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
--region us-east-1 \
--service neptune-db \
-X DELETE
Para limpiar también los artefactos relacionados:
awscurl "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true" \
--region us-east-1 \
--service neptune-db \
-X DELETE
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl -s \
-X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)"
Otro ejemplo:
curl -s \
-X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true"
Parámetros para la eliminación de puntos de conexión de inferencia endpoints
-
id: (obligatorio) el identificador único del punto de conexión de inferencia.
Tipo: cadena.
-
neptuneIamRoleArn— (Opcional) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.
Tipo: cadena. Nota: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.
-
clean: (opcional) indica que también se deben eliminar todos los artefactos relacionados con este punto de conexión.
Tipo: booleano. Valor predeterminado: FALSE.
Enumeración de puntos de conexión de inferencia mediante el comando endpoints de Neptune ML
Un comando endpoints de Neptune ML para enumerar los puntos de conexión de inferencia tiene el siguiente aspecto:
- AWS CLI
-
aws neptunedata list-ml-endpoints \
--endpoint-url https://your-neptune-endpoint:port
Para limitar el número de resultados:
aws neptunedata list-ml-endpoints \
--endpoint-url https://your-neptune-endpoint:port \
--max-items 3
Para obtener más información, consulte list-ml-endpointsla Referencia de AWS CLI comandos.
- SDK
-
import boto3
from botocore.config import Config
client = boto3.client(
'neptunedata',
endpoint_url='https://your-neptune-endpoint:port',
config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)
response = client.list_ml_endpoints(
maxItems=3
)
print(response)
- awscurl
-
awscurl https://your-neptune-endpoint:port/ml/endpoints \
--region us-east-1 \
--service neptune-db \
-X GET
Para limitar el número de resultados:
awscurl "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
--region us-east-1 \
--service neptune-db \
-X GET
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. us-east-1Sustitúyala por la región de tu cúmulo de Neptuno.
- curl
-
curl -s "https://your-neptune-endpoint:port/ml/endpoints" \
| python -m json.tool
Otro ejemplo:
curl -s "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
| python -m json.tool
Parámetros para la enumeración de puntos de conexión de inferencia dataprocessing
-
maxItems: (opcional) el número máximo de elementos que devolver.
Tipo: número entero. Valor predeterminado: 10. Valor máximo permitido: 1024.
-
neptuneIamRoleArn— (Opcional) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.
Tipo: cadena. Nota: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.