

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Administración de los puntos de conexión de inferencia mediante el comando `endpoints`
<a name="machine-learning-api-endpoints"></a>

El comando `endpoints` de Neptune ML se utiliza para crear un punto de conexión de inferencia, comprobar su estado, eliminarlo o enumerar los puntos de conexión de inferencia existentes.

## Creación de un punto de conexión de inferencia mediante el comando `endpoints` de Neptune ML
<a name="machine-learning-api-endpoints-create-job"></a>

Un comando `endpoints` de Neptune ML para crear un punto de conexión de inferencia a partir de un modelo creado por un trabajo de entrenamiento tiene el siguiente aspecto:

------
#### [ AWS CLI ]

```
aws neptunedata create-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique ID for the new endpoint)" \
  --ml-model-training-job-id "(the model-training job-id of a completed job)"
```

Para obtener más información, consulte [create-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/create-ml-endpoint.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.create_ml_endpoint(
    id='(a unique ID for the new endpoint)',
    mlModelTrainingJobId='(the model-training job-id of a completed job)'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/endpoints \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

------

Un comando `endpoints` de Neptune ML para actualizar un punto de conexión de inferencia existente a partir de un modelo creado por un trabajo de entrenamiento tiene el siguiente aspecto:

------
#### [ AWS CLI ]

```
aws neptunedata create-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique ID for the new endpoint)" \
  --update \
  --ml-model-training-job-id "(the model-training job-id of a completed job)"
```

Para obtener más información, consulte [create-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/create-ml-endpoint.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.create_ml_endpoint(
    id='(a unique ID for the new endpoint)',
    update=True,
    mlModelTrainingJobId='(the model-training job-id of a completed job)'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/endpoints \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

------

Un comando `endpoints` de Neptune ML para crear un punto de conexión de inferencia a partir de un trabajo de transformación de modelos tiene el siguiente aspecto:

------
#### [ AWS CLI ]

```
aws neptunedata create-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique ID for the new endpoint)" \
  --ml-model-transform-job-id "(the model-transform job-id of a completed job)"
```

Para obtener más información, consulte [create-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/create-ml-endpoint.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.create_ml_endpoint(
    id='(a unique ID for the new endpoint)',
    mlModelTransformJobId='(the model-transform job-id of a completed job)'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-transform job-id of a completed job)"
      }'
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/endpoints \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-transform job-id of a completed job)"
      }'
```

------

Un comando `endpoints` de Neptune ML para actualizar un punto de conexión de inferencia existente a partir de un trabajo de transformación de modelos tiene el siguiente aspecto:

------
#### [ AWS CLI ]

```
aws neptunedata create-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique ID for the new endpoint)" \
  --update \
  --ml-model-transform-job-id "(the model-transform job-id of a completed job)"
```

Para obtener más información, consulte [create-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/create-ml-endpoint.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.create_ml_endpoint(
    id='(a unique ID for the new endpoint)',
    update=True,
    mlModelTransformJobId='(the model-transform job-id of a completed job)'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-transform job-id of a completed job)"
      }'
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/endpoints \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-transform job-id of a completed job)"
      }'
```

------

**Parámetros para la creación de puntos de conexión de inferencia `endpoints`**
+ **`id`**: (*opcional*) un identificador único para el nuevo punto de conexión de inferencia.

  *Tipo*: cadena. *Valor predeterminado*: un nombre con marca temporal generado automáticamente.
+ **`mlModelTrainingJobId`**: el ID del trabajo de entrenamiento de modelos completado que ha creado el modelo al que apuntará el punto de conexión de inferencia.

  *Tipo*: cadena.

  *Nota*: Debe proporcionar el valor `mlModelTrainingJobId` o el valor `mlModelTransformJobId`.
+ **`mlModelTransformJobId`**: el ID de trabajo de un trabajo de transformación de modelos completado.

  *Tipo*: cadena.

  *Nota*: Debe proporcionar el valor `mlModelTrainingJobId` o el valor `mlModelTransformJobId`.
+ **`update`**: (*opcional*) si está presente, este parámetro indica que se trata de una solicitud de actualización.

  *Tipo*: booleano. *Valor predeterminado*: `false`

  *Nota*: Debe proporcionar el valor `mlModelTrainingJobId` o el valor `mlModelTransformJobId`.
+ **`neptuneIamRoleArn`**— (*Opcional*) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.

  *Tipo*: cadena. *Nota*: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.
+ **`modelName`**: (*opcional*) tipo de modelo para el entrenamiento. De forma predeterminada, el modelo de ML se basa automáticamente en el `modelType` utilizado en el procesamiento de datos, pero aquí puede especificar otro tipo de modelo.

  *Tipo*: cadena. *Valor predeterminado*: `rgcn` para gráficos heterogéneos y `kge` para gráficos de conocimientos. *Valores válidos*: para gráficos heterogéneos: `rgcn`. Para gráficos de conocimientos: `kge`, `transe`, `distmult` o `rotate`.
+ **`instanceType`**: (*opcional*) el tipo de instancia de ML que se utiliza para el mantenimiento en línea.

  *Tipo*: cadena. *Valor predeterminado*: `ml.m5.xlarge`.

  *Nota*: La selección de la instancia de ML para un punto de conexión de inferencia depende del tipo de tarea, del tamaño del gráfico y del presupuesto. Consulte [Selección de una instancia para un punto de conexión de inferencia](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
+ **`instanceCount`**: (*opcional*) el número mínimo de instancias de Amazon EC2 que se deben implementar en un punto de conexión para la predicción.

  *Tipo*: número entero. *Valor predeterminado*: `1`.
+ **`volumeEncryptionKMSKey`**— (*Opcional*) La AWS Key Management Service (AWS KMS) clave que utiliza la SageMaker IA para cifrar los datos del volumen de almacenamiento adjunto a las instancias informáticas de aprendizaje automático que ejecutan los puntos finales.

  *Tipo*: cadena. *Valor predeterminado*: *ninguno*.

## Obtención del estado de un punto de conexión de inferencia mediante el comando `endpoints` de Neptune ML
<a name="machine-learning-api-endpoints-get-endpoint-status"></a>

Un ejemplo del comando `endpoints` de Neptune ML para el estado de un punto de conexión de instancia:

------
#### [ AWS CLI ]

```
aws neptunedata get-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(the inference endpoint ID)"
```

Para obtener más información, consulte la [get-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/get-ml-endpoint.html)Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.get_ml_endpoint(
    id='(the inference endpoint ID)'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
  --region us-east-1 \
  --service neptune-db \
  -X GET
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl -s \
  "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)" \
  | python -m json.tool
```

------

**Parámetros para el estado del punto de conexión de instancia `endpoints`**
+ **`id`**: (*obligatorio*) el identificador único del punto de conexión de inferencia.

  *Tipo*: cadena.
+ **`neptuneIamRoleArn`**— (*Opcional*) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.

  *Tipo*: cadena. *Nota*: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.

## Eliminación de un punto de conexión de instancia mediante el comando `endpoints` de Neptune ML
<a name="machine-learning-api-endpoints-delete-endpoint"></a>

Un ejemplo del comando `endpoints` de Neptune ML para eliminar un punto de conexión de instancia:

------
#### [ AWS CLI ]

```
aws neptunedata delete-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(the inference endpoint ID)"
```

Para limpiar también los artefactos relacionados:

```
aws neptunedata delete-ml-endpoint \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(the inference endpoint ID)" \
  --clean
```

Para obtener más información, consulte [delete-ml-endpoint](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/delete-ml-endpoint.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.delete_ml_endpoint(
    id='(the inference endpoint ID)',
    clean=True
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID) \
  --region us-east-1 \
  --service neptune-db \
  -X DELETE
```

Para limpiar también los artefactos relacionados:

```
awscurl "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true" \
  --region us-east-1 \
  --service neptune-db \
  -X DELETE
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl -s \
  -X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)"
```

Otro ejemplo:

```
curl -s \
  -X DELETE "https://your-neptune-endpoint:port/ml/endpoints/(the inference endpoint ID)?clean=true"
```

------

**Parámetros para la eliminación de puntos de conexión de inferencia `endpoints`**
+ **`id`**: (*obligatorio*) el identificador único del punto de conexión de inferencia.

  *Tipo*: cadena.
+ **`neptuneIamRoleArn`**— (*Opcional*) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.

  *Tipo*: cadena. *Nota*: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.
+ **`clean`**: (*opcional*) indica que también se deben eliminar todos los artefactos relacionados con este punto de conexión.

  *Tipo*: booleano. *Valor predeterminado*: `FALSE`.

## Enumeración de puntos de conexión de inferencia mediante el comando `endpoints` de Neptune ML
<a name="machine-learning-api-endpoints-list-endpoints"></a>

Un comando `endpoints` de Neptune ML para enumerar los puntos de conexión de inferencia tiene el siguiente aspecto:

------
#### [ AWS CLI ]

```
aws neptunedata list-ml-endpoints \
  --endpoint-url https://your-neptune-endpoint:port
```

Para limitar el número de resultados:

```
aws neptunedata list-ml-endpoints \
  --endpoint-url https://your-neptune-endpoint:port \
  --max-items 3
```

Para obtener más información, consulte [list-ml-endpoints](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/list-ml-endpoints.html)la Referencia de AWS CLI comandos.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.list_ml_endpoints(
    maxItems=3
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/endpoints \
  --region us-east-1 \
  --service neptune-db \
  -X GET
```

Para limitar el número de resultados:

```
awscurl "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
  --region us-east-1 \
  --service neptune-db \
  -X GET
```

**nota**  
En este ejemplo se supone que sus AWS credenciales están configuradas en su entorno. *us-east-1*Sustitúyala por la región de tu cúmulo de Neptuno.

------
#### [ curl ]

```
curl -s "https://your-neptune-endpoint:port/ml/endpoints" \
  | python -m json.tool
```

Otro ejemplo:

```
curl -s "https://your-neptune-endpoint:port/ml/endpoints?maxItems=3" \
  | python -m json.tool
```

------

**Parámetros para la enumeración de puntos de conexión de inferencia `dataprocessing`**
+ **`maxItems`**: (*opcional*) el número máximo de elementos que devolver.

  *Tipo*: número entero. *Valor predeterminado*: `10`. *Valor máximo permitido*: `1024`.
+ **`neptuneIamRoleArn`**— (*Opcional*) El ARN de un rol de IAM que proporciona a Neptune acceso a los recursos de IA y SageMaker Amazon S3.

  *Tipo*: cadena. *Nota*: Debe figurar en el grupo de parámetros del clúster de base de datos o se producirá un error.