

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Utilisation d'un modèle entraîné pour générer de nouveaux artefacts de modèle
<a name="machine-learning-model-transform"></a>

À l'aide de la commande de transformation de modèle Neptune ML, vous pouvez calculer des artefacts de modèle tels que les intégrations de nœuds sur des données de graphe traitées à l'aide de paramètres de modèle préentraînés.

## Transformation de modèle pour une inférence incrémentielle
<a name="machine-learning-model-transform-incremental"></a>

Dans le [flux de travail d'inférence de modèle incrémentielle](machine-learning-overview-evolving-data-incremental.md#machine-learning-overview-incremental), après avoir traité les données graphiques mises à jour que vous avez exportées depuis Neptune, vous pouvez démarrer une tâche de transformation de modèle à l'aide d'une commande comme celle-ci :

------
#### [ AWS CLI ]

```
aws neptunedata start-ml-model-transform-job \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique model-transform job ID)" \
  --data-processing-job-id "(the data-processing job-id of a completed job)" \
  --ml-model-training-job-id "(the ML model training job-id)" \
  --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
```

Pour plus d'informations, consultez [start-ml-model-transform-job](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/start-ml-model-transform-job.html) dans le manuel de référence des AWS CLI commandes.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.start_ml_model_transform_job(
    id='(a unique model-transform job ID)',
    dataProcessingJobId='(the data-processing job-id of a completed job)',
    mlModelTrainingJobId='(the ML model training job-id)',
    modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique model-transform job ID)",
        "dataProcessingJobId" : "(the data-processing job-id of a completed job)",
        "mlModelTrainingJobId": "(the ML model training job-id)",
        "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
      }'
```

**Note**  
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez *us-east-1* par la région de votre cluster Neptune.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/modeltransform \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique model-transform job ID)",
        "dataProcessingJobId" : "(the data-processing job-id of a completed job)",
        "mlModelTrainingJobId": "(the ML model training job-id)",
        "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
      }'
```

------

Vous pouvez ensuite transmettre l'ID de cette tâche à l'appel d'API de création de points de terminaison pour créer un nouveau point de terminaison ou mettre à jour un point de terminaison existant avec les nouveaux artefacts de modèle générés par cette tâche. Cela permet au point de terminaison nouveau ou mis à jour de fournir des prédictions de modèle pour les données de graphe mises à jour.

## Transformation de modèle pour n'importe quelle tâche d'entraînement
<a name="machine-learning-model-transform-any-job"></a>

Vous pouvez également fournir un `trainingJobName` paramètre pour générer des artefacts de modèle pour toutes les tâches de formation à l' SageMaker IA lancées pendant l'entraînement du modèle Neptune ML. Étant donné qu'une tâche de formation sur le modèle Neptune ML peut potentiellement lancer de nombreuses tâches de formation à l' SageMaker IA, cela vous donne la flexibilité de créer un point de terminaison d'inférence basé sur l'une de ces tâches de formation à l' SageMaker IA.

Par exemple :

------
#### [ AWS CLI ]

```
aws neptunedata start-ml-model-transform-job \
  --endpoint-url https://your-neptune-endpoint:port \
  --id "(a unique model-transform job ID)" \
  --training-job-name "(name of a completed SageMaker training job)" \
  --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"
```

Pour plus d'informations, consultez [start-ml-model-transform-job](https://docs.aws.amazon.com/cli/latest/reference/neptunedata/start-ml-model-transform-job.html) dans le manuel de référence des AWS CLI commandes.

------
#### [ SDK ]

```
import boto3
from botocore.config import Config

client = boto3.client(
    'neptunedata',
    endpoint_url='https://your-neptune-endpoint:port',
    config=Config(read_timeout=None, retries={'total_max_attempts': 1})
)

response = client.start_ml_model_transform_job(
    id='(a unique model-transform job ID)',
    trainingJobName='(name of a completed SageMaker training job)',
    modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/'
)

print(response)
```

------
#### [ awscurl ]

```
awscurl https://your-neptune-endpoint:port/ml/modeltransform \
  --region us-east-1 \
  --service neptune-db \
  -X POST \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique model-transform job ID)",
        "trainingJobName" : "(name of a completed SageMaker training job)",
        "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
      }'
```

**Note**  
Cet exemple suppose que vos AWS informations d'identification sont configurées dans votre environnement. Remplacez *us-east-1* par la région de votre cluster Neptune.

------
#### [ curl ]

```
curl \
  -X POST https://your-neptune-endpoint:port/ml/modeltransform \
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique model-transform job ID)",
        "trainingJobName" : "(name of a completed SageMaker training job)",
        "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/"
      }'
```

------

Si la tâche d'entraînement d'origine portait sur un modèle personnalisé fourni par l'utilisateur, vous devez inclure un objet `customModelTransformParameters` lorsque vous invoquez une transformation de modèle. Consultez [Modèles personnalisés dans Neptune ML](machine-learning-custom-models.md) pour en savoir plus sur la façon d'implémenter et d'utiliser un modèle personnalisé.

**Note**  
La `modeltransform` commande exécute toujours la transformation du modèle sur la tâche de formation à l' SageMaker IA la mieux adaptée à cette formation.

Consultez [Commande modeltransform](machine-learning-api-modeltransform.md) pour plus d'informations sur les tâches de transformation de modèle.