View a markdown version of this page

Utilizzo di un modello addestrato per generare nuovi artefatti del modello - Amazon Neptune

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Utilizzo di un modello addestrato per generare nuovi artefatti del modello

Utilizzando il comando di trasformazione dei modelli Neptune ML, puoi calcolare gli artefatti del modello come incorporamenti di nodi sui dati del grafo elaborati usando parametri del modello pre-addestrati.

Trasformazione dei modelli per l'inferenza incrementale

Nel flusso di lavoro di inferenza del modello incrementale, dopo aver elaborato i dati grafici aggiornati esportati da Neptune, è possibile avviare un processo di trasformazione del modello utilizzando un comando come il seguente:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --data-processing-job-id "(the data-processing job-id of a completed job)" \ --ml-model-training-job-id "(the ML model training job-id)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Per ulteriori informazioni, vedere start-ml-model-transform-job nel Command Reference. AWS CLI

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', dataProcessingJobId='(the data-processing job-id of a completed job)', mlModelTrainingJobId='(the ML model training job-id)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
Nota

Questo esempio presuppone che le AWS credenziali siano configurate nel proprio ambiente. Sostituisci us-east-1 con la regione del tuo cluster Neptune.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "dataProcessingJobId" : "(the data-processing job-id of a completed job)", "mlModelTrainingJobId": "(the ML model training job-id)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Puoi quindi passare l'ID di questo processo alla chiamata API di creazione degli endpoint per creare un nuovo endpoint o aggiornarne uno esistente con i nuovi artefatti del modello generati da questo processo. In questo modo, l'endpoint nuovo o aggiornato potrà fornire previsioni del modello per i dati del grafo aggiornati.

Trasformazione dei modelli per qualsiasi processo di addestramento

Puoi anche fornire un trainingJobName parametro per generare artefatti del modello per qualsiasi processo di formazione sull' SageMaker intelligenza artificiale lanciato durante l'addestramento del modello Neptune ML. Poiché un processo di formazione sul modello Neptune ML può potenzialmente avviare SageMaker molti lavori di formazione sull'intelligenza artificiale, ciò offre la flessibilità necessaria per creare un endpoint di inferenza basato su uno qualsiasi di questi lavori di formazione sull'intelligenza artificiale. SageMaker

Esempio:

AWS CLI
aws neptunedata start-ml-model-transform-job \ --endpoint-url https://your-neptune-endpoint:port \ --id "(a unique model-transform job ID)" \ --training-job-name "(name of a completed SageMaker training job)" \ --model-transform-output-s3-location "s3://(your S3 bucket)/neptune-model-transform/"

Per ulteriori informazioni, vedere start-ml-model-transform-job nel Command Reference. AWS CLI

SDK
import boto3 from botocore.config import Config client = boto3.client( 'neptunedata', endpoint_url='https://your-neptune-endpoint:port', config=Config(read_timeout=None, retries={'total_max_attempts': 1}) ) response = client.start_ml_model_transform_job( id='(a unique model-transform job ID)', trainingJobName='(name of a completed SageMaker training job)', modelTransformOutputS3Location='s3://(your S3 bucket)/neptune-model-transform/' ) print(response)
awscurl
awscurl https://your-neptune-endpoint:port/ml/modeltransform \ --region us-east-1 \ --service neptune-db \ -X POST \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'
Nota

Questo esempio presuppone che le AWS credenziali siano configurate nel proprio ambiente. Sostituisci us-east-1 con la regione del tuo cluster Neptune.

curl
curl \ -X POST https://your-neptune-endpoint:port/ml/modeltransform \ -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique model-transform job ID)", "trainingJobName" : "(name of a completed SageMaker training job)", "modelTransformOutputS3Location" : "s3://(your S3 bucket)/neptune-model-transform/" }'

Se il processo di addestramento originale riguarda un modello personalizzato fornito dall'utente, è necessario includere un oggetto customModelTransformParameters quando si richiama una trasformazione del modello. Per ulteriori informazioni su come implementare e usare un modello personalizzato, consulta Modelli personalizzati in Neptune ML..

Nota

Il modeltransform comando esegue sempre la trasformazione del modello sul miglior processo di formazione dell' SageMaker intelligenza artificiale per tale formazione.

Per ulteriori informazioni sui processi di trasformazione dei modelli, consulta Comando modeltransform.