

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Carichi di lavoro di trasformazione dei dati con Processing SageMaker
<a name="processing-job"></a>

SageMaker L'elaborazione si riferisce alle capacità dell' SageMaker IA di eseguire attività di pre e post elaborazione dei dati, ingegneria delle funzionalità e valutazione dei modelli sull'infrastruttura completamente gestita dell' SageMaker IA. Queste attività vengono eseguite come [processi di elaborazione](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ProcessingJob.html). Di seguito vengono fornite informazioni e risorse per conoscere SageMaker l'elaborazione.

Utilizzando l'API SageMaker Processing, i data scientist possono eseguire script e notebook per elaborare, trasformare e analizzare i set di dati per prepararli all'apprendimento automatico. Se combinato con le altre attività critiche di apprendimento automatico fornite dall' SageMaker IA, come la formazione e l'hosting, Processing offre i vantaggi di un ambiente di apprendimento automatico completamente gestito, incluso tutto il supporto per la sicurezza e la conformità integrato nell'intelligenza artificiale. SageMaker Hai la flessibilità di utilizzare i contenitori di elaborazione dati integrati o di utilizzare contenitori personalizzati per logiche di elaborazione personalizzate e quindi inviare lavori da eseguire su un'infrastruttura gestita dall' SageMaker intelligenza artificiale. 

**Nota**  
 Puoi creare un processo di elaborazione a livello di codice richiamando l'azione dell'[CreateProcessingJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateProcessingJob.html)API in qualsiasi linguaggio supportato dall' SageMaker intelligenza artificiale o utilizzando il. AWS CLI Per informazioni su come questa azione dell'API si traduce in una funzione nella lingua di tua scelta, consulta la sezione [Vedere anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateProcessingJob.html#API_CreateProcessingJob_SeeAlso) di CreateProcessingJob e scegli un SDK. Ad esempio, per gli utenti Python, consulta la sezione [Amazon SageMaker Processing](https://sagemaker.readthedocs.io/en/stable/amazon_sagemaker_processing.html) di Python SageMaker SDK. In alternativa, consulta la sintassi di richiesta completa di [create\$1processing\$1job](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_processing_job.html) in AWS SDK per Python (Boto3).

Il diagramma seguente mostra come Amazon SageMaker AI esegue un processo di elaborazione. Amazon SageMaker AI prende lo script, copia i dati da Amazon Simple Storage Service (Amazon S3) e quindi crea un contenitore di elaborazione. L'infrastruttura sottostante per un processo di elaborazione è completamente gestita da Amazon SageMaker AI. Dopo aver inviato un processo di elaborazione, l' SageMaker intelligenza artificiale avvia le istanze di calcolo, elabora e analizza i dati di input e rilascia le risorse una volta completato. L'output del processo di elaborazione viene archiviato nel bucket Amazon S3 che hai specificato. 

**Nota**  
I dati di input devono essere archiviati in un bucket S3 Amazon. In alternativa, puoi utilizzare Amazon Athena o Amazon Redshift come origini input.

![\[Esecuzione di un processo di elaborazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/Processing-1.png)


**Suggerimento**  
Per conoscere le migliori pratiche per il calcolo dei processi di addestramento distribuito ed elaborazione del machine learning (ML) in generale, consulta [Elaborazione distribuita con best practice di SageMaker intelligenza artificiale](distributed-training-options.md).

## Usa Amazon SageMaker Processing Sample Notebook
<a name="processing-job-sample-notebooks"></a>

Sono disponibili due notebook Jupyter di esempio che mostrano come eseguire la preelaborazione dei dati, la valutazione del modello o entrambe le attività.

[Per un taccuino di esempio che mostra come eseguire script scikit-learn per eseguire la preelaborazione dei dati e l'addestramento e la valutazione dei modelli con SageMaker Python SDK for Processing, vedi scikit-learn Processing.](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker_processing/scikit_learn_data_processing_and_model_evaluation) Questo notebook mostra anche come utilizzare il container personalizzato per eseguire carichi di lavoro di elaborazione con le librerie Python e altre dipendenze specifiche.

Per un notebook di esempio che mostra come utilizzare Amazon SageMaker Processing per eseguire la preelaborazione distribuita dei dati con Spark, consulta [Distributed Processing (Spark](https://github.com/aws/amazon-sagemaker-examples/blob/main/sagemaker_processing/spark_distributed_data_processing/sagemaker-spark-processing.ipynb)). Questo taccuino mostra anche come addestrare un modello di regressione utilizzando XGBoost un set di dati preelaborato.

Per istruzioni su come creare e accedere alle istanze di notebook Jupyter da utilizzare per eseguire questi esempi in AI, consulta. SageMaker [Istanze SageMaker per notebook Amazon](nbi.md) Dopo aver creato un'istanza di notebook e averla aperta, scegli la scheda **Esempi SageMaker AI** per visualizzare un elenco di tutti gli esempi di IA. SageMaker Per aprire un notebook, seleziona la relativa scheda **Utilizza** e scegli **Crea copia**.

## Monitora i SageMaker processi di elaborazione di Amazon con CloudWatch log e metriche
<a name="processing-job-cloudwatch"></a>

Amazon SageMaker Processing fornisce CloudWatch log e parametri Amazon per monitorare i processi di elaborazione. CloudWatch fornisce CPU, GPU, memoria, memoria GPU e parametri del disco e registrazione degli eventi. Per ulteriori informazioni, consultare [Metriche di Amazon SageMaker AI in Amazon CloudWatch](monitoring-cloudwatch.md) e [CloudWatch Registri per Amazon SageMaker AI](logging-cloudwatch.md).