

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Note di rilascio SageMaker di Amazon Training Compiler
<a name="training-compiler-release-notes"></a>

**Importante**  
Amazon Web Services (AWS) annuncia che non ci saranno nuove release o versioni di SageMaker Training Compiler. Puoi continuare a utilizzare SageMaker Training Compiler tramite gli esistenti AWS Deep Learning Containers (DLCs) for SageMaker Training. È importante notare che, sebbene gli esistenti DLCs rimangano accessibili, non riceveranno più patch o aggiornamenti da AWS, in conformità con la [politica di supporto del AWS Deep Learning Containers Framework](https://docs.aws.amazon.com/deep-learning-containers/latest/devguide/support-policy.html).

Consulta le seguenti note di rilascio per tenere traccia degli ultimi aggiornamenti per Amazon SageMaker Training Compiler.

## SageMaker Note di rilascio di Training Compiler: 13 febbraio 2023
<a name="training-compiler-release-notes-20230213"></a>

**Aggiornamenti sulla valuta**
+ È stato aggiunto il supporto per la versione 1.13.1 PyTorch 

**Correzioni di bug**
+ È stato risolto un problema relativo alle condizioni di gara sulla GPU che causava la perdita di NAN in alcuni modelli come i modelli Vision Transformer (ViT).

**Altre modifiche**
+ SageMaker Training Compiler migliora le prestazioni permettendo di PyTorch/XLA sovrascrivere automaticamente gli ottimizzatori (come SGD, Adam, AdamW) in `torch.optim` o `transformers.optimization` con le loro versioni prive di sincronizzazione (come,,). `torch_xla.amp.syncfree` `torch_xla.amp.syncfree.SGD` `torch_xla.amp.syncfree.Adam` `torch_xla.amp.syncfree.AdamW` Non è necessario modificare le righe di codice in cui si definiscono gli ottimizzatori nello script di addestramento.

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ PyTorch v1.13.1

  ```
  763104351884.dkr.ecr.us-west-2.amazonaws.com/pytorch-trcomp-training:1.13.1-gpu-py39-cu117-ubuntu20.04-sagemaker
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note di rilascio di Training Compiler: 9 gennaio 2023
<a name="training-compiler-release-notes-20230109"></a>

**Modifiche rivoluzionarie**
+ `tf.keras.optimizers.Optimizer`indica un nuovo ottimizzatore nella versione TensorFlow 2.11.0 e successive. I vecchi ottimizzatori vengono spostati in `tf.keras.optimizers.legacy`. Un processo potrebbe avere esito negativo a causa di una modifica rivoluzionaria quando esegui le seguenti operazioni. 
  + Carica i checkpoint da un vecchio ottimizzatore. Ti consigliamo di passare all'utilizzo degli ottimizzatori precedenti.
  + Usa v1. TensorFlow Ti consigliamo di migrare alla TensorFlow v2 o di passare agli ottimizzatori precedenti se devi continuare a utilizzare la v1. TensorFlow

  Per un elenco più dettagliato delle ultime modifiche apportate all'ottimizzatore, consulta le note di rilascio [ufficiali della versione TensorFlow 2.11.0 nel repository](https://github.com/tensorflow/tensorflow/releases/tag/v2.11.0). TensorFlow GitHub

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ TensorFlow v2.11.0

  ```
  763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.11.0-gpu-py39-cu112-ubuntu20.04-sagemaker
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note sulla versione di Training Compiler: 8 dicembre 2022
<a name="training-compiler-release-notes-20221208"></a>

**Correzioni di bug**
+ È stata corretta la configurazione iniziale dei lavori di PyTorch formazione a partire dalla PyTorch versione 1.12 per garantire che non vi siano discrepanze nell'inizializzazione del modello tra i diversi processi. [Vedi anche Riproducibilità. PyTorch](https://pytorch.org/docs/stable/notes/randomness.html)
+ È stato risolto il problema che PyTorch impediva la comunicazione predefinita dei lavori di formazione distribuiti su istanze G4dn e G5. [PCIe](https://en.wikipedia.org/wiki/PCI_Express)

**Problemi noti**
+ L'uso improprio dei trasformatori di PyTorch/XLA APIs visione di Hugging Face potrebbe portare a problemi di convergenza.

**Altre modifiche**
+ Quando utilizzate la `Trainer` classe Hugging Face Transformers, assicuratevi di utilizzare gli SyncFree ottimizzatori impostando l'argomento su. `optim` `adamw_torch_xla` Per ulteriori informazioni, consulta [Modelli linguistici di grandi dimensioni che utilizzano la classe `Trainer` Hugging Face Transformers](training-compiler-pytorch-models.md#training-compiler-pytorch-models-transformers-trainer). Vedi anche [Ottimizzatore](https://huggingface.co/docs/transformers/v4.23.1/en/perf_train_gpu_one#optimizer) nella *documentazione di Hugging Face Transformers*.

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ PyTorch v1.12.0

  ```
  763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-trcomp-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note sulla versione di Training Compiler: 4 ottobre 2022
<a name="training-compiler-release-notes-20221004"></a>

**Aggiornamenti sulla valuta**
+ È stato aggiunto il supporto per la versione TensorFlow 2.10.0.

**Altre modifiche**
+ Aggiunti modelli Hugging Face NLP che utilizzano la libreria Transformers per i test del framework. TensorFlow Per trovare i modelli Transformer testati, consulta [Modelli testati](training-compiler-support.md#training-compiler-tested-models).

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ TensorFlow v2.10.0

  ```
  763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.10.0-gpu-py39-cu112-ubuntu20.04-sagemaker
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note sulla versione di Training Compiler: 1 settembre 2022
<a name="training-compiler-release-notes-20220825"></a>

**Aggiornamenti sulla valuta**
+ Aggiunto il supporto per Hugging Face Transformers v4.21.1 con v1.11.0. PyTorch

**Miglioramenti**
+ Implementato un nuovo meccanismo di avvio del training distribuito per attivare i modelli SageMaker Training Compiler for Hugging Face Transformer con. PyTorch Per ulteriori informazioni, consulta [Run PyTorch Training Jobs with Training Compiler for Distributed SageMaker Training](training-compiler-enable-pytorch.md#training-compiler-estimator-pytorch-distributed).
+ Integrato con EFA per migliorare la comunicazione collettiva nell’addestramento distribuito.
+ È stato aggiunto il supporto per le istanze G5 per PyTorch i lavori di formazione. Per ulteriori informazioni, consulta [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md).

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ [HuggingFace v4.21.1 con v1.11.0 PyTorch ](https://github.com/aws/deep-learning-containers/releases/tag/v1.0-trcomp-hf-4.21.1-pt-1.11.0-tr-gpu-py38)

  ```
  763104351884.dkr.ecr.us-west-2.amazonaws.com/huggingface-pytorch-trcomp-training:1.11.0-transformers4.21.1-gpu-py38-cu113-ubuntu20.04
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note di rilascio di Training Compiler: 14 giugno 2022
<a name="training-compiler-release-notes-20220614"></a>

**Nuove funzionalità**
+ È stato aggiunto il supporto per la versione TensorFlow 2.9.1. SageMaker Training Compiler supporta completamente la compilazione di TensorFlow moduli (`tf.*`) e TensorFlow moduli Keras (). `tf.keras.*`
+ È stato aggiunto il supporto per contenitori personalizzati creati estendendo AWS Deep Learning Containers for TensorFlow. Per ulteriori informazioni, consulta [Abilitare SageMaker Training Compiler Using the SageMaker Python SDK e SageMaker Extending AI Framework Deep Learning](training-compiler-enable-tensorflow.md#training-compiler-enable-tensorflow-sdk-extend-container) Containers.
+ È stato aggiunto il supporto per le istanze G5 per i lavori di formazione. TensorFlow 

**Migrazione verso AWS Deep Learning Containers**

Questa versione ha superato i test di benchmark ed è stata migrata al seguente AWS Deep Learning Container:
+ TensorFlow 2.9.1

  ```
  763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.9.1-gpu-py39-cu112-ubuntu20.04-sagemaker
  ```

  Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)

## SageMaker Note sulla versione di Training Compiler: 26 aprile 2022
<a name="training-compiler-release-notes-20220426"></a>

**Miglioramenti**
+ È stato aggiunto il supporto per tutte le aree Regioni AWS in cui i [AWS Deep Learning Containers](https://github.com/aws/deep-learning-containers/blob/master/available_images.md) sono in servizio, ad eccezione delle regioni della Cina.

## SageMaker Note sulla versione di Training Compiler: 12 aprile 2022
<a name="training-compiler-release-notes-20220412"></a>

**Aggiornamenti sulla valuta**
+ Aggiunto il supporto per Hugging Face Transformers v4.17.0 con v2.6.3 e v1.10.2. TensorFlow PyTorch 

## SageMaker Note sulla versione di Training Compiler: 21 febbraio 2022
<a name="training-compiler-release-notes-20220221"></a>

**Miglioramenti**
+ Test di benchmark completato e accelerazione confermata dell’addestramento sui tipi di istanze `ml.g4dn`. Per un elenco completo delle istanze `ml` testate, consulta [Tipi di istanze supportati](training-compiler-support.md#training-compiler-supported-instance-types).

## SageMaker Note di rilascio di Training Compiler: 1 dicembre 2021
<a name="training-compiler-release-notes-20211201"></a>

**Nuove funzionalità**
+ Ha lanciato Amazon SageMaker Training Compiler al AWS re:Invent 2021.

**Migrazione verso AWS Deep Learning Containers**
+ Amazon SageMaker Training Compiler ha superato i test di benchmark ed è stato migrato a AWS Deep Learning Containers. Per trovare un elenco completo dei contenitori predefiniti con Amazon SageMaker Training Compiler, consulta. [Framework supportati, tipi di istanze e modelli Regioni AWS testati](training-compiler-support.md)