Algoritmo Sequence-to-Sequence - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Algoritmo Sequence-to-Sequence

Sequence to Sequence di Amazon SageMaker AI è un algoritmo di apprendimento supervisionato in cui l’input è rappresentato da una sequenza di token (ad esempio testo, audio) e l’output generato è un’altra sequenza di token. Le applicazioni di esempio includono: traduzione automatica (immissione di una frase in una lingua e previsione della relativa traduzione in un'altra lingua), riepilogo del testo (immissione di una stringa di parole e previsione di un riepilogo della stessa), riconoscimento vocale (clip audio convertite in frasi di output in token). Recentemente, i problemi in questo dominio sono stati risolti con modelli di rete neurale profonda che hanno ottimizzato le prestazioni rispetto alle precedenti metodologie. seq2seq di Amazon SageMaker AI utilizza modelli di rete neurale ricorrente (RNN, Recurrent Neural Network) e di rete neurale convoluzionale (CNN, Convolutional Neural Network) incentrati sulle architetture di codificazione-decodificazione.

Interfaccia di input/output per l'algoritmo Sequence-to-Sequence

Addestramento

seq2seq di SageMaker AI prevede i dati nel formato RecordIO-Protobuf. Tuttavia, i token sono previsti come numeri interi, non come valori in virgola mobile, come si fa di solito.

Nel notebook di esempio seq2seq è incluso uno script per la conversione dei dati da file di testo tokenizzati al formato protobuf. In generale, raggruppa i dati in tensori interi a 32 bit e genera i file di vocabolario richiesti, necessari per interferenza e calcolo dei parametri.

Una volta completata la preelaborazione, l'algoritmo può essere richiamato per l’addestramento. L'algoritmo prevede tre canali:

  • train: deve contenere i dati di addestramento (ad esempio, il file train.rec generato dallo script di preelaborazione).

  • validation: deve contenere i dati di convalida (ad esempio, il file val.rec generato dallo script di preelaborazione).

  • vocab: deve contenere i due file di vocabolario (vocab.src.json e vocab.trg.json).

Se l'algoritmo non rileva alcun dato in questi tre canali, si verifica un errore nell’addestramento.

Inferenza

Per gli endpoint ospitati, l'inferenza supporta due formati di dati. Per eseguire l'inferenza utilizzando token di testo separati da spazio, utilizza il formato application/json. In alternativa, utilizza il formato recordio-protobuf per lavorare con i dati codificati come numeri interi. Entrambe le modalità supportano la ripartizione in batch dei dati di input. Il formato application/json consente inoltre di visualizzare la matrice di attenzione.

  • application/json: si aspetta l'input in formato JSON e restituisce l'output in formato JSON. I tipi di contenuto e accettazione devono essere application/json. Ogni sequenza deve essere una stringa con token separati da spazi vuoti. Questo formato è consigliato quando il numero di sequenze di origine nel batch è esiguo. Inoltre, supporta le seguenti opzioni di configurazione aggiuntive:

    configuration: {attention_matrix: true}: restituisce la matrice di attenzione per la specifica sequenza di input.

  • application/x-recordio-protobuf: si aspetta l'input nel formato recordio-protobuf e restituisce l'output in recordio-protobuf format. I tipi di contenuto e accettazione devono essere applications/x-recordio-protobuf. Per questo formato, le sequenze di origine devono essere convertite in un elenco di numeri interi per la successiva codifica di protobuf. Questo formato è consigliato per l'inferenza in blocco.

Per la trasformazione in batch, l'inferenza supporta il formato JSON Lines. La trasformazione in batch prevede l'input in formato JSON Lines e restituisce l'output in formato JSON Lines. I tipi di contenuto e accettazione devono essere application/jsonlines. Il formato dell'input è il seguente:

content-type: application/jsonlines {"source": "source_sequence_0"} {"source": "source_sequence_1"}

Il formato della risposta è il seguente:

accept: application/jsonlines {"target": "predicted_sequence_0"} {"target": "predicted_sequence_1"}

Per ulteriori informazioni su come serializzare e deserializzare gli input e gli output in formati specifici per l'interferenza, consulta Notebook di esempio Sequence-to-Sequence.

Raccomandazione istanza EC2 per l'algoritmo Sequence-to-Sequence

L’algoritmo seq2seq di Amazon SageMaker AI supporta solo tipi di istanze di GPU e può essere addestrato solo su un singolo computer. Tuttavia, puoi utilizzare istanze con più GPU. L'algoritmo seq2seq supporta le famiglie di istanze GPU P2, P3, G4dn e G5.

Notebook di esempio Sequence-to-Sequence

Per un notebook di esempio che mostra come utilizzare l’algoritmo Sequence to Sequence di SageMaker AI per addestrare un modello di traduzione inglese-tedesco, consulta Machine Translation English-German Example Using SageMaker AI Seq2Seq. Per istruzioni su come creare e accedere alle istanze del notebook Jupyter che puoi utilizzare per eseguire l’esempio in SageMaker AI, consulta Istanze SageMaker per notebook Amazon. Dopo aver creato e aperto un’istanza del notebook, scegli la scheda Esempi di SageMaker AI per visualizzare un elenco di tutti gli esempi di SageMaker AI. I notebook di esempio di modellazione dell'argomento che utilizzano gli algoritmi NTM sono disponibili nella sezione con l'introduzione agli algoritmi di Amazon. Per aprire un notebook, fai clic sulla relativa scheda Use (Utilizza) e seleziona Create copy (Crea copia).