Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Algoritmo Sequence-to-Sequence
Sequence to Sequence di Amazon SageMaker AI è un algoritmo di apprendimento supervisionato in cui l’input è rappresentato da una sequenza di token (ad esempio testo, audio) e l’output generato è un’altra sequenza di token. Le applicazioni di esempio includono: traduzione automatica (immissione di una frase in una lingua e previsione della relativa traduzione in un'altra lingua), riepilogo del testo (immissione di una stringa di parole e previsione di un riepilogo della stessa), riconoscimento vocale (clip audio convertite in frasi di output in token). Recentemente, i problemi in questo dominio sono stati risolti con modelli di rete neurale profonda che hanno ottimizzato le prestazioni rispetto alle precedenti metodologie. seq2seq di Amazon SageMaker AI utilizza modelli di rete neurale ricorrente (RNN, Recurrent Neural Network) e di rete neurale convoluzionale (CNN, Convolutional Neural Network) incentrati sulle architetture di codificazione-decodificazione.
Argomenti
Interfaccia di input/output per l'algoritmo Sequence-to-Sequence
Addestramento
seq2seq di SageMaker AI prevede i dati nel formato RecordIO-Protobuf. Tuttavia, i token sono previsti come numeri interi, non come valori in virgola mobile, come si fa di solito.
Nel notebook di esempio seq2seq
Una volta completata la preelaborazione, l'algoritmo può essere richiamato per l’addestramento. L'algoritmo prevede tre canali:
-
train: deve contenere i dati di addestramento (ad esempio, il filetrain.recgenerato dallo script di preelaborazione). -
validation: deve contenere i dati di convalida (ad esempio, il fileval.recgenerato dallo script di preelaborazione). -
vocab: deve contenere i due file di vocabolario (vocab.src.jsonevocab.trg.json).
Se l'algoritmo non rileva alcun dato in questi tre canali, si verifica un errore nell’addestramento.
Inferenza
Per gli endpoint ospitati, l'inferenza supporta due formati di dati. Per eseguire l'inferenza utilizzando token di testo separati da spazio, utilizza il formato application/json. In alternativa, utilizza il formato recordio-protobuf per lavorare con i dati codificati come numeri interi. Entrambe le modalità supportano la ripartizione in batch dei dati di input. Il formato application/json consente inoltre di visualizzare la matrice di attenzione.
-
application/json: si aspetta l'input in formato JSON e restituisce l'output in formato JSON. I tipi di contenuto e accettazione devono essereapplication/json. Ogni sequenza deve essere una stringa con token separati da spazi vuoti. Questo formato è consigliato quando il numero di sequenze di origine nel batch è esiguo. Inoltre, supporta le seguenti opzioni di configurazione aggiuntive:configuration: {attention_matrix:true}: restituisce la matrice di attenzione per la specifica sequenza di input. -
application/x-recordio-protobuf: si aspetta l'input nel formatorecordio-protobufe restituisce l'output inrecordio-protobuf format. I tipi di contenuto e accettazione devono essereapplications/x-recordio-protobuf. Per questo formato, le sequenze di origine devono essere convertite in un elenco di numeri interi per la successiva codifica di protobuf. Questo formato è consigliato per l'inferenza in blocco.
Per la trasformazione in batch, l'inferenza supporta il formato JSON Lines. La trasformazione in batch prevede l'input in formato JSON Lines e restituisce l'output in formato JSON Lines. I tipi di contenuto e accettazione devono essere application/jsonlines. Il formato dell'input è il seguente:
content-type: application/jsonlines {"source": "source_sequence_0"} {"source": "source_sequence_1"}
Il formato della risposta è il seguente:
accept: application/jsonlines {"target": "predicted_sequence_0"} {"target": "predicted_sequence_1"}
Per ulteriori informazioni su come serializzare e deserializzare gli input e gli output in formati specifici per l'interferenza, consulta Notebook di esempio Sequence-to-Sequence.
Raccomandazione istanza EC2 per l'algoritmo Sequence-to-Sequence
L’algoritmo seq2seq di Amazon SageMaker AI supporta solo tipi di istanze di GPU e può essere addestrato solo su un singolo computer. Tuttavia, puoi utilizzare istanze con più GPU. L'algoritmo seq2seq supporta le famiglie di istanze GPU P2, P3, G4dn e G5.
Notebook di esempio Sequence-to-Sequence
Per un notebook di esempio che mostra come utilizzare l’algoritmo Sequence to Sequence di SageMaker AI per addestrare un modello di traduzione inglese-tedesco, consulta Machine Translation English-German Example Using SageMaker AI Seq2Seq