Fine-tuning di un modello in Studio - Amazon SageMaker AI

Fine-tuning di un modello in Studio

Il fine-tuning consente di addestrare un modello preaddestrato su un nuovo set di dati senza eseguire l’addestramento da zero. Questo processo, noto anche come trasferimento dell'apprendimento, può produrre modelli accurati con set di dati più piccoli e tempi di addestramento ridotti. Per eseguire il fine-tuning dei modelli di fondazione di JumpStart, accedi a una scheda con i dettagli del modello nell’interfaccia utente di Studio. Per ulteriori informazioni su come aprire JumpStart in Studio, consulta Apertura e utilizzo di JumpStart. Dopo aver esplorato la scheda dei dettagli del modello che preferisci, scegli Addestramento nell’angolo in alto a destra. Tieni presente che il fine-tuning non è disponibile per tutti i modelli.

Importante

Alcuni modelli di fondazione richiedono l’accettazione esplicita di un contratto di licenza con l’utente finale (End User License Agreement, EULA) prima del fine-tuning. Per ulteriori informazioni, consulta Accettazione dell'EULA in Amazon SageMaker Studio.

Impostazioni del modello

Quando si utilizza un modello di fondazione di JumpStart preaddestrato in Amazon SageMaker Studio, la posizione dell’artefatto del modello (URI Amazon S3) viene popolata per impostazione predefinita. Per modificare l’URI predefinito di Amazon S3, scegli Inserisci posizione dell’artefatto del modello. Non tutti i modelli supportano la modifica della posizione degli artefatti del modello.

Impostazioni dei dati

Nel campo Dati, indica un punto dell’URI Amazon S3 per la posizione del set di dati di addestramento. I punti dell’URI predefinito di Amazon S3 rimandano a un set di dati di addestramento di esempio. Per modificare l’URI predefinito di Amazon S3, scegli Inserisci set di dati di addestramento e modifica l’URI. Assicurati di consultare la scheda con i dettagli del modello in Amazon SageMaker Studio per informazioni sulla formattazione dei dati di addestramento.

Iperparametri

È possibile personalizzare gli iperparametri del processo di addestramento utilizzati per ottimizzare il modello. Gli iperparametri disponibili per ogni modello ottimizzabile variano a seconda del modello.

I seguenti iperparametri sono comuni tra i modelli:

  • Epoche: un'epoca è un ciclo dell'intero set di dati. Intervalli multipli completano un batch e alla fine più batch completano un'epoca. Vengono eseguite più epoche finché la precisione del modello non raggiunge un livello accettabile o quando il tasso di errore scende al di sotto di un livello accettabile.

  • Tasso di apprendimento: la quantità di valori da modificare tra le epoche. Man mano che il modello viene perfezionato, i pesi interni vengono modificati e i tassi di errore vengono controllati per vedere se il modello migliora. Un tasso di apprendimento tipico è di 0,1 o 0,01, dove 0,01 rappresenta un aggiustamento molto inferiore e potrebbe far sì che l'addestramento richieda molto tempo per convergere, mentre 0,1 è molto più elevato e può causare un superamento dell’addestramento. È uno degli iperparametri principali che si possono modificare per addestrare il modello. Notare che, per i modelli testuali, un tasso di apprendimento molto più basso (5e-5 per BERT) può portare a un modello più accurato.

  • Dimensione batch: il numero di record del set di dati da selezionare per ogni intervallo da inviare alle GPU per l’addestramento.

Consulta i suggerimenti e le informazioni aggiuntive nella scheda con i dettagli del modello nell’interfaccia utente di Studio per ulteriori informazioni sugli iperparametri specifici del modello che hai scelto.

Per ulteriori informazioni sugli iperparametri disponibili, consulta iperparametri comunemente supportati per il fine-tuning.

Implementazione

Specifica il tipo di istanza di addestramento e la posizione dell’artefatto di output per il tuo job di addestramento. Puoi scegliere solo tra istanze compatibili con il modello che preferisci nell’ambito del fine-tuning dell’interfaccia utente di Studio. La posizione predefinita degli artefatti di output è il bucket predefinito di SageMaker AI. Per modificare la posizione degli artefatti di output, scegli Inserisci posizione dell’artefatto di output e modifica l’URI di Amazon S3.

Sicurezza

Specifica le impostazioni di sicurezza da utilizzare per il tuo job di addestramento, incluso il ruolo IAM che SageMaker AI utilizza per addestrare il modello, se il job di addestramento deve connettersi a un cloud privato virtuale (VPC) ed eventuali chiavi di crittografia per proteggere i dati.

Informazioni aggiuntive

Nel campo Informazioni aggiuntive è possibile modificare il nome del job di addestramento. Inoltre, puoi aggiungere e rimuovere tag sotto forma di coppie chiave-valore per organizzare e classificare i job di addestramento per il fine-tuning.

Dopo aver fornito le informazioni per la configurazione del fine-tuning, seleziona Invia. Se il modello di fondazione preaddestrato di cui desideri eseguire il fine-tuning richiede l’accettazione esplicita di un contratto di licenza con l’utente finale (EULA) prima dell’addestramento, l’EULA viene fornito in una finestra pop-up. Per accettare i termini dell’EULA, scegli Accetta. Sei responsabile della revisione e del rispetto di tutte le condizioni di licenza applicabili e di verificare che siano accettabili per il tuo caso d'uso, prima di scaricare o utilizzare un modello.