Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Valutazione e confronto dei modelli di classificazione SageMaker JumpStart del testo di Amazon
SageMaker JumpStart L'intelligenza artificiale offre diversi modelli di classificazione del testo che classificano il testo in classi predefinite. Questi modelli gestiscono attività come l’analisi del sentiment, la classificazione degli argomenti e la moderazione dei contenuti. La scelta del modello giusto per la produzione richiede un’attenta valutazione dell’utilizzo di metriche chiave tra cui accuratezza, punteggio F1 e Coefficiente di correlazione di Matthews (MCC).
In questa guida:
Implementa più modelli di classificazione del testo (DistilBert e BERT) dal catalogo. JumpStart
Esegui valutazioni complete su set di dati bilanciati, disallineati e complessi.
Interpreta metriche avanzate, tra cui i punteggi Coefficiente di correlazione di Matthews (MCC) e Area sotto la curva ROC (Receiver Operating Characteristic).
Prendi decisioni sulla selezione dei modelli basate sui dati utilizzando framework di confronto sistematici.
Configura implementazioni di produzione con auto-scaling e monitoraggio. CloudWatch
Scarica il framework di valutazione completo: JumpStart Model Evaluation Package. Il pacchetto include i risultati pre-esecuzione con output di esempio che ti permettono di visualizzare in anteprima il processo di valutazione e le metriche prima di implementare autonomamente i modelli.
Prerequisiti
Prima di iniziare, assicurati di disporre di:
Conoscenze base di Python.
Comprensione dei concetti di classificazione del testo.
Tempi e costo: 45 minuti in totale. I costi variano in base al tipo di istanza e alla durata dell'utilizzo: consulta i prezzi di SageMaker AI
Questo tutorial include istruzioni di step-by-step pulizia per aiutarti a rimuovere tutte le risorse ed evitare addebiti continui.