Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Valutazione RFT
Cos'è la valutazione RFT?
RFT Evaluation consente di valutare le prestazioni del modello utilizzando funzioni di ricompensa personalizzate prima, durante o dopo la formazione di reinforcement learning. A differenza delle valutazioni standard che utilizzano metriche predefinite, RFT Evaluation consente di definire criteri di successo personalizzati tramite una funzione Lambda che assegna un punteggio agli output del modello in base ai requisiti specifici.
Perché effettuare una valutazione con RFT?
La valutazione è fondamentale per determinare se il processo di messa a punto di RL presenta:
-
Migliore allineamento del modello con il caso d'uso specifico e i valori umani
-
Funzionalità del modello mantenute o migliorate per le attività chiave
-
Ha evitato effetti collaterali indesiderati come riduzione della fattualità, aumento della verbosità o riduzione delle prestazioni in altre attività
-
Hai soddisfatto i criteri di successo personalizzati definiti dalla tua funzione di ricompensa
Quando utilizzare la valutazione RFT
Utilizza la valutazione RFT in questi scenari:
-
Prima della formazione RFT: stabilisci le metriche di base sul tuo set di dati di valutazione
-
Durante l'allenamento RFT: monitora i progressi dell'allenamento con punti di controllo intermedi
-
Dopo la formazione RFT: verifica che il modello finale soddisfi i tuoi requisiti
-
Confronto tra modelli: valuta più versioni del modello utilizzando criteri di ricompensa coerenti
Nota
Usa RFT Evaluation quando hai bisogno di metriche personalizzate e specifiche del dominio. Per una valutazione generica (precisione, perplessità, BLEU), utilizzate metodi di valutazione standard.
Requisiti per il formato dei dati
Struttura dei dati di input
I dati di input di valutazione RFT devono seguire il formato OpenAI Reinforcement Fine-Tuning. Ogni esempio è un oggetto JSON contenente:
-
messages— Serie di turni di conversazione con ruolisystemuser -
reference_answer— Risultati attesi o dati fondamentali utilizzati dalla funzione di ricompensa per il punteggio
Esempio di formato dei dati
{ "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Solve for x. Return only JSON like {\"x\": <number>}. Equation: 2x + 5 = 13" } ] } ], "reference_answer": { "x": 4 } }
Limitazioni attuali
-
Solo testo: non sono supportati input multimodali (immagini, audio, video)
-
Conversazioni a turno singolo: supporta solo messaggi utente singoli (non dialoghi a più turni)
-
Formato JSON: i dati di input devono essere in formato JSONL (un oggetto JSON per riga)
-
Risultati del modello: la valutazione viene eseguita sui completamenti generati dal modello specificato
Preparazione della ricetta di valutazione
Notebook di esempio
Per un esempio completo, consulta Quaderni di valutazione.
Esempio di configurazione della ricetta
run: name: nova-lite-rft-eval-job model_type: amazon.nova-lite-v1:0:300k model_name_or_path: s3://escrow_bucket/model_location # [MODIFIABLE] S3 path to your model or model identifier replicas: 1 # [MODIFIABLE] For SageMaker Training jobs only; fixed for HyperPod jobs data_s3_path: "" # [REQUIRED FOR HYPERPOD] Leave empty for SageMaker Training jobs and use TrainingInput in sagemaker python SDK output_s3_path: "" # [REQUIRED] Output artifact S3 path for evaluation results evaluation: task: rft_eval # [FIXED] Do not modify strategy: rft_eval # [FIXED] Do not modify metric: all # [FIXED] Do not modify # Inference Configuration inference: max_new_tokens: 8192 # [MODIFIABLE] Maximum tokens to generate top_k: -1 # [MODIFIABLE] Top-k sampling parameter top_p: 1.0 # [MODIFIABLE] Nucleus sampling parameter temperature: 0 # [MODIFIABLE] Sampling temperature (0 = deterministic) top_logprobs: 0 # [MODIFIABLE] Set between 1-20 to enable logprobs output # ============================================================================= # Bring Your Own Reinforcement Learning Environment # ============================================================================= rl_env: reward_lambda_arn: arn:aws:lambda:<region>:<account_id>:function:<reward-function-name>
Funzioni di ricompensa preimpostate
Due funzioni di ricompensa preimpostate (prime_codeeprime_math) dalla libreria open source verl sono disponibili come livello Lambda per una facile integrazione con le funzioni RFT Lambda.
Panoramica di
Queste funzioni preimpostate forniscono funzionalità di valutazione per: out-of-the-box
-
prime_code— Generazione di codice e valutazione della correttezza -
prime_math— Ragionamento matematico e valutazione della risoluzione dei problemi
Configurazione rapida
-
Scarica il layer Lambda dalle versioni. nova-custom-eval-sdk
-
Pubblica il layer Lambda utilizzando AWS Command Line Interface ()AWS CLI:
aws lambda publish-layer-version \ --layer-name preset-function-layer \ --description "Preset reward function layer with dependencies" \ --zip-file fileb://universal_reward_layer.zip \ --compatible-runtimes python3.9 python3.10 python3.11 python3.12 \ --compatible-architectures x86_64 arm64 -
Aggiungi il layer alla tua funzione Lambda nella Console di AWS gestione (seleziona il layer preset-function-layer dal livello personalizzato e aggiungi anche AWSSDKPandas-Python 312 per le dipendenze numpy).
-
Importa e usa nel tuo codice Lambda:
from prime_code import compute_score # For code evaluation from prime_math import compute_score # For math evaluation
funzione prime_code
Valuta le attività di generazione di codice Python eseguendo codice in base a casi di test e misurando la correttezza.
Esempio di formato del set di dati di input
{"messages":[{"role":"user","content":"Write a function that returns the sum of two numbers."}],"reference_answer":{"inputs":["3\n5","10\n-2","0\n0"],"outputs":["8","8","0"]}} {"messages":[{"role":"user","content":"Write a function to check if a number is even."}],"reference_answer":{"inputs":["4","7","0","-2"],"outputs":["True","False","True","True"]}}
Caratteristiche principali
-
Estrazione automatica del codice dai blocchi di codice markdown
-
Rilevamento delle funzioni e test basati sulle chiamate
-
Esecuzione di test case con protezione dal timeout
-
Convalida della sintassi e controlli di compilazione
-
Segnalazione dettagliata degli errori con traceback
funzione prime_math
Valuta le capacità di ragionamento matematico e di risoluzione dei problemi con il supporto della matematica simbolica.
Formato di input
{"messages":[{"role":"user","content":"What is the derivative of x^2 + 3x?."}],"reference_answer":"2*x + 3"}
Caratteristiche principali
-
Valutazione matematica simbolica utilizzando SymPy
-
Formati di risposta multipli (LaTeX, testo semplice, simbolico)
-
Controllo matematico dell'equivalenza
-
Normalizzazione e semplificazione delle espressioni
Requisiti per il formato dei dati
Per la valutazione del codice
-
Input: matrice di argomenti delle funzioni (tipi propri: numeri interi, stringhe, ecc.)
-
Output: matrice di valori restituiti previsti (tipi appropriati: booleani, numeri, ecc.)
-
Codice: deve essere in Python con definizioni di funzioni chiare
Per la valutazione matematica
-
Risposta di riferimento: espressione matematica o valore numerico
-
Risposta: può essere LaTe X, testo semplice o notazione simbolica
-
Equivalenza: verificata simbolicamente, non solo in base alla corrispondenza tra stringhe
Best practice
-
Usa i tipi di dati appropriati nei casi di test (numeri interi contro stringhe, booleani vs «True»)
-
Fornisci firme funzionali chiare nei problemi di codice
-
Includi casi limite negli input di test (zero, numeri negativi, input vuoti)
-
Formatta le espressioni matematiche in modo coerente nelle risposte di riferimento
-
Testa la tua funzione di ricompensa con dati di esempio prima dell'implementazione
Gestione degli errori
Entrambe le funzioni includono una solida gestione degli errori per:
-
Errori di compilazione nel codice generato
-
Eccezioni di runtime durante l'esecuzione
-
Dati di input non validi
-
Scenari di timeout per loop infiniti
-
Espressioni matematiche non valide
Creazione della funzione di ricompensa
Requisiti Lambda ARN
Il tuo Lambda ARN deve seguire questo formato:
"arn:aws:lambda:*:*:function:*SageMaker*"
Se la Lambda non dispone di questo schema di denominazione, il processo avrà esito negativo con questo errore:
[ERROR] Unexpected error: lambda_arn must contain one of: ['SageMaker', 'sagemaker', 'Sagemaker'] when running on SMHP platform (Key: lambda_arn)
Formato di richiesta Lambda
La tua funzione Lambda riceve i dati in questo formato:
[ { "id": "sample-001", "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Do you have a dedicated security team?" } ] }, { "role": "nova_assistant", "content": [ { "type": "text", "text": "As an AI developed by Company, I don't have a dedicated security team..." } ] } ], "reference_answer": { "compliant": "No", "explanation": "As an AI developed by Company, I do not have a traditional security team..." } } ]
Nota
La struttura dei messaggi include l'contentarray annidato, corrispondente al formato dei dati di input. L'ultimo messaggio con ruolo nova_assistant contiene la risposta generata dal modello.
Formato di risposta Lambda
La tua funzione Lambda deve restituire dati in questo formato:
[ { "id": "sample-001", "aggregate_reward_score": 0.75, "metrics_list": [ { "name": "accuracy", "value": 0.85, "type": "Metric" }, { "name": "fluency", "value": 0.90, "type": "Reward" } ] } ]
Campi di risposta
-
id— Deve corrispondere all'ID del campione di input -
aggregate_reward_score— Punteggio complessivo (in genere da 0,0 a 1,0) -
metrics_list— Serie di metriche individuali con:-
name— Identificatore metrico (ad es. «precisione», «fluidità») -
value— Punteggio metrico (in genere da 0,0 a 1,0) -
type— «Metrico» (per la rendicontazione) o «Premio» (utilizzato nella formazione)
-
autorizzazioni IAM
Autorizzazioni richieste
Il ruolo di SageMaker esecuzione deve disporre delle autorizzazioni per richiamare la funzione Lambda. Aggiungi questa politica al tuo SageMaker ruolo di esecuzione:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "lambda:InvokeFunction" ], "Resource": "arn:aws:lambda:region:account-id:function:function-name" } ] }
Ruolo di esecuzione Lambda
Il ruolo di esecuzione della tua funzione Lambda richiede le autorizzazioni di esecuzione Lambda di base:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "logs:CreateLogGroup", "logs:CreateLogStream", "logs:PutLogEvents" ], "Resource": "arn:aws:logs:*:*:*" } ] }
Se la tua funzione Lambda accede ad altri AWS servizi (ad esempio, S3 per i dati di riferimento, DynamoDB per la registrazione), aggiungi tali autorizzazioni al ruolo di esecuzione Lambda.
Esecuzione del processo di valutazione
-
Prepara i tuoi dati: formatta i dati di valutazione in base ai requisiti di formato dei dati e carica il file JSONL su S3:
s3://your-bucket/eval-data/eval_data.jsonl -
Configura la tua ricetta: aggiorna la ricetta di esempio con la tua configurazione:
-
Imposta
model_name_or_pathla posizione del modello -
Imposta
lambda_arnsulla funzione di ricompensa ARN -
Imposta
output_s3_pathla posizione di uscita desiderata -
Regola
inferencei parametri secondo necessità
Salva la ricetta con nome
rft_eval_recipe.yaml -
-
Esegui la valutazione: esegui il processo di valutazione utilizzando il taccuino fornito: Quaderni di valutazione
-
Monitora i progressi: monitora il processo di valutazione tramite:
-
SageMaker Console: controlla lo stato del lavoro e i registri
-
CloudWatch Registri: visualizza i registri di esecuzione dettagliati
-
Lambda Logs: problemi relativi alla funzione di ricompensa di debug
-
Comprensione dei risultati della valutazione
Formato di output
Il processo di valutazione restituisce i risultati nella posizione S3 specificata in formato JSONL. Ogni riga contiene i risultati della valutazione per un campione:
{ "id": "sample-001", "aggregate_reward_score": 0.75, "metrics_list": [ { "name": "accuracy", "value": 0.85, "type": "Metric" }, { "name": "fluency", "value": 0.90, "type": "Reward" } ] }
Nota
L'RFT Evaluation Job Output è identico al formato Lambda Response. Il servizio di valutazione analizza la risposta della funzione Lambda senza modifiche, garantendo la coerenza tra i calcoli delle ricompense e i risultati finali.
Interpretazione dei risultati
Punteggio di ricompensa aggregato
-
Intervallo: in genere da 0,0 (peggiore) a 1,0 (migliore), ma dipende dall'implementazione
-
Scopo: un unico numero che riassume le prestazioni complessive
-
Utilizzo: confronta i modelli, monitora i miglioramenti durante l'allenamento
Metriche individuali
-
Tipo di metrica: metriche informative per l'analisi
-
Tipo di ricompensa: metriche utilizzate durante la formazione RFT
-
Interpretazione: valori più alti in genere indicano prestazioni migliori (a meno che non si progettino metriche inverse)
Benchmark delle prestazioni
Ciò che costituisce una «buona» prestazione dipende dal caso d'uso:
| Intervallo di punteggio | Interpretazione | Azione |
|---|---|---|
| 0,8 - 1,0 | Eccellente | Modello pronto per l'implementazione |
| 0,6 - 0,8 | Buona | Potrebbero essere utili piccoli miglioramenti |
| 0,4 - 0,6 | Giusto | È necessario un miglioramento significativo |
| 0,0 - 0,4 | Povero | Rivedi i dati di allenamento e la funzione di ricompensa |
Importante
Queste sono linee guida generali. Definite le vostre soglie in base ai requisiti aziendali, alle prestazioni del modello di base, ai vincoli specifici del dominio e all'analisi costi-benefici dell'ulteriore formazione.
risoluzione dei problemi
Problemi comuni
| Problema | Causa | Soluzione |
|---|---|---|
| Timeout Lambda | Calcolo complesso dei premi | Aumentare il timeout Lambda o ottimizzare la funzione |
| Autorizzazione negata | Autorizzazioni IAM mancanti | Verifica che SageMaker il ruolo possa richiamare Lambda |
| Punteggi incoerenti | Funzione di ricompensa non deterministica | Usa seed fissi o logica deterministica |
| Risultati mancanti | Errori Lambda non rilevati | Aggiungi una gestione completa degli errori in Lambda |
Lista di controllo per il debug
-
Verifica che i dati di input seguano il formato corretto con array di contenuti annidati
-
Verifica che l'ARN Lambda sia corretto e che la funzione sia stata implementata
-
Controlla le autorizzazioni IAM per SageMaker → Invocazione Lambda
-
Esamina CloudWatch i registri per gli errori Lambda
-
Verifica che la risposta Lambda corrisponda al formato previsto
Best practice
-
Inizia in modo semplice: inizia con le funzioni di ricompensa di base e ripeti
-
Testa Lambda separatamente: utilizza gli eventi di test Lambda prima della valutazione completa
-
Convalida su set di dati di piccole dimensioni: esegui la valutazione sul sottoinsieme prima del set di dati completo
-
Controllo della versione: monitora le versioni della funzione di ricompensa insieme alle versioni del modello
-
Monitoraggio dei costi: le chiamate Lambda e il tempo di calcolo influiscono sui costi
-
Registra in modo esteso: utilizza le istruzioni di stampa in Lambda per il debug
-
Imposta i timeout in modo appropriato: equilibrio tra pazienza e costi
-
Metriche dei documenti: definisci chiaramente cosa misura ogni metrica
Fasi successive
Dopo aver completato la valutazione RFT:
-
Se i risultati sono soddisfacenti: distribuisci il modello alla produzione
-
Se è necessario un miglioramento:
-
Regola la funzione di ricompensa
-
Raccogli più dati di allenamento
-
Modifica gli iperparametri di allenamento
-
Esegui iterazioni di addestramento RFT aggiuntive
-
-
Monitoraggio continuo: rivalutazione periodica con nuovi dati