File di configurazione dell’analisi
Per analizzare i dati e i modelli per verificarne la spiegabilità e i bias utilizzando SageMaker Clarify, devi configurare un processo di elaborazione. Parte della configurazione per questo processo di elaborazione include la configurazione di un file di analisi. Il file di analisi specifica i parametri per l'analisi dei bias e la spiegabilità. Per informazioni su come configurare un processo di elaborazione e un file di analisi, consulta Configurazione di un processo di elaborazione di SageMaker Clarify.
La presente guida descrive lo schema e i parametri per questo file di configurazione dell'analisi. Questa guida include anche esempi di file di configurazione dell’analisi per il calcolo delle metriche sui bias per un set di dati tabulare e per la generazione di spiegazioni relative a problemi di elaborazione del linguaggio naturale (NLP), visione artificiale (CV) e serie temporali (TS).
È possibile creare il file di configurazione dell'analisi o utilizzare SDK Python SageMaker
Argomenti
Schema per il file di configurazione dell'analisi
La sezione seguente descrive lo schema per il file di configurazione dell'analisi, inclusi i requisiti e le descrizioni dei parametri.
Schema per il file di configurazione dell'analisi
Il processo di elaborazione di SageMaker Clarify prevede che il file di configurazione dell'analisi sia strutturato con i seguenti requisiti:
-
Il nome di input dell'elaborazione deve essere
analysis_config.. -
Il file di configurazione dell'analisi è in formato JSON e codificato in UTF-8.
-
Il file di configurazione dell'analisi è un oggetto Amazon S3.
È possibile specificare parametri aggiuntivi nel file di configurazione dell'analisi. La sezione seguente fornisce diverse opzioni per personalizzare il processo di elaborazione di SageMaker Clarify in base al caso d'uso e ai tipi di analisi desiderati.
È possibile specificare parametri nel file di configurazione dell'analisi.
-
version: (facoltativo) la stringa della versione dello schema del file di configurazione dell'analisi. Se non viene fornita alcuna versione, SageMaker Clarify utilizza l'ultima versione supportata. Attualmente la sola versione supportata è
1.0. -
dataset_type: il formato del set di dati. Il formato del set di dati di input può essere uno dei seguenti valori:
Tabulare
-
text/csvper CSV -
application/jsonlinesper il formato denso JSON Lines di SageMaker AI -
application/jsonper JSON -
application/x-parquetper Apache Parquet -
application/x-imageper attivare la spiegabilità dei problemi di visione artificiale
-
Spiegazioni del modello di previsione delle serie temporali
application/jsonper JSON
-
dataset_uri: (facoltativo) l'Uniform Resource Identifier (URI) del set di dati principale. Se si fornisce un prefisso URI S3, il processo di elaborazione di SageMaker Clarify raccoglie in modo ricorsivo tutti i file S3 che si trovano sotto il prefisso. È possibile fornire un prefisso URI S3 o un URI S3 a un file manifesto di immagini per problemi di visione artificiale. Se fornito,
dataset_uriha la precedenza sull'input del processo di elaborazione del set di dati. Per qualsiasi tipo di formato i casi d’uso con immagini e serie temporali, il processo di elaborazione di SageMaker Clarify carica il set di dati di input in un dataframe tabulare, come set di dati tabulare. Questo formato consente a SageMaker AI di modificare e analizzare facilmente il set di dati di input. -
headers: (facoltativo)
Tabular: un array di stringhe che contiene i nomi delle colonne di un set di dati tabulare. Se non viene fornito alcun valore per
headers, il processo di elaborazione di SageMaker Clarify legge le intestazioni dal set di dati. Se il set di dati non ha intestazioni, il processo di elaborazione di Clarify genera automaticamente nomi segnaposto basati sull’indice delle colonne a base zero. Ad esempio, i nomi segnaposto per la prima e la seconda colonna sarannocolumn_0ecolumn_1, e così via.Nota
Per convenzione, se
dataset_typeèapplication/jsonlinesoapplication/json,headersdovrebbe contenere i seguenti nomi nell’ordine specificato:nomi delle funzionalità
nome dell’etichetta (se
labelè specificato)nome dell’etichetta previsto (se
predicted_labelè specificato)
Un esempio per
headersper un tipo di set di datiapplication/jsonlinesselabelè specificato è:["feature1","feature2","feature3","target_label"].Time series: un elenco di nomi di colonne nel set di dati. Se non viene fornito, Clarify genera intestazioni da utilizzare internamente. Per i casi di spiegabilità delle serie temporali, fornisci le intestazioni nel seguente ordine:
id elemento
timestamp
serie temporali di destinazione
tutte le colonne delle serie temporali correlate
tutte le colonne covariate statiche
-
label: (facoltativo) una stringa o un indice intero a base zero. Se fornito,
labelviene utilizzato per individuare l'etichetta Ground Truth, nota anche come etichetta osservata o attributo di destinazione in un set di dati tabulare. L'etichetta Ground Truth viene utilizzata per calcolare i parametri di bias. Il valore dilabelviene specificato in base al valore del parametrodataset_typenel modo seguente.-
Se
dataset_typeètext/csv,labelpuò essere specificato in uno dei seguenti modi:-
Un nome colonna valido
-
Un indice che si trova all'interno dell'intervallo delle colonne del set di dati
-
-
Se
dataset_typeèapplication/parquet,labeldeve essere un nome colonna valido. -
Se
dataset_typeèapplication/jsonlines,labeldeve essere un'espressione JMESPathscritta per estrarre l'etichetta Ground Truth dal set di dati. Per convenzione, se headersè specificato, deve contenere il nome dell'etichetta. -
Se
dataset_typeèapplication/json,labeldeve essere un'espressione JMESPathscritta per estrarre l'etichetta Ground Truth per ogni record nel set di dati. L'espressione JMESPath dovrebbe produrre un elenco di etichette in cui l'etichetta ith corrisponde al record ith.
-
-
predicted_label: (facoltativo) una stringa o un indice intero a base zero. Se fornito,
predicted_labelviene utilizzato per individuare la colonna contenente l'etichetta prevista in un set di dati tabulare. L'etichetta prevista viene utilizzata per calcolare i parametri di bias post-addestramento. Il parametropredicted_labelè facoltativo se il set di dati non include l'etichetta prevista. Se per il calcolo sono necessarie etichette previste, il processo di elaborazione di SageMaker Clarify otterrà le previsioni dal modello.Il valore di
predicted_labelviene specificato in base al valore didataset_typecome segue:-
Se
dataset_typeètext/csv,predicted_labelpuò essere specificato come segue:-
Un nome colonna valido. Se
predicted_label_dataset_uriè specificato, mapredicted_labelnon viene fornito, il nome dell'etichetta prevista di default è "predicted_label". -
Un indice che si trova all'interno dell'intervallo delle colonne del set di dati. Se
predicted_label_dataset_uriè specificato, l'indice viene utilizzato per individuare la colonna dell'etichetta prevista nel set di dati dell'etichetts prevista.
-
-
Se dataset_type è
application/x-parquet,predicted_labeldeve essere un nome colonna valido. -
Se dataset_type è
application/jsonlines,predicted_labeldeve essere un'espressione JMESPathvalida scritta per estrarre l'etichetta prevista dal set di dati. Per convenzione, se headersè specificato, deve contenere il nome dell'etichetta prevista. -
Se
dataset_typeèapplication/json,predicted_labeldeve essere un'espressione JMESPathscritta per estrarre l'etichetta prevista per ogni record nel set di dati. L'espressione JMESPath dovrebbe produrre un elenco di etichette previste in cui l'etichetta ith è per il record ith.
-
-
features: (facoltativo) obbligatorio per casi d’uso non relativi a serie temporali se
dataset_typeèapplication/jsonlinesoapplication/json. Un'espressione della stringa JMESPath scritta per individuare le funzionalità nel set di dati di input. Perapplication/jsonlines, verrà applicata un'espressione JMESPath a ciascuna riga per estrarre le funzionalità di quel record. Perapplication/json, verrà applicata un'espressione JMESPath all'intero set di dati di input. L'espressione JMESPath dovrebbe estrarre un elenco di elenchi o una matrice 2D di funzionalità in cui la riga ith contiene le funzionalità correlate al record ith. Per undataset_typeditext/csvoapplication/x-parquet, tutte le colonne, tranne le colonne dell'etichetta Ground Truth e dell'etichetta prevista, vengono assegnate automaticamente come funzionalità. -
predicted_label_dataset_uri: (facoltativo) applicabile solo quando dataset_type è
text/csv. L'URI S3 per un set di dati contenente le etichette previste utilizzate per calcolare i parametri di bias post-addestramento. Il processo di elaborazione di SageMaker Clarify caricherà le previsioni dall'URI fornito invece di ottenere le previsioni dal modello. In questo caso,predicted_labelè necessario per individuare la colonna dell'etichetta prevista nel set di dati dell'etichetta prevista. Se il set di dati dell'etichetta prevista o il set di dati principale è suddiviso in più file,joinsource_name_or_indexdeve specificare una colonna identificativa per unire i due set di dati. -
predicted_label_headers: (facoltativo) applicabile solo quando
predicted_label_dataset_uriè specificato. Una matrice di stringhe contenente i nomi colonne del set di dati dell'etichetta prevista. Oltre all'intestazione dell'etichetta prevista,predicted_label_headerspuò contenere anche l'intestazione della colonna identificativa per unire il set di dati dell'etichetta prevista e il set di dati principale. Per ulteriori informazioni, consulta la descrizione del parametrojoinsource_name_or_index. -
joinsource_name_or_index: (facoltativo) il nome o l’indice a base zero della colonna nei set di dati tabulari da utilizzare come colonna identificativa durante l’esecuzione di un join interno. Questa colonna viene utilizzata solo come identificatore. Non viene utilizzata per altri calcoli come l'analisi di bias o l'analisi dell'attribuzione delle funzionalità. È necessario un valore di
joinsource_name_or_indexnei seguenti casi:-
Esistono più set di dati di input e ognuno è suddiviso in più file.
-
L'elaborazione distribuita viene attivata impostando il processo di elaborazione di SageMaker Clarify InstanceCount su un valore maggiore di
1.
-
-
excluded_columns: (facoltativo) una matrice di nomi o indici di colonne a base zero da escludere dall'invio al modello come input per le previsioni. L'etichetta Ground Truth e l'etichetta prevista vengono già escluse automaticamente. Questa funzionalità non è supportata per le serie temporali.
-
probability_threshold: (facoltativo) un numero a virgola mobile al di sopra del quale viene selezionata un'etichetta o un oggetto. Il valore predefinito è
0.5. Il processo di elaborazione di SageMaker Clarify usaprobability_thresholdnei seguenti casi:-
Nell'analisi dei bias post-addestramento,
probability_thresholdconverte la previsione di un modello numerico (valore di probabilità o punteggio) in un'etichetta binaria, se il modello è un classificatore binario. Un punteggio superiore alla soglia viene convertito in1. Un punteggio uguale o inferiore alla soglia viene convertito in0. -
Nei problemi di spiegabilità della visione artificiale, se model_type è
OBJECT_DETECTION,, probability_thresholdfiltra gli oggetti con punteggi di attendibilità inferiori al valore di soglia.
-
-
label_values_or_threshold: (facoltativo) obbligatorio per l’analisi dei bias. Una matrice di valori delle etichette o un numero di soglia, che indica un risultato positivo per le etichette Ground Truth e prevista per i parametri di bias. Per ulteriori informazioni, consulta i valori positivi delle etichette in Termini relativi a bias ed equità di Amazon SageMaker Clarify. Se l'etichetta è numerica, la soglia viene applicata come limite inferiore per selezionare il risultato positivo. Per impostare
label_values_or_thresholdper diversi tipi di problemi, fai riferimento ai seguenti esempi:-
Per un problema di classificazione binaria, l'etichetta ha due valori possibili,
0e1. Se il valore dell'etichetta1è favorevole a un gruppo demografico osservato in un campione, alloralabel_values_or_thresholddeve essere impostato su[1]. -
Per un problema di classificazione multiclasse, l'etichetta ha tre valori possibili:
bird,catedog. Se gli ultimi due definiscono un gruppo demografico favorito dai bias, alloralabel_values_or_thresholddeve essere impostato su["cat","dog"]. -
Per un problema di regressione, il valore dell'etichetta è continuo e va da
0a1. Se un valore maggiore di0.5deve indicare che un campione ha un risultato positivo, alloralabel_values_or_thresholddeve essere impostato su0.5.
-
-
facet: (facoltativo) obbligatorio per l’analisi dei bias. Una matrice di oggetti facet, composti da attributi sensibili in base ai quali viene misurato il bias. È possibile utilizzare i facet per comprendere le caratteristiche di bias del set di dati e del modello anche se il modello viene addestrato senza utilizzare attributi sensibili. Per ulteriori informazioni, consulta Facet in Termini relativi a bias ed equità di Amazon SageMaker Clarify. Questo oggetto facet include i seguenti campi:
-
name_or_index: (facoltativo) il nome o l’indice a base zero della colonna degli attributi sensibili in un set di dati tabulare. Se
facet_dataset_uriè specificato, l'indice si riferisce al set di dati facet anziché al set di dati principale. -
value_or_threshold: (facoltativo) obbligatorio se
facetè numerico elabel_values_or_thresholdviene applicato come limite inferiore per selezionare il gruppo sensibile. Una matrice di valori facet o un numero di soglia che indica il gruppo demografico sensibile favorito dal bias. Se il tipo di dati facet è categorico evalue_or_thresholdnon viene fornito, i parametri di bias vengono calcolati come un gruppo per ogni valore univoco (anziché per tutti i valori). Per impostarevalue_or_thresholdper tipi di datifacetdiversi, fai riferimento ai seguenti esempi:-
Per un tipo di dati facet binario, la funzionalità ha due valori possibili:
0e1. Se desideri calcolare i parametri di bias per ogni valore, puoi ometterevalue_or_thresholdo impostarlo su una matrice vuota. -
Per un tipo di dati facet categorico, la funzionalità ha tre valori possibili:
bird,catedog. Se i primi due definiscono un gruppo demografico favorito dai bias, alloravalue_or_thresholddeve essere impostato su["bird", "cat"]. In questo esempio, i campioni del set di dati sono suddivisi in due gruppi demografici. Il facet del gruppo avvantaggiato ha valorebirdoppurecat, mentre il facet del gruppo svantaggiato ha valoredog. -
Per un tipo di dati facet numerico, il valore della funzionalità è continuo e va da
0a1. Ad esempio, se un valore maggiore di0.5deve indicare un campione come favorito, alloravalue_or_thresholddeve essere impostato su.0.5In questo esempio, i campioni del set di dati sono suddivisi in due gruppi demografici. Il facet del gruppo avvantaggiato ha un valore maggiore di0.5, mentre il facet del gruppo svantaggiato ha un valore inferiore o uguale a0.5.
-
-
-
group_variable: (facoltativo) il nome o l’indice a base zero della colonna che indica il sottogruppo da utilizzare per la metrica sui bias Disparità demografica condizionale (CDD) o Disparità demografica condizionale nelle etichette previste (CDDPL).
-
facet_dataset_uri: (facoltativo) applicabile solo quando dataset_type è
text/csv. L'URI S3 per un set di dati contenente attributi sensibili per l'analisi dei bias. È possibile utilizzare i facet per comprendere le caratteristiche di bias del set di dati e del modello anche se il modello viene addestrato senza utilizzare attributi sensibili.Nota
Se il set di dati facet o il set di dati principale è suddiviso in più file,
joinsource_name_or_indexdeve specificare una colonna identificativa per unire i due set di dati. È necessario utilizzare il parametrofacetper identificare ogni facet nel set di dati facet. -
facet_headers: (facoltativo) applicabile solo quando è specificato
facet_dataset_uri. Un array di stringhe che contiene i nomi delle colonne per il set di dati facet e, facoltativamente, l’intestazione della colonna identificativa per eseguire il join del set di dati facet e del set di dati principale. Consultajoinsource_name_or_index. -
time_series_data_config: (facoltativo) specifica la configurazione da utilizzare per l’elaborazione dei dati di una serie temporale.
item_id: una stringa o un indice intero a base zero. Questo campo viene utilizzato per individuare l’ID elemento nel set di dati di input condiviso.
timestamp: una stringa o un indice intero a base zero. Questo campo viene utilizzato per individuare un timestamp nel set di dati di input condiviso.
dataset_format: i valori possibili sono
columns,item_recordsotimestamp_records. Questo campo viene utilizzato per descrivere il formato di un set di dati JSON, che è l’unico formato supportato per la spiegabilità delle serie temporali.target_time_series: una stringa JMESPath o un indice intero a base zero. Questo campo viene utilizzato per individuare la serie temporale di destinazione nel set di dati di input condiviso. Se questo parametro è una stringa, tutti gli altri parametri tranne
dataset_formatdevono essere stringhe o elenchi di stringhe. Se questo parametro è un numero intero, tutti gli altri parametri trannedataset_formatdevono essere numeri interi o elenchi di numeri interi.related_time_series: (facoltativo) un array di espressioni JMESPath. Questo campo viene utilizzato per individuare tutte le serie temporali correlate nel set di dati di input condiviso, se presenti.
static_covariates: (facoltativo) un array di espressioni JMESPath. Questo campo viene utilizzato per individuare tutti i campi delle covariate statiche nel set di dati di input condiviso, se presenti.
Per alcuni esempi, consulta Esempi di configurazione dei set di dati di serie temporali.
-
methods: un oggetto contenente uno o più metodi di analisi e i relativi parametri. Se un metodo viene omesso, non viene né utilizzato per l'analisi né riportato.
-
pre_training_bias: includi questo metodo se desideri calcolare i parametri di bias prima dell'addestramento. La descrizione dettagliata dei metriche è disponibile in Metriche di bias pre-addestramento. L'oggetto ha i seguenti parametri:
-
methods: una matrice che contiene tutti i parametri di bias pre-addestramento che si desidera calcolare, inclusi nell'elenco seguente. Imposta
methodssuallper calcolare tutti i parametri di bias pre-addestramento. Ad esempio, la matrice["CI", "DPL"]calcolerà Squilibrio di classe e Differenza nelle proporzioni delle etichette.-
CIper Squilibrio di classe (CI) -
LPper Lp-norm (LP) -
KSper Kolmogorov-Smirnov (KS)
-
-
-
post_training_bias: includi questo metodo se desideri calcolare i parametri di bias pre-addestramento. La descrizione dettagliata dei metriche è disponibile in Metriche sui bias dei modelli e dei dati di post-addestramento. L'oggetto
post_training_biasha i parametri riportati di seguito.-
methods: una matrice che contiene tutti i parametri di bias post-addestramento che si desidera calcolare, inclusi nell'elenco seguente. Imposta
methodssuallper calcolare tutti i parametri di bias post-addestramento. Ad esempio, la matrice["DPPL", "DI"]calcola Differenza nelle proporzioni positive delle etichette previste e Impatto disparato. I metodi disponibili sono i seguenti.-
DPPLper Differenza nelle proporzioni positive delle etichette previste (DPPL) -
DIper Impatto diversificato (DI) -
RDper Differenza di richiamo (RD) -
TEper Parità di trattamento (TE) -
CDDPLper Disparità demografica condizionale nelle etichette previste (CDDPL) -
FTper Fliptest controfattuale (FT) -
GEper Entropia generalizzata (GE)
-
-
-
shap: includi questo metodo se desideri calcolare i valori SHAP. Il processo di elaborazione di SageMaker Clarify supporta l'algoritmo Kernel SHAP. L'oggetto
shapha i parametri riportati di seguito.-
baseline: (facoltativo) il set di dati della baseline SHAP, noto anche come set di dati in background. I requisiti aggiuntivi per il set di dati della baseline in un set di dati tabulare o in un problema di visione artificiale sono i seguenti. Per ulteriori informazioni sulle baseline SHAP, consulta Linee di base SHAP per la spiegabilità.
-
Per un set di dati tabulare,
baselinepuò consistere in dati della baseline locali o l'URI S3 di un file della baseline. Se nonbaselineviene fornito, il processo di elaborazione di SageMaker Clarify calcola una baseline raggruppando il set di dati di input. Di seguito sono riportati i requisiti per la baseline:-
Il formato deve essere uguale a quello del set di dati specificato da
dataset_type. -
La baseline può contenere solo funzionalità che il modello può accettare come input.
-
Il set di dati della baseline può avere una o più istanze. Il numero di istanze della baseline influisce direttamente sia sulla dimensione del set di dati sintetico che sulla durata del processo.
-
Se
text_configè specificato, il valore della baseline di una colonna di testo è una stringa utilizzata per sostituire l'unità di testo specificata dagranularity. Ad esempio, un segnaposto comune è "[MASK]", che viene utilizzato per rappresentare una parola o una parte di testo mancante o sconosciuta.
Gli esempi seguenti mostrano come impostare dati della baseline locali per diversi parametri
dataset_type:-
Se
dataset_typeètext/csvoapplication/x-parquet, il modello accetta quattro funzionalità numeriche e la baseline ha due istanze. In questo esempio, se un record ha tutti valori di funzionalità zero e l'altro record ha tutti i valori di funzionalità uno, la baseline deve essere impostata su[[0,0,0,0],[1,1,1,1]], senza alcuna intestazione. -
Se
dataset_typeèapplication/jsonlinesefeaturesè la chiave per un elenco di quattro valori di funzionalità numeriche. Inoltre, in questo esempio, se la baseline ha un record di tutti i valori zero, allorabaselinedeve essere[{"features":[0,0,0,0]}]. -
Se
dataset_typeèapplication/json, il set di datibaselinedeve avere la stessa struttura e lo stesso formato del set di dati di input.
-
-
Per problemi di visione artificiale,
baselinepuò essere l'URI S3 di un'immagine utilizzato per mascherare funzionalità (segmenti) dall'immagine di input. Il processo di elaborazione di SageMaker Clarify carica l'immagine della maschera e la ridimensiona alla stessa risoluzione dell'immagine di input. Se non viene fornita la baseline, il processo di elaborazione di SageMaker Clarify genera un'immagine maschera di rumore biancoalla stessa risoluzione dell'immagine di input.
-
-
features_to_explain: (facoltativo) una matrice di stringhe o indici a base zero di colonne di funzionalità per cui calcolare i valori SHAP. Se
features_to_explainnon viene fornito, i valori SHAP vengono calcolati per tutte le colonne delle funzionalità. Queste colonne di funzionalità non possono includere la colonna dell'etichetta o la colonna dell'etichetta prevista. Il parametrofeatures_to_explainè supportato solo per set di dati tabulari con colonne numeriche e categoriche. -
num_clusters: (facoltativo) il numero di cluster in cui è suddiviso il set di dati per calcolare il set di dati di base. Ogni cluster viene utilizzato per calcolare un'istanza della baseline. Se
baselinenon è specificato, il processo di elaborazione di SageMaker Clarify tenta di calcolare il set di dati della baseline dividendo il set di dati tabulare in un numero ottimale di cluster compreso tra1e12. Il numero di istanze della baseline influisce direttamente sull'esecuzione dell'analisi SHAP. -
num_samples: (facoltativo) il numero di campioni da utilizzare nell'algoritmo SHAP del kernel. Se
num_samplesnon viene fornito, il processo di elaborazione di SageMaker Clarify sceglie il numero al posto tuo. Il numero di campioni influisce direttamente sia sulla dimensione del set di dati sintetico che sulla durata del processo. -
seed: (facoltativo) un numero intero utilizzato per inizializzare il generatore di numeri pseudo casuali nell'esplicatore SHAP per generare valori SHAP coerenti per lo stesso lavoro. Se seed non è specificato, ogni volta che viene eseguito lo stesso processo, il modello può generare valori SHAP leggermente diversi.
-
use_logit: (facoltativo) un valore booleano che indica che si desidera che la funzione logit venga applicata alle previsioni del modello. L'impostazione predefinita è
false. Seuse_logitètrue, i valori SHAP vengono calcolati utilizzando i coefficienti di regressione logistica, che possono essere interpretati come rapporti log-odd. -
save_local_shap_values: (facoltativo) un valore booleano che indica che desideri includere i valori SHAP locali di ogni record del set di dati nel risultato dell'analisi. L'impostazione predefinita è
false.Se il set di dati principale è suddiviso in più file o è attivata l'elaborazione distribuita, specifica anche una colonna identificativa utilizzando il parametro
joinsource_name_or_index. La colonna identificativa e i valori SHAP locali vengono salvati nel risultato dell'analisi. In questo modo, è possibile mappare ogni record ai relativi valori SHAP locali. -
agg_method: (facoltativo) il metodo utilizzato per aggregare i valori SHAP locali (i valori SHAP di ogni istanza) di tutte le istanze ai valori SHAP globali (i valori SHAP dell'intero set di dati). L'impostazione predefinita è
mean_abs. I seguenti metodi possono essere utilizzati per aggregare i valori SHAP.-
mean_abs: la media dei valori SHAP locali assoluti di tutte le istanze.
-
mean_sq: la media dei valori SHAP locali quadratici di tutte le istanze.
-
mediana: la mediana dei valori SHAP locali di tutte le istanze.
-
-
text_config: necessario per la spiegabilità dell’elaborazione del linguaggio naturale. Includi questa configurazione se desideri trattare le colonne di testo come testo e se le spiegazioni dovrebbero essere fornite per le singole unità di testo. Per un esempio di configurazione dell’analisi per la spiegabilità dell’elaborazione del linguaggio naturale, consulta Configurazione di analisi per la spiegabilità dell'elaborazione del linguaggio naturale.
-
granularità: l'unità di granularità per l'analisi delle colonne di testo. I valori validi sono
token,sentenceoparagraph. Ogni unità di testo è considerata una funzionalità e i valori SHAP locali vengono calcolati per ogni unità. -
lingua: la lingua delle colonne di testo. I valori validi sono
chinese,danish,dutch,english,french,german,greek,italian,japanese,lithuanian,multi-language,norwegian bokmål,polish,portuguese,romanian,russian,spanish,afrikaans,albanian,arabic,armenian,basque,bengali,bulgarian,catalan,croatian,czech,estonian,finnish,gujarati,hebrew,hindi,hungarian,icelandic,indonesian,irish,kannada,kyrgyz,latvian,ligurian,luxembourgish,macedonian,malayalam,marathi,nepali,persian,sanskrit,serbian,setswana,sinhala,slovak,slovenian,swedish,tagalog,tamil,tatar,telugu,thai,turkish,ukrainian,urdu,vietnamese,yoruba. Inseriscimulti-languageper una combinare più lingue. -
max_top_tokens: (facoltativo) il numero massimo di token principali, in base ai valori SHAP globali. L'impostazione predefinita è
50. È possibile che un token appaia più volte nel set di dati. Il processo di elaborazione SageMaker Clarify aggrega i valori SHAP di ogni token, quindi seleziona i token principali in base ai loro valori SHAP globali. I valori SHAP globali dei token principali selezionati sono inclusi nella sezioneglobal_top_shap_textdel file analysis.json. -
Il valore SHAP locale di aggregazione.
-
-
image_config: necessario per la spiegabilità della visione artificiale. Includi questa configurazione se disponi di un set di dati di input composto da immagini e desideri analizzarle per verificarne la spiegabilità in un problema di visione artificiale.
-
model_type: il tipo di modello. I valori validi includono:
-
IMAGE_CLASSIFICATIONdi un modello di classificazione delle immagini -
OBJECT_DETECTIONdi un modello per il rilevamento di oggetti
-
-
max_objects: applicabile solo quando model_type è
OBJECT_DETECTION. Il numero massimo di oggetti, ordinato in base al punteggio di attendibilità, rilevato dal modello di visione artificiale. Tutti gli oggetti con un punteggio di attendibilità inferiore al massimo max_objects vengono filtrati. L'impostazione predefinita è3. -
context: applicabile solo quando model_type è
OBJECT_DETECTION. Indica se l'area intorno al riquadro di delimitazione dell'oggetto rilevato è mascherata o meno dall'immagine di base. I valori validi sono:0per mascherare tutto o1per non mascherare nulla. L'impostazione predefinita è 2. -
iou_threshold: applicabile solo quando
model_typeèOBJECT_DETECTION. Il parametro minimo di intersezione over union (IOU) per valutare le previsioni rispetto al rilevamento originale. Un parametro IOU elevato corrisponde a una grande sovrapposizione tra la casella di rilevamento della verità prevista e della Ground Truth. L'impostazione predefinita è0.5. -
num_segments: (facoltativo) un numero intero che determina il numero approssimativo di segmenti da etichettare nell'immagine di input. Ogni segmento dell'immagine è considerato una funzionalità e per ogni segmento vengono calcolati i valori SHAP locali. L'impostazione predefinita è
20. -
segment_compactness: (facoltativo) un numero intero che determina la forma e la dimensione dei segmenti di immagine generati dal metodo scikit-image slic
. L'impostazione predefinita è 5.
-
-
-
pdp: includi questo metodo per calcolare i grafici di dipendenza parziale (PDP). Per un esempio di configurazione dell’analisi per generare PDP, consulta Calcola grafici di dipendenza parziale (PDP) .
-
funzionalità: obbligatorio se il metodo
shapnon è richiesto. Una matrice di nomi o indici di funzionalità per calcolare e tracciare grafici PDP. -
top_k_features: (facoltativo) specifica il numero di funzionalità principali utilizzate per generare grafici PDP. Se
featuresnon viene fornito, ma viene richiesto il metodoshap, il processo di elaborazione di SageMaker Clarify sceglie le funzionalità principali in base alle relative attribuzioni SHAP. L'impostazione predefinita è10. -
grid_resolution: il numero di bucket in cui dividere l'intervallo di valori numerici. Questo specifica la granularità della griglia per i grafici PDP.
-
-
asymmetric_shapley_value: includi questo metodo per calcolare le metriche di spiegabilità per i modelli di previsione delle serie temporali. Il processo di elaborazione di SageMaker Clarify supporta l’algoritmo con valori asimmetrici di Shapley. I valori asimmetrici di Shapley sono una variante del valore di Shapley senza l’assioma di simmetria. Per ulteriori informazioni, consulta Valori asimmetrici di Shapley: integrazione delle informazioni causali nella spiegabilità indipendente dal modello
. Utilizza questi valori per determinare in che modo le funzionalità contribuiscono al risultato della previsione. I valori asimmetrici di Shapley tengono conto delle dipendenze temporali dei dati di serie temporali che i modelli di previsione utilizzano come input. L’algoritmo include i seguenti parametri:
direction: i tipi disponibili sono
chronological,anti_chronologicalebidirectional. La struttura temporale può essere esplorata in ordine cronologico, anticronologico o entrambi. Le spiegazioni cronologiche vengono create aggiungendo le informazioni in modo iterativo dalla prima fase in poi. Le spiegazioni anticronologiche aggiungono informazioni a partire dall’ultima fase e procedendo a ritroso. Quest’ultimo ordine può essere più adatto per i bias di novità, ad esempio per la previsione dei prezzi delle azioni.granularity: la granularità della spiegazione da utilizzare. Di seguito vengono riportate le opzioni di granularità disponibili:
timewise: le spiegazioni
timewisenon sono costose e forniscono informazioni mirate su fasi temporali specifiche, ad esempio per capire in che misura le informazioni del n° giorno nel passato hanno contribuito alla previsione del giorno m° nel futuro. Le attribuzioni risultanti non spiegano singolarmente le covariate statiche e non fanno distinzione tra serie temporali di destinazione e correlate.fine_grained: le spiegazioni
fine_grainedsono più impegnative a livello computazionale, ma forniscono una suddivisione completa di tutte le attribuzioni delle variabili di input. Il metodo calcola spiegazioni approssimative per ridurre il runtime. Per ulteriori informazioni, consulta il parametro seguente,num_samples.Nota
Le spiegazioni
fine_grainedsupportano solo l’ordinechronological.
num_samples: (facoltativo) questo argomento è obbligatorio per le spiegazioni
fine_grained. Più elevato è il numero, più precisa è l’approssimazione. Questo numero deve adattarsi alla dimensionalità delle funzionalità di input. Una regola pratica consiste nell’impostare questa variabile su (1 + max (numero di serie temporali correlate, numero di covariate statiche))^2 se il risultato non è troppo grande.baseline: (facoltativo) la configurazione baseline per sostituire i valori fuori dalla coalizione per i set di dati corrispondenti (nota anche come dati in background). Il frammento di codice seguente mostra un esempio di configurazione baseline.
{ "related_time_series": "zero", "static_covariates": {<item_id_1>: [0, 2],<item_id_2>: [-1, 1] }, "target_time_series": "zero" }Per i dati temporali come le serie temporali di destinazione o le serie temporali correlate, i tipi di valori baseline possono essere:
zero: tutti i valori non appartenenti alla coalizione vengono sostituiti con 0,0.mean: tutti i valori non appartenenti alla coalizione vengono sostituiti dalla media di una serie temporale.
Per le covariate statiche, una voce baseline deve essere fornita solo quando la richiesta del modello accetta valori di covariate statiche, nel qual caso questo campo è obbligatorio. La baseline deve essere fornita per ogni elemento sotto forma di elenco. Ad esempio, se hai un set di dati con due covariate statiche, la configurazione baseline potrebbe essere la seguente:
"static_covariates": {<item_id_1>: [1, 1],<item_id_2>: [0, 1] }Nell’esempio precedente,
<item_id_1>e<item_id_2>sono gli ID elemento provenienti dal set di dati.
-
report: (facoltativo) utilizza questo oggetto per personalizzare il report di analisi. Questo parametro non è supportato per i processi di spiegazione delle serie temporali. Ci sono tre copie dello stesso report come parte del risultato dell'analisi: report Jupyter Notebook, report HTML e report PDF. L'oggetto ha i seguenti parametri:
-
name: nome del file di report. Ad esempio, se
nameèMyReport, allora i file di report sonoMyReport.ipynb,MyReport.html, eMyReport.pdf. L'impostazione predefinita èreport. -
title: (facoltativo) stringa del titolo del report. L'impostazione predefinita è
SageMaker AI Analysis Report.
-
-
-
predittore: obbligatorio se l'analisi richiede previsioni dal modello. Ad esempio, quando viene richiesto il metodo
shap,asymmetric_shapley_value,pdpopost_training_bias, ma le etichette previste non vengono fornite come parte del set di dati di input. Di seguito sono riportati i parametri da utilizzare insieme apredictor:-
model_name: il nome del modello SageMaker AI creato dall’API CreateModel. Se si specifica
model_nameinvece di endpoint_name, il processo di elaborazione SageMaker Clarify crea un endpoint temporaneo con il nome del modello, noto come endpoint shadow, e ottiene le previsioni dall'endpoint. Il processo elimina l'endpoint shadow dopo aver completato i calcoli. Se il modello è multi-modello, devi specificare il parametrotarget_model. Per ulteriori informazioni sugli endpoint multi-modello, consulta Endpoint multi-modello. -
endpoint_name_prefix: (facoltativo) un prefisso di nome personalizzato per l'endpoint shadow. Applicabile se fornisci
model_nameinvece diendpoint_name. Ad esempio, fornisciendpoint_name_prefixse desideri limitare l'accesso all'endpoint in base al nome dell'endpoint. Il prefisso deve corrispondere al pattern di EndpointName e la sua lunghezza massima è23. L'impostazione predefinita èsm-clarify. -
initial_instance_count: specifica il numero di istanze dell'endpoint shadow. Obbligatorio se fornisci model_name anziché endpoint_name. Il valore di
initial_instance_countpuò essere diverso dall'InstanceCount del processo, ma consigliamo un rapporto 1:1. -
instance_type: specifica il tipo di istanza dell'endpoint shadow. Obbligatorio se fornisci
model_nameinvece diendpoint_name. Ad esempio,instance_typepuò essere impostato su "ml.m5.large". In alcuni casi, il valore specificato perinstance_typepuò aiutare a ridurre il tempo di inferenza del modello. Ad esempio, per funzionare in modo efficiente, i modelli di elaborazione del linguaggio naturale e i modelli di visione artificiale richiedono in genere un tipo di istanza GPU (Graphics Processing Unit). -
endpoint_name: il nome dell’endpoint SageMaker AI creato dall’API CreateEndpoint. Se fornito,
endpoint_nameha la precedenza sul parametromodel_name. L'utilizzo di un endpoint esistente riduce il tempo di bootstrap dell'endpoint shadow, ma può anche causare un aumento significativo del carico per quell'endpoint. Inoltre, alcuni metodi di analisi (comeshapepdp) generano set di dati sintetici che vengono inviati all'endpoint. Ciò può far sì che i parametri o i dati acquisiti dell'endpoint vengano contaminati da dati sintetici, che potrebbero non riflettere accuratamente l'utilizzo nel mondo reale. Per questi motivi, in genere non è consigliabile utilizzare un endpoint di produzione esistente per l'analisi SageMaker Clarify. -
target_model: il valore della stringa che viene passato al parametro TargetModel dell’API InvokeEndpoint di SageMaker AI. Necessario se il modello (specificato dal parametro model_name) o l'endpoint (specificato dal parametro endpoint_name) sono multi-modello. Per ulteriori informazioni sugli endpoint multi-modello, consulta Endpoint multi-modello.
-
custom_attributes: (facoltativo) una stringa che consente di fornire informazioni aggiuntive su una richiesta di inferenza inviata all'endpoint. Il valore della stringa viene passato al parametro
CustomAttributesdell’API InvokeEndpoint di SageMaker AI. -
content_type: il formato di input del modello da utilizzare per ottenere previsioni dall'endpoint. Se fornito, viene passato al parametro
ContentTypedell’API InvokeEndpoint di SageMaker AI.-
Per la spiegabilità della visione artificiale, i valori validi sono
image/jpeg,image/pngoapplication/x-npy. Secontent_typenon viene specificato, il valore predefinito èimage/jpeg. Per la spiegabilità della previsione delle serie temporali, il valore accettato è
application/json.-
Per altri tipi di spiegabilità, i valori validi sono
text/csv,application/jsonlines,eapplication/json. È richiesto un valore percontent_typesedataset_typeèapplication/x-parquet. Altrimenti, il valore predefinito dicontent_typeè quello del parametrodataset_type.
-
-
accept_type: il formato di output del modello da utilizzare per ottenere previsioni dall'endpoint. Il valore per
accept_typeviene passato al parametroAcceptdell’API InvokeEndpoint di SageMaker AI.-
Per la spiegabilità della visione artificiale, se
model_typeè "OBJECT_DETECTION", il valore predefinito diaccept_typeèapplication/json. Per la spiegabilità della previsione delle serie temporali, il valore accettato è
application/json.-
Per altri tipi di spiegabilità, i valori validi sono
text/csv,application/jsonlineseapplication/json. Se non viene fornito un valore peraccept_type, il valore predefinito diaccept_typeè il valore del parametrocontent_type.
-
-
content_template: una stringa modello utilizzata per costruire l'input del modello dai record del set di dati. Il parametro
content_templateviene utilizzato e richiesto solo se il valore del parametrocontent_typeèapplication/jsonlinesoapplication/jsonQuando il parametro
content_typeèapplication/jsonlines, la stringa modello deve avere un solo segnaposto,$features, che viene sostituito dall'elenco delle funzionalità in fase di runtime. Ad esempio, se la stringa modello è"{\"myfeatures\":$features}"e se un record ha tre valori di funzionalità numeriche:1,2e3, il record verrà inviato al modello come{"myfeatures":[1,2,3]}JSON Line.Quando
content_typeèapplication/json, la stringa modello può avere un segnaposto$recordorecords. Se il segnaposto èrecord, un singolo record viene sostituito con un record a cui è applicata la stringa modello inrecord_template. In questo caso, al modello verrà inviato un solo record alla volta. Se il segnaposto è$records, i record vengono sostituiti da un elenco di record, ciascuno con una stringa modello fornita darecord_template. -
record_template: una stringa modello da utilizzare per costruire ogni record dell'input del modello dalle istanze del set di dati. Viene utilizzato e richiesto solo quando
content_typeèapplication/jsonLa stringa modello può contenere:-
Un segnaposto parametro
$featuresche viene sostituito da una matrice di valori di funzionalità. Un segnaposto opzionale aggiuntivo può sostituire i nomi delle intestazioni delle colonne di funzionalità in$feature_names. Questo segnaposto opzionale verrà sostituito da una serie di nomi di funzionalità. -
Esattamente un segnaposto
$features_kvpche viene sostituito da coppie chiave-valore, nome e valore della funzionalità. -
Una funzionalità nella configurazione
headers. Ad esempio, il nome di una funzionalitàA, annotato dalla sintassi del segnaposto"${A}"verrà sostituito dal valore della funzionalità diA.
Il valore di
record_templateviene utilizzato concontent_templateper costruire l'input del modello. Segue un esempio di configurazione che mostra come costruire un input del modello utilizzando contenuti e record modello.Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
-
`headers`:["A", "B"] -
`features`:[[0,1], [3,4]]
L'input del modello di esempio è:
{ "instances": [[0, 1], [3, 4]], "feature_names": ["A", "B"] }Di seguito sono riportati come esempio i valori dei parametri
content_templateerecord_template, per costruire l'input del modello dell'esempio precedente.-
content_template: "{\"instances\": $records, \"feature_names\": $feature_names}" -
record_template: "$features"
Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
[ { "A": 0, "B": 1 }, { "A": 3, "B": 4 }, ]Di seguito sono riportati come esempio i valori dei parametri
content_templateerecord_template, per costruire l'input del modello dell'esempio precedente.-
content_template: "$records" -
record_template: "$features_kvp"
Segue un esempio di codice alternativo per costruire l'input del modello dell'esempio precedente.
-
content_template: "$records" -
record_template: "{\"A\": \"${A}\", \"B\": \"${B}\"}"
Nel seguente esempio di codice, le intestazioni e le funzionalità sono definite come segue.
{ "A": 0, "B": 1 }I valori dei parametri content_template e record_template di esempio da costruire sopra: segue l'input del modello di esempio precedente.
-
content_template: "$record" -
record_template: "$features_kvp"
Per ulteriori esempi, consulta Richieste degli endpoint per i dati di serie temporali.
-
-
label: (facoltativo) un indice intero a base zero o una stringa di espressioni JMESPath utilizzati per estrarre le etichette previste dall’output del modello per l’analisi dei bias. Se il modello è multiclasse e il parametro
labelestrae tutte le etichette previste dall'output del modello, si applica quanto segue. Questa funzionalità non è supportata per le serie temporali.-
Il parametro
probabilityè necessario per ottenere le probabilità (o i punteggi) corrispondenti dall'output del modello. -
Viene scelta l'etichetta prevista del punteggio più alto.
Il valore di
labelviene specificato in base al valore del parametro accept_type, come segue.-
Se
accept_typeètext/csv, alloralabelè l'indice di tutte le etichette previste nell'output del modello. -
Se
accept_typeèapplication/jsonlinesoapplication/json, alloralabelè un'espressione JMESPath che viene applicata all'output del modello per ottenere le etichette previste.
-
-
label_headers: (facoltativo) un array di valori che l’etichetta può assumere nel set di dati. Se viene richiesta l'analisi del bias, il parametro
probabilityè necessario anche per ottenere i valori di probabilità (punteggi) corrispondenti dall'output del modello e viene scelta l'etichetta prevista del punteggio più alto. Se viene richiesta l'analisi della spiegabilità, le intestazioni delle etichette vengono utilizzate per abbellire il report di analisi. È richiesto un valore dilabel_headers, per la spiegabilità della visione artificiale. Ad esempio, per un problema di classificazione multiclasse, se l'etichetta ha tre valori possibili,bird,catedog, alloralabel_headersdeve essere impostato su["bird","cat","dog"]. -
probability: (facoltativo) un indice intero a base zero o una stringa di espressioni JMESPath utilizzati per estrarre le probabilità (punteggi) per l’analisi della spiegabilità (ma non per la spiegabilità delle serie temporali) o per scegliere l’etichetta prevista per l’analisi dei bias. Il valore di
probabilityviene specificato in base al valore del parametroaccept_type, come segue.-
Se
accept_typeètext/csv,probabilityè l'indice delle probabilità (punteggi) nell'output del modello. Seprobabilitynon viene fornito, l'intero output del modello viene considerato come probabilità (punteggi). -
Se
accept_typeconsiste di dati JSON (application/jsonlinesoapplication/json),probabilitydovrebbe essere un'espressione JMESPath utilizzata per estrarre le probabilità (punteggi) dall'output del modello.
-
-
time_series_predictor_config: (facoltativo) utilizzato solo per la spiegabilità delle serie temporali. Utilizzato per indicare al processore SageMaker Clarify come analizzare correttamente i dati passati come URI S3 in
dataset_uri.forecast: un’espressione JMESPath utilizzata per estrarre il risultato della previsione.
-
File di configurazione dell'analisi di esempio
Le sezioni seguenti contengono esempi di file di configurazione dell’analisi per dati in formato CSV e JSON Lines, nonché per la spiegabilità dell’elaborazione del linguaggio naturale (NLP), della visione artificiale (CV) e delle serie temporali (TS).
I seguenti esempi mostrano come configurare l'analisi del bias della spiegabilità per un set di dati tabulare in formato CSV. In questi esempi, il set di dati in entrata ha quattro colonne di funzionalità e una colonna di etichette binarie, Target. Il contenuto del set di dati è il seguente. Un valore di etichetta pari a 1 indica un risultato positivo. Il set di dati viene fornito al processo SageMaker Clarify dall'input di elaborazione dataset.
"Target","Age","Gender","Income","Occupation" 0,25,0,2850,2 1,36,0,6585,0 1,22,1,1759,1 0,48,0,3446,1 ...
Le successive sezioni mostrano come calcolare i parametri di bias prima e dopo l'addestramento, i valori SHAP e i grafici PDP che mostrano l'importanza delle funzionalità per un set di dati in formato CSV.
Calcola tutti i parametri di bias pre-addestramento
Questa configurazione di esempio mostra come misurare se il set di dati del campione precedente è orientato favorevolmente verso campioni con un valore Gender di 0. La seguente configurazione di analisi indica al processo di elaborazione SageMaker Clarify di calcolare tutti i parametri di bias pre-addestramento per il set di dati.
{ "dataset_type": "text/csv", "label": "Target", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias post-addestramento
Puoi calcolare i parametri di bias pre-addestramento prima dell'addestramento. Tuttavia, è necessario disporre di un modello addestrato per calcolare i parametri di bias post-addestramento. L'output di esempio seguente proviene da un modello di classificazione binaria che genera dati in formato CSV. In questo output di esempio, ogni riga contiene due colonne. La prima colonna contiene l'etichetta prevista e la seconda colonna contiene il valore di probabilità per quell'etichetta.
0,0.028986845165491 1,0.825382471084594 ...
Il seguente esempio di configurazione indica al processo di elaborazione SageMaker Clarify di calcolare tutti i possibili parametri di bias utilizzando il set di dati e le previsioni dell'output di modello. Nell’esempio, il modello viene implementato su un endpoint your_endpoint di SageMaker AI.
Nota
Nell'esempio di codice seguente, i parametri content_type e accept_type non sono impostati. Pertanto, utilizzano automaticamente il valore del parametro dataset_type, che è text/csv.
{ "dataset_type": "text/csv", "label": "Target", "label_values_or_threshold":[1], "facet": [ { "name_or_index": "Gender", "value_or_threshold":[0]} ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "label":0} }
Calcola i valori SHAP
Il seguente esempio di configurazione di analisi indica al processo di calcolare i valori SHAP, designando la colonna Target come etichette e tutte le altre colonne come funzionalità.
{ "dataset_type": "text/csv", "label": "Target", "methods": { "shap": { "num_clusters":1} }, "predictor": { "endpoint_name": "your_endpoint", "probability":1} }
In questo esempio, il parametro SHAP baseline è omesso e il valore del parametro num_clusters è 1. Questo indica al processore SageMaker Clarify di calcolare un esempio di linea di base. In questo esempio, la probabilità è impostata su 1. Ciò indica al processo di elaborazione SageMaker Clarify di estrarre il punteggio di probabilità dalla seconda colonna dell'output del modello (utilizzando l'indicizzazione a base zero).
Calcola grafici di dipendenza parziale (PDP)
L'esempio seguente mostra come visualizzare l'importanza della funzionalità Income nel report di analisi utilizzando i PDP. Il parametro di report indica al processo di elaborazione SageMaker Clarify di generare un report. Una volta completato il processo, il report generato viene salvato come report.pdf nella posizione analysis_result. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10. Insieme, i parametri specificati nell'esempio seguente indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per Income con i segmenti 10 sull'asse x. L'asse y mostrerà l'impatto marginale di Income sulle predizioni.
{ "dataset_type": "text/csv", "label": "Target", "methods": { "pdp": { "features": ["Income"], "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "probability":1}, }
Calcola sia i parametri di bias che l'importanza delle funzionalità
È possibile combinare tutti i metodi degli esempi di configurazione precedenti in un unico file di configurazione di analisi e calcolarli tutti con un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate.
In questo esempio, il parametro probability è impostato su 1 per indicare che le probabilità sono contenute nella seconda colonna (utilizzando l'indicizzazione a base zero). Tuttavia, poiché l'analisi delle distorsioni richiede un'etichetta prevista, il parametro probability_threshold è impostato su 0.5 per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp dei grafici di dipendenza parziale è impostato su 2. Questo indica al processo di elaborazione SageMaker Clarify di calcolare i PDP per le 2 funzionalità principali che hanno i valori SHAP globali più elevati.
{ "dataset_type": "text/csv", "label": "Target", "probability_threshold":0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters":1}, "pdp": { "top_k_features":2, "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "probability":1} }
Invece di implementare il modello su un endpoint, puoi fornire il nome del modello SageMaker AI al processo di elaborazione SageMaker Clarify utilizzando il parametro model_name. Il seguente esempio mostra come specificare un modello denominato your_model. Il processo di elaborazione SageMaker Clarify creerà un endpoint shadow utilizzando la configurazione.
{ ... "predictor": { "model_name": "your_model", "initial_instance_count":1, "instance_type": "ml.m5.large", "probability":1} }
I seguenti esempi mostrano come configurare l'analisi del bias e l'analisi della spiegabilità per un set di dati tabulare in formato JSON Lines. In questi esempi, il set di dati in entrata contiene gli stessi dati della sezione precedente, ma in formato denso JSON Lines di SageMaker AI. Ogni riga è un oggetto JSON valido. La chiave "Features" si riferisce a una serie di valori di funzionalità e la chiave "Label" si riferisce all'etichetta Ground Truth. Il set di dati viene fornito al processo SageMaker Clarify dall'input di elaborazione "dataset". Per ulteriori informazioni su righe JSON, consultare Formato della richiesta JSONLINES.
{"Features":[25,0,2850,2],"Label":0} {"Features":[36,0,6585,0],"Label":1} {"Features":[22,1,1759,1],"Label":1} {"Features":[48,0,3446,1],"Label":0} ...
Le successive sezioni mostrano come calcolare i parametri di bias prima e dopo l'addestramento, i valori SHAP e i grafici PDP che mostrano l'importanza della funzionalità per un set di dati in formato JSON Lines.
Calcola i parametri di bias pre-addestramento
Specifica l'etichetta, le funzionalità, il formato e i metodi per misurare i parametri di bias pre-addestramento per un valore Gender di 0. Nell'esempio seguente, il parametro headers fornisce innanzitutto i nomi delle funzionalità. Il nome dell'etichetta viene fornito per ultimo. Per convenzione, l'ultima intestazione è quella dell'etichetta.
Il parametro features è impostato sull'espressione JMESPath "Features", in modo che il processo di elaborazione SageMaker Clarify possa estrarre la matrice di funzionalità da ogni record. Il parametro label è impostato sull'espressione JMESPath "Label", in modo che il processo di elaborazione SageMaker Clarify possa estrarre l'etichetta Ground Truth da ogni record. Utilizza un nome di facet per specificare l'attributo sensibile, come segue.
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias
È necessario disporre di un modello esperto per calcolare i parametri di bias post-addestramento. L'esempio seguente proviene da un modello di classificazione binaria che genera dati JSON Lines nel formato dell'esempio. Ogni riga dell'output del modello è un oggetto JSON valido. La predicted_label chiave si riferisce all'etichetta prevista e la probability chiave si riferisce al valore di probabilità.
{"predicted_label":0,"probability":0.028986845165491} {"predicted_label":1,"probability":0.825382471084594} ...
Puoi implementare il modello su un endpoint SageMaker AI denominato your_endpoint. Il seguente esempio di configurazione di analisi indica al processo di elaborazione SageMaker Clarify di calcolare tutti i possibili parametri di bias sia per il set di dati che per il modello. In questo esempio, i parametri content_type e accept_type non sono impostati. Pertanto, utilizzano automaticamente il valore del parametro dataset_type, che è application/jsonlines. Il processo di elaborazione SageMaker Clarify utilizza il parametro content_template per comporre l'input del modello sostituendo il segnaposto $features con una serie di funzionalità.
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "label": "predicted_label" } }
Calcola i valori SHAP
Poiché l'analisi SHAP non necessita di un'etichetta Ground Truth, il parametro label viene omesso. In questo esempio, anche il parametro headers è omesso. Pertanto, il processo di elaborazione SageMaker Clarify deve generare segnaposti utilizzando nomi generici, come column_0 o column_1 per le intestazioni di funzionalità e label0 per l'intestazione di etichetta. È possibile specificare i valori per headers e label, in modo da migliorare la leggibilità del risultato dell'analisi. Poiché il parametro di probabilità è impostato sull'espressione JMESPath probability, il valore di probabilità verrà estratto dall'output del modello. Di seguito è riportato un esempio per calcolare i valori SHAP.
{ "dataset_type": "application/jsonlines", "features": "Features", "methods": { "shap": { "num_clusters": 1 } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
Calcola grafici di dipendenza parziale (PDP)
L'esempio seguente mostra come visualizzare l'importanza di "Income" nel PDP. In questo esempio, le intestazioni delle funzionalità non vengono fornite. Pertanto, il parametro features del metodo pdp deve utilizzare un indice a base zero per fare riferimento alla posizione della colonna di funzionalità. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10. Insieme, i parametri dell'esempio indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per Income con i segmenti 10 sull'asse x. L'asse y mostrerà l'impatto marginale di Income sulle predizioni.
{ "dataset_type": "application/jsonlines", "features": "Features", "methods": { "pdp": { "features": [2], "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
Calcola sia i parametri di bias che l'importanza delle funzionalità
È possibile combinare tutti i metodi precedenti in un unico file di configurazione di analisi e calcolarli tutti con un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate. In questo esempio, il parametro probability è impostato. Tuttavia, poiché l'analisi dei bias richiede un'etichetta prevista, il parametro probability_threshold è impostato su 0.5 per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp è impostato su 2. Questo indica al processo di elaborazione SageMaker Clarify di calcolare i PDP per le 2 funzionalità principali che hanno i valori SHAP globali più elevati.
{ "dataset_type": "application/jsonlines", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "Label", "features": "Features", "probability_threshold":0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters":1}, "pdp": { "top_k_features":2, "grid_resolution":10}, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "{\"Features\":$features}", "probability": "probability" } }
I seguenti esempi mostrano come configurare l'analisi del bias della spiegabilità per un set di dati tabulare in formato JSON. In questi esempi, il set di dati in entrata contiene gli stessi dati della sezione precedente, ma in formato denso JSON di SageMaker AI. Per ulteriori informazioni su righe JSON, consultare Formato della richiesta JSONLINES.
L'intera richiesta di input ha una sintassi JSON valida, dove la struttura esterna è un elenco e ogni elemento è il dato di un record. All'interno di ogni record, la chiave Features si riferisce a una serie di valori di funzionalità e la chiave Label si riferisce all'etichetta Ground Truth. Il set di dati viene fornito al processo SageMaker Clarify dall'input di elaborazione dataset.
[ {"Features":[25,0,2850,2],"Label":0}, {"Features":[36,0,6585,0],"Label":1}, {"Features":[22,1,1759,1],"Label":1}, {"Features":[48,0,3446,1],"Label":0}, ... ]
Le successive sezioni mostrano come calcolare i parametri di bias prima e dopo l'addestramento, i valori SHAP e i grafici PDP che mostrano l'importanza delle funzionalità per un set di dati in formato JSON Lines.
Calcola i parametri di bias pre-addestramento
Specifica l'etichetta, le funzionalità, il formato e i metodi per misurare i parametri di bias pre-addestramento per un valore Gender di 0. Nell'esempio seguente, il parametro headers fornisce innanzitutto i nomi delle funzionalità. Il nome dell'etichetta viene fornito per ultimo. Nei set di dati JSON, l'ultima intestazione è quella di etichetta.
Il parametro features è impostato sull'espressione JMESPath che estrae una matrice o una matrice 2D. Ogni riga di questa matrice deve contenere l'elenco di Features in ogni record. Il parametro label è impostato sull'espressione JMESPath che estrae un elenco di etichette Ground Truth. Ogni elemento di questo elenco deve contenere l'etichetta di un record.
Utilizza un nome di facet per specificare l'attributo sensibile, come segue.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" } } }
Calcola tutti i parametri di bias
È necessario disporre di un modello addestrato per calcolare i parametri di bias post-addestramento. Il seguente esempio di codice proviene da un modello di classificazione binaria che genera dati JSON nel formato dell'esempio. Nell'esempio, ogni elemento sotto predictions è l'output di previsione per un record. L'esempio di codice contiene la chiave predicted_label, che si riferisce all'etichetta prevista, e la chiave probability, che si riferisce al valore di probabilità.
{ "predictions": [ {"predicted_label":0,"probability":0.028986845165491}, {"predicted_label":1,"probability":0.825382471084594}, ... ] }
Puoi implementare il modello su un endpoint SageMaker AI denominato your_endpoint.
Nel seguente esempio, i parametri content_type e accept_type non sono impostati. Pertanto, content_type e accept_type vengono impostati automaticamente sul valore del parametro dataset_type, che è application/json. Il processo di elaborazione SageMaker Clarify utilizza quindi il parametro content_template per comporre l'input del modello.
Nell'esempio seguente, l'input del modello è composto sostituendo il segnaposto $records con una matrice di record. Quindi, il parametro record_template compone la struttura JSON di ogni record e sostituisce il segnaposto $features con la matrice di funzionalità di ogni record.
Il seguente esempio di configurazione di analisi indica al processo di elaborazione SageMaker Clarify di calcolare tutti i possibili parametri di bias sia per il set di dati che per il modello.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "label": "predictions[*].predicted_label" } }
Calcola i valori SHAP
Non è necessario specificare un'etichetta per l'analisi SHAP. Nel seguente esempio, il parametro headers non è impostato. Pertanto, il processo di elaborazione SageMaker Clarify genererà segnaposti utilizzando nomi generici, come column_0 o column_1 per le intestazioni di funzionalità e label0 per l'intestazione di etichetta. È possibile specificare i valori per headers e label, in modo da migliorare la leggibilità del risultato dell'analisi.
Nel seguente esempio di configurazione, il parametro di probabilità è impostato su un'espressione JMESPath che estrae le probabilità da ogni previsione per ogni record. Di seguito è riportato un esempio per calcolare i valori SHAP.
{ "dataset_type": "application/json", "features": "[*].Features", "methods": { "shap": { "num_clusters": 1 } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
Calcola grafici di dipendenza parziale (PDP)
L'esempio seguente mostra come visualizzare l'importanza delle funzionalità nei PDP. Nell'esempio, le intestazioni delle funzionalità non vengono fornite. Pertanto, il parametro features del metodo pdp deve utilizzare un indice a base zero per fare riferimento alla posizione della colonna di funzionalità. Il parametro grid_resolution divide l'intervallo dei valori della funzionalità in bucket 10.
Insieme, i parametri dell'esempio seguente indicano al processo di elaborazione SageMaker Clarify di generare un report contenente un grafico PDP per Income con i segmenti 10 sull'asse x. L'asse y mostra l'impatto marginale di Income sulle predizioni.
La seguente configurazione di esempio mostra come visualizzare l'importanza di Income nei PDP.
{ "dataset_type": "application/json", "features": "[*].Features", "methods": { "pdp": { "features": [2], "grid_resolution": 10 }, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
Calcola sia i parametri di bias che l'importanza delle funzionalità
Puoi combinare tutti i metodi di configurazione precedenti in un unico file di configurazione dell'analisi e calcolarli tutti in un unico processo. L'esempio seguente mostra una configurazione di analisi con tutte le fasi combinate.
In questo esempio, il parametro probability è impostato. Poiché l'analisi dei bias richiede un'etichetta prevista, il parametro probability_threshold viene impostato su 0.5, che viene utilizzato per convertire il punteggio di probabilità in un'etichetta binaria. In questo esempio, il parametro top_k_features del metodo pdp è impostato su 2. Questo indica al processo di elaborazione SageMaker Clarify di calcolare i PDP per le 2 funzionalità principali che hanno i valori SHAP globali più elevati.
{ "dataset_type": "application/json", "headers": ["Age","Gender","Income","Occupation","Target"], "label": "[*].Label", "features": "[*].Features", "probability_threshold": 0.5, "label_values_or_threshold": [1], "facet": [ { "name_or_index": "Gender", "value_or_threshold": [0] } ], "methods": { "pre_training_bias": { "methods": "all" }, "post_training_bias": { "methods": "all" }, "shap": { "num_clusters": 1 }, "pdp": { "top_k_features": 2, "grid_resolution": 10 }, "report": { "name": "report" } }, "predictor": { "endpoint_name": "your_endpoint", "content_template": "$records", "record_template": "{\"Features\":$features}", "probability": "predictions[*].probability" } }
L'esempio seguente mostra un file di configurazione di analisi per il calcolo dell'importanza della funzionalità per l'elaborazione del linguaggio naturale (NLP). In questo esempio, il set di dati in entrata è un set di dati tabulare in formato CSV, con una colonna dell'etichetta binaria e due colonne di funzionalità, come mostrato in seguito. Il set di dati viene fornito al processo SageMaker Clarify dal parametro di input dell'elaborazione dataset.
0,2,"They taste gross" 1,3,"Flavor needs work" 1,5,"Taste is awful" 0,1,"The worst" ...
In questo esempio, un modello di classificazione binaria è stato addestrato sul precedente set di dati. Il modello accetta dati CSV e restituisce un singolo punteggio compreso tra 0 e 1, come mostrato in seguito.
0.491656005382537 0.569582343101501 ...
Il modello viene utilizzato per creare un modello SageMaker AI denominato “your_model”. La seguente configurazione di analisi mostra come eseguire un'analisi di spiegabilità basata su token utilizzando il modello e il set di dati. Il parametro text_config attiva l'analisi della spiegabilità dell'elabroazione del linguaggio naturale. Il parametro granularity indica che l'analisi deve analizzare i token.
In inglese, ogni token è una parola. L'esempio seguente mostra anche come fornire un'istanza SHAP locale di base utilizzando una valutazione media di 4. Uno speciale token maschera "[MASK]" viene utilizzato per sostituire un token (parola) in "Commenti". Questo esempio utilizza anche un tipo di istanza di endpoint GPU per accelerare l'inferenza.
{ "dataset_type": "text/csv", "headers": ["Target","Rating","Comments"] "label": "Target", "methods": { "shap": { "text_config": { "granularity": "token", "language": "english" } "baseline": [[4,"[MASK]"]], } }, "predictor": { "model_name": "your_nlp_model", "initial_instance_count":1, "instance_type": "ml.g4dn.xlarge" } }
L'esempio seguente mostra un file di configurazione di analisi per il calcolo dell'importanza della funzionalità per la visione artificiale. In questo esempio, il set di dati di input è costituito da immagini JPEG. Il set di dati viene fornito al processo SageMaker Clarify dal parametro di input dell'elaborazione dataset. L'esempio mostra come configurare un'analisi di spiegabilità utilizzando un modello SageMaker di classificazione delle immagini. In questo esempio, un modello denominato your_cv_ic_model è stato addestrato a classificare gli animali nelle immagini JPEG di input.
{ "dataset_type": "application/x-image", "methods": { "shap": { "image_config": { "model_type": "IMAGE_CLASSIFICATION", "num_segments":20, "segment_compactness":10} }, "report": { "name": "report" } }, "predictor": { "model_name": "your_cv_ic_model", "initial_instance_count":1, "instance_type": "ml.p2.xlarge", "label_headers": ["bird","cat","dog"] } }
Per ulteriori informazioni sulla classificazione delle immagini, consulta Classificazione delle immagini - MXNet.
In questo esempio, un modello di rilevamento degli oggetti SageMaker AI, your_cv_od_model, viene addestrato sulle stesse immagini JPEG per identificare gli animali raffigurati. Il prossimo esempio mostra come generare spiegazioni per il rilevamento di oggetti.
{ "dataset_type": "application/x-image", "probability_threshold":0.5, "methods": { "shap": { "image_config": { "model_type": "OBJECT_DETECTION", "max_objects":3, "context":1.0, "iou_threshold":0.5, "num_segments":20, "segment_compactness":10} }, "report": { "name": "report" } }, "predictor": { "model_name": "your_cv_od_model", "initial_instance_count":1, "instance_type": "ml.p2.xlarge", "label_headers": ["bird","cat","dog"] } }
L’esempio seguente mostra un file di configurazione dell’analisi per il calcolo dell’importanza della funzionalità per una serie temporale (TS). In questo esempio, il set di dati in entrata è un set di dati di serie temporali in formato JSON con un set di funzionalità di covariate dinamiche e statiche. Il set di dati viene fornito al processo SageMaker Clarify dal parametro di input dataset_uri dell’elaborazione del set di dati.
[ { "item_id": "item1", "timestamp": "2019-09-11", "target_value": 47650.3, "dynamic_feature_1": 0.4576, "dynamic_feature_2": 0.2164, "dynamic_feature_3": 0.1906, "static_feature_1": 3, "static_feature_2": 4 }, { "item_id": "item1", "timestamp": "2019-09-12", "target_value": 47380.3, "dynamic_feature_1": 0.4839, "dynamic_feature_2": 0.2274, "dynamic_feature_3": 0.1889, "static_feature_1": 3, "static_feature_2": 4 }, { "item_id": "item2", "timestamp": "2020-04-23", "target_value": 35601.4, "dynamic_feature_1": 0.5264, "dynamic_feature_2": 0.3838, "dynamic_feature_3": 0.4604, "static_feature_1": 1, "static_feature_2": 2 }, ]
Le sezioni seguenti spiegano come calcolare le attribuzioni delle funzionalità per un modello di previsione con l’algoritmo con valori asimmetrici di Shapley per un set di dati JSON.
Calcolo delle spiegazioni per i modelli di previsione delle serie temporali
L’esempio seguente di configurazione dell’analisi mostra le opzioni utilizzate dal processo per calcolare le spiegazioni per i modelli di previsione delle serie temporali.
{ 'dataset_type': 'application/json', 'dataset_uri': 'DATASET_URI', 'methods': { 'asymmetric_shapley_value': { 'baseline': { "related_time_series": "zero", "static_covariates": { "item1": [0, 0], "item2": [0, 0] }, "target_time_series": "zero" }, 'direction': 'chronological', 'granularity': 'fine_grained', 'num_samples': 10 }, 'report': {'name': 'report', 'title': 'Analysis Report'} }, 'predictor': { 'accept_type': 'application/json', 'content_template': '{"instances": $records}', 'endpoint_name': 'ENDPOINT_NAME', 'content_type': 'application/json', 'record_template': '{ "start": $start_time, "target": $target_time_series, "dynamic_feat": $related_time_series, "cat": $static_covariates }', 'time_series_predictor_config': {'forecast': 'predictions[*].mean[:2]'} }, 'time_series_data_config': { 'dataset_format': 'timestamp_records', 'item_id': '[].item_id', 'related_time_series': ['[].dynamic_feature_1', '[].dynamic_feature_2', '[].dynamic_feature_3'], 'static_covariates': ['[].static_feature_1', '[].static_feature_2'], 'target_time_series': '[].target_value', 'timestamp': '[].timestamp' } }
Configurazione della spiegabilità delle serie temporali
L’esempio precedente utilizza asymmetric_shapley_value in methods per definire gli argomenti di spiegabilità delle serie temporali come baseline, direzione, granularità e numero di campioni. I valori baseline sono impostati per tutti e tre i tipi di dati: serie temporali correlate, covariate statiche e serie temporali di destinazione. Questi campi indicano al processore SageMaker Clarify di calcolare le attribuzioni delle funzionalità un elemento alla volta.
Configurazione del predittore
Puoi controllare completamente la struttura del payload inviata dal processore SageMaker Clarify utilizzando la sintassi JMESPath. Nell’esempio precedente, la configurazione predictor indica a Clarify di aggregare i record in '{"instances": $records}', dove ogni record è definito con gli argomenti forniti per record_template nell’esempio. Nota che $start_time, $target_time_series, $related_time_series e $static_covariates sono token interni utilizzati per mappare i valori del set di dati ai valori delle richieste degli endpoint.
Allo stesso modo, l’attributo forecast in time_series_predictor_config viene utilizzato per estrarre la previsione del modello dalla risposta dell’endpoint. Ad esempio, la risposta in batch dell’endpoint potrebbe essere la seguente:
{ "predictions": [ {"mean": [13.4, 3.6, 1.0]}, {"mean": [23.0, 4.7, 3.0]}, {"mean": [3.4, 5.6, 2.0]} ] }
Supponiamo di specificare la seguente configurazione del predittore di serie temporali:
'time_series_predictor_config': {'forecast': 'predictions[*].mean[:2]'}
Il valore di previsione viene analizzato come descritto di seguito:
[ [13.4, 3.6], [23.0, 4.7], [3.4, 5.6] ]
Dati di configurazione
Utilizza l’attributo time_series_data_config per indicare al processore SageMaker Clarify come analizzare correttamente i dati passati come URI S3 in dataset_uri.