Spiegabilità di SageMaker Clarify con SageMaker AI Autopilot - Amazon SageMaker AI

Spiegabilità di SageMaker Clarify con SageMaker AI Autopilot

Autopilot utilizza gli strumenti forniti da Amazon SageMaker Clarify per contribuire a fornire informazioni su come i modelli di machine learning (ML) effettuano previsioni. Questo report può aiutare gli ingegneri del machine learning, i product manager e altri stakeholder interni a comprendere le caratteristiche del modello. Per valutare l’attendibilità e interpretare le decisioni prese in base alle previsioni tramite modello, sia i consumer sia gli organismi di regolamentazione si affidano alla trasparenza del machine learning.

La funzionalità esplicativa di Autopilot utilizza un approccio di attribuzione delle funzionalità indipendente dal modello. Questo approccio determina il contributo delle singole funzionalità o input all'output del modello, fornendo informazioni sulla rilevanza delle diverse funzionalità. È possibile utilizzarlo per capire perché un modello ha effettuato una previsione dopo l'addestramento e per fornire una spiegazione per istanza durante l'inferenza. L’implementazione include un’implementazione scalabile di SHAP (Shapley Additive Explanations). L’implementazione si basa sul concetto di valore di Shapley, tratto della teoria cooperativa dei giochi, che assegna a ciascuna funzionalità un valore di importanza per una particolare previsione.

Puoi utilizzare le spiegazioni SHAP per verificare quanto segue: controllare e soddisfare i requisiti normativi, creare fiducia nel modello, supportare il processo decisionale umano o eseguire il debug e migliorare le prestazioni del modello.

Per ulteriori informazioni sui valori e sulle baseline Shapely, consulta Baseline SHAP per la spiegabilità.

Per una guida alla documentazione di Amazon SageMaker Clarify, consulta Guida alla documentazione di SageMaker Clarify.