Explicabilité du modèle
Amazon SageMaker Clarify fournit des outils pour expliquer la façon dont les modèles de machine learning (ML) réalisent des prédictions. Ces outils peuvent aider les modélisateurs et développeurs ML, ainsi que d’autres parties prenantes internes, à comprendre globalement les caractéristiques du modèle avant le déploiement et à déboguer les prédictions fournies par un modèle après son déploiement.
-
Pour obtenir des explications pour vos jeux de données et modèles, consultez Équité, explicabilité des modèles et détection des biais avec SageMaker Clarify.
-
Pour obtenir des explications en temps réel à partir d’un point de terminaison SageMaker AI, consultez Explicabilité en ligne avec SageMaker AI Clarify.
La transparence quant à la façon dont les modèles de ML formulent leurs prédictions est également essentielle pour les consommateurs et les régulateurs. Ils doivent faire confiance aux prédictions de modèle pour accepter les décisions qui en découlent. SageMaker Clarify utilise une approche d'attribution de fonctions indépendante du modèle. Vous pouvez l'utiliser pour comprendre pourquoi un modèle a formulé une prédiction après l'entraînement, et pour fournir une explication par instance pendant l'inférence. L'approche comprend une mise en œuvre évolutive et efficace de SHAP
Clarify produit des graphiques de dépendance partielle (PDP) qui montrent l'effet marginal des fonctions sur le résultat prédit d'un modèle de machine learning. La dépendance partielle permet d'expliquer la réponse cible en fonction d'un ensemble de fonctions d'entrée. Elle prend également en charge l’explicabilité de la vision par ordinateur et du traitement du langage naturel (NLP) à l’aide du même algorithme de valeurs Shapley (SHAP) que celui utilisé pour les explications de données tabulaires.
Quelle est la fonction d’une explication dans le contexte du machine learning ? Une explication peut être considérée comme la réponse à une question Pourquoi ?, qui aide les humains à comprendre la cause d'une prédiction. Dans le contexte d’un modèle ML, vous pouvez vouloir répondre à des questions telles que :
-
Pourquoi le modèle a-t-il prédit un résultat négatif, comme un refus de prêt pour un demandeur donné ?
-
Comment le modèle fait-il des prédictions ?
-
Pourquoi le modèle a-t-il fait une prédiction incorrecte ?
-
Quelles fonctions influent le plus sur le comportement du modèle ?
Vous pouvez utiliser des explications pour l’audit et le respect des exigences réglementaires, renforcer la confiance dans le modèle et prendre en charge la prise de décisions humaines, ainsi que pour le débogage et l’amélioration des performances du modèle.
Le genre d'explication requis repose sur la nécessité de satisfaire les exigences de compréhension humaine de la nature et des résultats de l'inférence ML. Les recherches menées en philosophie et en sciences cognitives montrent que les gens recherchent des explications contrastives, ou des explications sur la raison pour laquelle un événement X s'est produit au lieu d'un autre événement Y qui ne s'est pas produit. Ici, X peut être un événement inattendu ou surprenant qui s'est produit et Y une attente basée sur leur modèle mental existant appelé base de référence. Vous noterez que, pour le même événement X, plusieurs personnes peuvent rechercher des explications différentes selon leur point de vue ou leur modèle mental Y. Dans le contexte de l’IA explicable, vous pouvez considérer X comme l’exemple expliqué et Y comme une base de référence choisie généralement pour représenter un exemple non informatif ou moyen dans le jeu de données. Parfois, par exemple dans le cas de la modélisation ML d'images, la référence peut être implicite : une image dont les pixels sont tous de la même couleur peut servir de référence.
Exemples de blocs-notes
Amazon SageMaker Clarify fournit les exemples de blocs-notes suivants pour l'explicabilité du modèle :
-
Amazon SageMaker Clarify Processing
(Traitement avec Amazon Sagemaker Clarify) – Utilisez SageMaker Clarify pour créer une tâche de traitement pour la détection de biais et expliquer les prédictions de modèle avec des attributions de fonction. Par exemple, vous pouvez utiliser les formats de données CSV et JSON Lines, apporter votre propre conteneur et exécuter des tâches de traitement avec Spark. -
Expliquer la classification des images avec SageMaker Clarify
: SageMaker Clarify vous fournit des informations sur la façon dont vos modèles de reconnaissance d’image classent les images. -
Expliquer les modèles de détection d'objets avec SageMaker Clarify
– SageMaker Clarify vous fournit des informations sur la façon dont vos modèles de reconnaissance d'image détectent les objets.
Ce bloc-notes a été vérifié comme s’exécutant dans Amazon SageMaker Studio seulement. Pour obtenir des instructions sur la façon d’ouvrir un bloc-notes dans Amazon SageMaker Studio, consultez Création ou ouverture d’un bloc-notes Amazon SageMaker Studio Classic. Si vous êtes invité à choisir un noyau, choisissez Python 3 (Science des données).