Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
SageMaker Clarifiez l'explicabilité avec SageMaker AI Autopilot
Le pilote automatique utilise des outils fournis par Amazon SageMaker Clarify pour fournir des informations sur la manière dont les modèles d'apprentissage automatique (ML) établissent des prédictions. Ces outils peuvent aider les ingénieurs ML, les chefs de produit et d’autres intervenants internes à comprendre les caractéristiques d’un modèle. Pour approuver et interpréter les décisions prises sur la base des prédictions modélisées, les consommateurs et les régulateurs s’appuient sur la transparence du machine learning.
La fonctionnalité explicative d’Autopilot utilise une approche d’attribution de caractéristiques indépendante du modèle. Cette approche détermine la contribution des différentes fonctionnalités ou entrées à la sortie du modèle, fournissant ainsi des insights sur la pertinence des différentes fonctionnalités. Vous pouvez l’utiliser pour comprendre pourquoi un modèle a réalisé une prédiction après l’entraînement, ou l’utiliser pour fournir une explication par instance pendant l’inférence. L’implémentation inclut une implémentation évolutive de SHAP
Vous pouvez utiliser les explications SHAP pour les cas suivants : audit et respect d’exigences réglementaires, renforcement de la confiance dans le modèle, soutien aux prises de décisions humaines et débogage et amélioration des performances du modèle.
Pour plus d’informations sur les références et les valeurs de Shapley, consultez Bases de référence SHAP pour l’explicabilité.
Pour un guide de la documentation Amazon SageMaker Clarify, consultez le Guide de la documentation SageMaker Clarify.