Explicabilité en ligne avec SageMaker AI Clarify
Ce guide explique comment configurer l'explicabilité en ligne avec SageMaker Clarify. Avec les points de terminaison d’inférence en temps réel SageMaker AI, vous pouvez analyser l’explicabilité en temps réel et en continu. La fonction d’explicabilité en ligne s’intègre dans la partie Déployer en production du flux de travail de machine learning Amazon SageMaker AI.
Comment fonctionne l'explicabilité en ligne Clarify
Le graphique suivant montre l’architecture SageMaker AI pour héberger un point de terminaison qui répond aux demandes d’explicabilité. Il illustre les interactions entre un point de terminaison, le conteneur de modèle et l'outil d'explication SageMaker Clarify.
Voici comment fonctionne l'explicabilité en ligne Clarify. L’application envoie une demande InvokeEndpoint de type REST au service d’exécution SageMaker AI. Le service achemine cette demande vers un point de terminaison SageMaker AI afin d’obtenir des prédictions et des explications. Le service reçoit ensuite la réponse du point de terminaison. Enfin, le service renvoie la réponse à l'application.
Pour augmenter la disponibilité des points de terminaison, SageMaker AI tente automatiquement de distribuer les instances de point de terminaison dans plusieurs zones de disponibilité, en fonction du nombre d’instances dans la configuration du point de terminaison. Sur une instance de point de terminaison, lors d'une nouvelle demande d'explicabilité, l'outil d'explication SageMaker Clarify appelle le conteneur de modèle afin d'obtenir des prédictions. Ensuite, il calcule et renvoie les attributions de fonctionnalités.
Voici les quatre étapes pour créer un point de terminaison qui utilise l'explicabilité en ligne de SageMaker Clarify :
-
Vérifiez si votre modèle SageMaker AI pré-entraîné est compatible avec l’explicabilité en ligne en suivant les étapes de pré-vérification.
-
Créez une configuration de point de terminaison avec la configuration de l'outil d'explication SageMaker Clarify à l'aide de l'API
CreateEndpointConfig. -
Créez un point de terminaison et fournissez la configuration du point de terminaison à SageMaker AI à l’aide de l’API
CreateEndpoint. Le service lance l'instance de calcul de machine learning et déploie le modèle tel que spécifié dans la configuration. -
Invoquez le point de terminaison : une fois que celui-ci est en service, appelez l’API
InvokeEndpointdu service d’exécution SageMaker AI pour envoyer des demandes au point de terminaison. Le point de terminaison renvoie ensuite des explications et des prédictions.