Online-Erklärbarkeit mit SageMaker Clarify - Amazon SageMaker AI

Online-Erklärbarkeit mit SageMaker Clarify

Diese Anleitung zeigt, wie Sie die Online-Erklärbarkeit mit SageMaker Clarify konfigurieren. Mit den Echtzeit-Inferenzendpunkten von SageMaker AI können Sie die Erklärbarkeit kontinuierlich in Echtzeit analysieren. Die Online-Erklärbarkeitsfunktion passt in den Teil Für die Produktion bereitstellen des Machine-Learning-Workflows von Amazon SageMaker AI.

So funktioniert die Verdeutlichung der Online-Erklärbarkeit

Die folgende Grafik zeigt die SageMaker-AI-Architektur zum Hosten eines Endpunkts, der Erklärbarkeitsanfragen bedient. Sie zeigt Interaktionen zwischen einem Endpunkt, dem Modellcontainer und dem SageMaker Clarify-Erklärer.

SageMaker-AI-Architektur, die zeigt wie ein Endpunkt gehostet wird, der On-demand-Erklärbarkeitsanfragen bedient

So funktioniert die Verdeutlichung der Online-Erklärbarkeit: Die Anwendung sendet eine REST-Stil InvokeEndpoint-Anfrage an den Laufzeit-Service von SageMaker AI. Der Service leitet diese Anfrage an einen SageMaker-AI-Endpunkt weiter, um Vorhersagen und Erklärungen zu erhalten. Anschließend erhält der Service die Antwort vom Endpunkt. Schließlich sendet der Service die Antwort an die Anwendung zurück.

Um die Endpunktverfügbarkeit zu erhöhen, versucht SageMaker AI automatisch, Endpunkt-Instances entsprechend der Anzahl der Instances in der Endpunktkonfiguration in mehreren Availability Zones zu verteilen. Auf einer Endpunkt-Instance ruft der SageMaker Clarify-Erklärer bei einer neuen Erklärbarkeitsanfrage den Modellcontainer für Vorhersagen auf. Anschließend werden die Funktionszuordnungen berechnet und zurückgegeben.

Hier sind die vier Schritte, um einen Endpunkt zu erstellen, der die Online-Erklärbarkeit von SageMaker Clarify verwendet:

  1. Prüfen Sie anhand der Schritte zur Vorabprüfung, ob Ihr vortrainiertes SageMaker-AI-Modell mit der Online-Erklärbarkeit kompatibel ist.

  2. Erstellen Sie mithilfe der CreateEndpointConfig-API eine Endpunktkonfiguration mit der Erklärkonfiguration von SageMaker Clarify.

  3. Erstellen Sie einen Endpunkt und stellen Sie SageMaker AI die Endpunktkonfiguration mithilfe der CreateEndpoint-API zur Verfügung. Der Service startet die ML-Compute-Instance und stellt die Modelle gemäß der Konfiguration bereit.

  4. Rufen Sie den Endpunkt auf: Nachdem der Endpunkt in Betrieb ist, rufen Sie die Laufzeit-API InvokeEndpoint von SageMaker AI auf, um Anfragen an den Endpunkt zu senden. Der Endpunkt gibt dann Erklärungen und Prognosen zurück.