Empfehlungsergebnisse - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Empfehlungsergebnisse

Jedes Ergebnis eines Inference Recommender-Jobs enthält InstanceType, InitialInstanceCount und EnvironmentParameters, bei denen es sich um optimierte Umgebungsvariablenparameter für Ihren Container handelt, um dessen Latenz und Durchsatz zu verbessern. Die Ergebnisse beinhalten auch Leistungs- und Kostenkennzahlen wieMaxInvocations, ModelLatency, CostPerHour, CostPerInference, CpuUtilization, und MemoryUtilization.

In der folgenden Tabelle finden Sie eine Beschreibung dieser Kennzahlen. Diese Metriken können Ihnen helfen, Ihre Suche nach der besten Endpunktkonfiguration für Ihren Anwendungsfall einzugrenzen. Wenn Ihre Motivation beispielsweise das allgemeine Preis-Leistungs-Verhältnis mit Schwerpunkt auf dem Durchsatz ist, sollten Sie sich auf Folgendes konzentrieren CostPerInference.

Metrik Beschreibung Anwendungsfall

ModelLatency

Das Zeitintervall bis zur Reaktion eines Modells, von SageMaker AI aus gesehen Dieses Intervall enthält die lokale Kommunikationszeitspanne für das Senden der Anforderung und Abrufen der Antwort vom Container eines Modells sowie die Zeitspanne für das Abschließen der Inferenz im Container.

Einheiten: Millisekunden

Latenzempfindliche Workloads wie Anzeigenschaltung und medizinische Diagnose

MaximumInvocations

Die maximale Anzahl von InvokeEndpoint Anfragen, die in einer Minute an einen Modellendpunkt gesendet werden.

Einheiten: keine

Auf den Durchsatz ausgerichtete Workloads wie Videoverarbeitung oder Batch-Inferenz

CostPerHour

Die geschätzten Kosten pro Stunde für Ihren Echtzeit-Endpunkt.

Einheiten: US-Dollar

Kostensensible Workloads ohne Latenzfristen

CostPerInference

Die geschätzten Kosten pro Inferenzgespräch für Ihren Echtzeit-Endpunkt.

Einheiten: US-Dollar

Maximieren Sie das allgemeine Preis-/Leistungsverhältnis und konzentrieren Sie sich dabei auf den Durchsatz

CpuUtilization

Die erwartete CPU-Auslastung bei maximalen Aufrufen pro Minute für die Endpunkt-Instance.

Einheiten: Prozent

Verschaffen Sie sich einen Überblick über den Zustand der Instance beim Benchmarking, indem Sie Einblick in die Kern-CPU-Auslastung der Instance haben

MemoryUtilization

Die erwartete Speicherauslastung bei maximalen Aufrufen pro Minute für die Endpunkt-Instance.

Einheiten: Prozent

Verschaffen Sie sich einen Überblick über den Zustand der Instance beim Benchmarking, indem Sie Einblick in die Kernspeichernutzung der Instance haben

In einigen Fällen möchten Sie vielleicht andere Metriken zum Aufrufen von SageMaker-AI-Endpunkten untersuchen, wie z. B. CPUUtilization. Jedes Inference Recommender-Job-Ergebnis enthält die Namen der Endpunkte, die während des Auslastungstests gestartet wurden. Sie können CloudWatch verwenden, um die Protokolle für diese Endpunkte zu überprüfen, auch nachdem sie gelöscht wurden.

Die folgende Abbildung ist ein Beispiel für CloudWatch-Metriken und -Diagramme, die Sie anhand Ihres Empfehlungsergebnisses für einen einzelnen Endpunkt überprüfen können. Dieses Empfehlungsergebnis stammt aus einem Standardjob. Die Skalarwerte aus den Empfehlungsergebnissen lassen sich so interpretieren, dass sie auf dem Zeitpunkt basieren, zu dem sich das Aufruf-Diagramm zum ersten Mal zu nivellieren beginnt. Der gemeldete ModelLatency Wert befindet sich beispielsweise am Anfang des Plateaus um 03:00:31.

Diagramme für CloudWatch-Metriken

Vollständige Beschreibungen der CloudWatch-Metriken, die in den vorherigen Diagrammen verwendet wurden, finden Sie unter Metriken zum Aufrufen von SageMaker-AI-Endpunkten.

Im /aws/sagemaker/InferenceRecommendationsJobs namespace finden Sie auch Leistungskennzahlen wie ClientInvocations und NumberOfUsers von Inference Recommender veröffentlicht. Eine vollständige Liste der Metriken und Beschreibungen, die von Inference Recommender veröffentlicht wurden, finden Sie unter SageMaker Kennzahlen zu Stellenangeboten von Inference Recommender.

Im Notebook Amazon SageMaker Inference Recommender – CloudWatch Metrics Jupyter im Github-Repository amazon-sagemaker-examples finden Sie ein Beispiel dafür, wie Sie das AWS SDK for Python (Boto3) verwenden können, um CloudWatch-Metriken für Ihre Endgeräte zu untersuchen.