Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Fehlerbehebung
Die folgende Seite enthält bekannte Lösungen zur Fehlerbehebung bei Ihren HyperPod EKS-Clustern.
Themen
Registerkarte Dashboard
Die Installation des EKS-Add-ons ist fehlgeschlagen.
Damit die Installation des EKS-Add-ons erfolgreich ist, benötigen Sie eine Kubernets-Version >= 1.30. Informationen zum Update finden Sie unter Kubernetes-Version aktualisieren.
Damit die Installation des EKS-Add-ons erfolgreich ist, müssen sich alle Knoten im Status Bereit und alle Pods im Status Running befinden.
Um den Status Ihrer Knoten zu überprüfen, verwenden Sie den list-cluster-nodes AWS CLI Befehl oder navigieren Sie in der EKS-Konsole zu Ihrem EKS-Cluster
Um den Status Ihrer Pods zu überprüfen, verwenden Sie den Kubernetes-CLIkubectl get pods -n cloudwatch-agent oder navigieren Sie in der EKS-Konsole zu Ihrem EKS-Clustercloudwatch-agent an. Beheben Sie das Problem mit den Pods oder wenden Sie sich an Ihren Administrator, um das Problem zu lösen. Sobald alle Pod-Status „Wird ausgeführt“ lauten, versuchen Sie erneut, das EKS-Add-on HyperPod von der Amazon SageMaker AI-Konsole
Weitere Informationen zur Fehlerbehebung finden Sie unter Fehlerbehebung beim Amazon CloudWatch Observability EKS-Add-on.
Registerkarte „Aufgaben“
Wenn Ihnen die Fehlermeldung angezeigt wird, dass die benutzerdefinierte Ressourcendefinition (CRD) auf dem Cluster nicht konfiguriert ist, gewähren Sie Ihrer Domain-Ausführungsrolle Rechte EKSAdminViewPolicy und ClusterAccessRole Richtlinien.
-
Weitere Informationen zum Abrufen Ihrer Ausführungsrolle finden Sie unter Abrufen Ihrer Ausführungsrolle.
-
Informationen zum Hinzufügen von Richtlinien zu einem IAM-Benutzer oder einer IAM-Gruppe finden Sie unter Hinzufügen und Entfernen von IAM-Identitätsberechtigungen.
Richtlinien
Im Folgenden werden Lösungen für Fehler im Zusammenhang mit Richtlinien aufgeführt, die die HyperPod APIs OR-Konsole verwenden.
-
Wenn sich die Richtlinie in
CreateFailedoder imCreateRollbackFailedStatus befindet, müssen Sie die fehlgeschlagene Richtlinie löschen und eine neue erstellen. -
Wenn die Richtlinie im Status
UpdateFailedist, versuchen Sie die Aktualisierung mit derselben Richtlinien-ARN erneut. -
Wenn die Richtlinie den
UpdateRollbackFailedStatus hat, müssen Sie die fehlgeschlagene Richtlinie löschen und anschließend eine neue erstellen. -
Wenn die Richtlinie im Status
DeleteFailedund ist, versuchen Sie erneut, sie mit derselben Richtlinien-ARN zu löschen.-
Wenn Sie beim Versuch, die Compute-Priorisierung oder Cluster-Richtlinie über die HyperPod Konsole zu löschen, auf einen Fehler gestoßen sind, versuchen Sie, diese
cluster-scheduler-configmithilfe der API zu löschen. Um den Status der Ressource zu überprüfen, rufen Sie die Detailseite einer Rechenzuweisung auf.
-
Verwenden Sie die Describe-API, um weitere Informationen zu dem Fehler zu erhalten.
Löschen von Clustern
Im Folgenden sind bekannte Lösungen für Fehler im Zusammenhang mit dem Löschen von Clustern aufgeführt.
-
Wenn das Löschen des Clusters aufgrund der beigefügten SageMaker HyperPod Task-Governance-Richtlinien fehlschlägt, müssen Sie dies tunLöschen von Richtlinien.
-
Wenn das Löschen eines Clusters fehlschlägt, weil die folgenden Berechtigungen fehlen, müssen Sie die Mindestberechtigungen Ihres Clusteradministrators aktualisieren. Weitere Informationen finden Sie im IAM-Benutzer für den Clusteradministrator Abschnitt auf der Registerkarte Amazon EKS.
-
sagemaker:ListComputeQuotas -
sagemaker:ListClusterSchedulerConfig -
sagemaker:DeleteComputeQuota -
sagemaker:DeleteClusterSchedulerConfig
-
Gemeinsame Nutzung nicht zugewiesener Ressourcen
Wenn die Kapazität Ihres nicht zugewiesenen Ressourcenpools geringer als erwartet ist:
-
Überprüfen Sie den Status des Knotens bereit
kubectl get nodesStellen Sie sicher, dass alle Knoten
Readyden Status in der STATUS-Spalte anzeigen. -
Überprüfen Sie den Status des Knotens, der planbar ist
kubectl get nodes -o custom-columns=NAME:.metadata.name,UNSCHEDULABLE:.spec.unschedulableÜberprüfen Sie, ob die Knoten angezeigt
<none>werdenfalseoder nichttrue. -
Listet die gemeinsame Nutzung ClusterQueues nicht zugewiesener Ressourcen auf:
kubectl get clusterqueue | grep hyperpod-ns-idle-resource-sharingDies zeigt alle nicht zugewiesenen Ressourcen, die gemeinsam genutzt werden. ClusterQueues Wenn sie nicht angezeigt ClusterQueues werden, überprüfen Sie in der
FailureReasonnachfolgenden ClusterSchedulerConfig Richtlinie, ob es Fehlermeldungen gibt, um das Debuggen fortzusetzen. -
Überprüfen Sie das Kontingent für die gemeinsame Nutzung nicht zugewiesener Ressourcen
kubectl describe clusterqueue hyperpod-ns-idle-resource-sharing-<index>In dem
spec.resourceGroups[].flavors[].resourcesAbschnitt finden Sie das für die einzelnen Ressourcenarten zugewiesene Kontingent.Abhängig von der Anzahl der Ressourcenvarianten in Ihrem Cluster ClusterQueues können mehrere nicht zugewiesene Ressourcen gemeinsam genutzt werden.
-
Überprüfen Sie den MIG-Konfigurationsstatus (GPU-Knoten):
kubectl get nodes -o jsonpath='{range .items[*]}{.metadata.name}{"\t"}{.metadata.labels.nvidia\.com/mig\.config\.state}{"\n"}{end}'Überprüfen Sie, ob MIG-fähige Knoten den Status anzeigen
success.