Container Insights con OpenTelemetry metriche per Amazon EKS - Amazon CloudWatch

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Container Insights con OpenTelemetry metriche per Amazon EKS

Anteprima

Container Insights con OpenTelemetry metriche offre visibilità sullo stato operativo dell'infrastruttura di cluster Amazon EKS. È disponibile in anteprima pubblica senza costi aggiuntivi negli Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Europa (Irlanda), Asia Pacifico (Singapore) e Asia Pacifico (Sydney).

Il componente aggiuntivo Amazon CloudWatch Observability EKS raccoglie metriche open source dai cluster Amazon EKS e le invia a Using the OpenTelemetry Protocol (OTLP) CloudWatch con una granularità di 30 secondi. Queste metriche utilizzano nomi di metrici tratti dalle loro fonti originali, tra cui CADvisor, Prometheus Node Exporter, NVIDIA DCGM, Kube State Metrics e Neuron Monitor. AWS È possibile interrogare queste metriche utilizzando PromQL in CloudWatch Query Studio o tramite l'API di query compatibile con Prometheus.

Ogni metrica viene automaticamente arricchita con un massimo di 150 etichette, inclusi gli attributi delle convenzioni OpenTelemetry semantiche e le etichette dei pod e dei nodi Kubernetes. ProMQL gestisce l'aggregazione al momento della query, quindi ogni metrica viene pubblicata una volta per risorsa anziché a più livelli di aggregazione. Il componente aggiuntivo mette inoltre in correlazione le metriche degli acceleratori di AWS Neuron ed AWS Elastic Fabric Adapter con i pod e i contenitori specifici che li utilizzano, fornendo una visibilità che non è disponibile solo dalle fonti metriche.

Per abilitare OTel Container Insights su un cluster Amazon EKS, installa la versione aggiuntiva Amazon CloudWatch Observability EKS v6.0.1-eksbuild.1 o una versione successiva tramite la console Amazon EKS o tramite infrastruttura come codice.

Per ulteriori informazioni sulla configurazione di OTel Container Insights, consulta. Configurazione di Container Insights

Per ulteriori informazioni sull'interrogazione di queste metriche con PromQL, consulta. Interrogazione ProMQL

Confronto tra OTel Container Insights e Container Insights (migliorato)

La tabella seguente riassume le differenze tra Container Insights (migliorato) e OTel Container Insights.

Funzionalità Container Insights (migliorato) OTel Container Insights
Nomi dei parametri CloudWatch-format metriche (ad esempio,) pod_cpu_utilization Nativo open source (ad esempio,) container_cpu_usage_seconds_total
Etichette per metrica 3—6 dimensioni predefinite per metrica Fino a 150 etichette, incluse tutte le etichette dei pod e dei nodi Kubernetes
Aggregazione Preaggregato a più livelli (cluster, namespace, carico di lavoro, pod) Metriche grezze per risorsa; aggregazione in fase di interrogazione con ProMQL
Linguaggio di query CloudWatch API per le metriche ProMQL (compatibile con Prometheus)
Ingestione metrica CloudWatch Registri in formato EMF Endpoint OTLP

Come vengono etichettate le metriche

Ogni metrica raccolta da OTel Container Insights contiene etichette provenienti da tre fonti.

Etichette native della fonte di telemetria

Etichette tratte dalla fonte metrica originale (ad esempio, CADvisor fornisce etichette come, e). pod namespace container Questi vengono conservati come attributi datapoint.

OpenTelemetry attributi delle risorse

Il componente aggiuntivo aggiunge gli attributi delle risorse seguendo le convenzioni OpenTelemetry semantiche per Kubernetes, Host e Cloud, come,, e. k8s.pod.name k8s.namespace.name k8s.node.name host.name cloud.region Questi attributi sono coerenti in tutte le fonti metriche.

Etichette per pod e nodi Kubernetes

Tutte le etichette dei pod e delle etichette dei nodi rilevate dall'API Kubernetes vengono aggiunte come attributi di risorsa con i prefissi e. k8s.pod.label k8s.node.label

Per ulteriori informazioni su come interrogare questi attributi utilizzando PromQL, consulta. Interrogazione ProMQL

Parametri supportati

La tabella seguente elenca le fonti e le categorie delle metriche raccolte da OTel Container Insights.

Origine metrica Categoria parametro Prerequisiti
CADvisor Parametri CPU -
cAdvisor Parametri della memoria -
cAdvisor Metriche di rete -
cAdvisor Metriche relative a dischi e file system -
Prometheus Node Exporter Parametri CPU -
Prometheus Node Exporter Parametri della memoria -
Prometheus Node Exporter Parametri del disco -
Prometheus Node Exporter Metriche del file system -
Prometheus Node Exporter Metriche di rete -
Prometheus Node Exporter Parametri del sistema -
Prometheus Node Exporter VMStat metriche -
Prometheus Node Exporter Metriche di Netstat e socket -
NVIDIA DCGM Utilizzo della GPU e metriche prestazionali È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM Metriche della memoria GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM Metriche termiche e relative alla potenza della GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM Metriche di limitazione della GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM Metriche di errore e affidabilità della GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM metriche NVLink della GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
NVIDIA DCGM Metriche informative sulla GPU È necessario installare il plug-in per dispositivi NVIDIA e il toolkit NVIDIA Container.
AWS Neuron Monitor NeuronCore metriche È necessario installare il driver Neuron e il plug-in del dispositivo Neuron.
AWS Neuron Monitor NeuronDevice metriche È necessario installare il driver Neuron e il plug-in del dispositivo Neuron.
AWS Neuron Monitor Metriche del sistema neuronale È necessario installare il driver Neuron e il plug-in del dispositivo Neuron.
AWS Adattatore Elastic Fabric Metriche EFA Il plug-in del dispositivo EFA deve essere installato.
NVMe NVMe Metriche SMART -
Metriche dello stato di Kube Pod, nodo, Deployment DaemonSet, StatefulSet, ReplicaSet, Job, CronJob, Service, Namespace, metriche PersistentVolume PersistentVolumeClaim -
Server API Kubernetes Server API e metriche etcd -