

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Führen Sie GPU-Jobs aus
<a name="gpu-jobs"></a>

GPU-Jobs helfen Ihnen dabei, Jobs auszuführen, die die einer Instanz verwenden. GPUs

Die folgenden GPU-basierten Instance-Typen von Amazon EC2 werden unterstützt. [https://aws.amazon.com/ec2/instance-types/trn2/](https://aws.amazon.com/ec2/instance-types/trn2/) [ 2 Dl1-Instances](https://aws.amazon.com/ec2/instance-types/dl1/) und [Amazon EC2 Dl2-Instances](https://aws.amazon.com/ec2/instance-types/dl2q/).


|  Instance-Typ  |  GPUs  |  GPU-Arbeitsspeicher  |  v CPUs  |  Arbeitsspeicher  |  Netzwerkbandbreite  | 
| --- | --- | --- | --- | --- | --- | 
|  g3s.xgroß  |  1  |  8 GiB  |  4  |  30,5 GiB  |  10 Gbit/s  | 
|  g3.4xgroß  |  1  |  8 GiB  |  16  |  122 GiB  |  Bis zu 10 Gbit/s  | 
|  g3.8xgroß  |  2  |  16 GiB  |  32  |  244 GiB  |  10 Gbit/s  | 
|  g3.16xgroß  |  4  |  32 GiB  |  64  |  488 GiB  |  25 Gbit/s  | 
|  g4dn.xgroß  |  1  |  16 GiB  |  4  |  16 GiB  |  Bis zu 25 Gbit/s  | 
|  g4dn.2xgroß  |  1  |  16 GiB  |  8  |  32 GiB  |  Bis zu 25 Gbit/s  | 
|  g4dn.4xgroß  |  1  |  16 GiB  |  16  |  64 GiB  |  Bis zu 25 Gbit/s  | 
|  g4dn.8xgroß  |  1  |  16 GiB  |  32  |  128 GiB  |  50 Gbit/s  | 
|  g4dn.12xgroß  |  4  |  64 GiB  |  48  |  192 GiB  |  50 Gbit/s  | 
|  g4dn.16xgroß  |  1  |  16 GiB  |  64  |  256 GiB  |  50 Gbit/s  | 
|  g5.xgroß  |  1  |  24 GiB  |  4  |  16 GiB  |  Bis zu 10 Gbit/s  | 
|  g5.2xlarge  |  1  |  24 GiB  |  8  |  32 GiB  |  Bis zu 10 Gbit/s  | 
|  g5.4xlarge  |  1  |  24 GiB  |  16  |  64 GiB  |  Bis zu 25 Gbit/s  | 
|  g5.8xlarge  |  1  |  24 GiB  |  32  |  128 GiB  |  25 Gbit/s  | 
|  g5.16xlarge  |  1  |  24 GiB  |  64  |  256 GiB  |  25 Gbit/s  | 
|  g5.12xlarge  |  4  |  96 GiB  |  48  |  192 GiB  |  40 GBit/s  | 
|  g5.24xlarge  |  4  |  96 GiB  |  96  |  384 GiB  |  50 Gbit/s  | 
|  g5.48xlarge  |  8  |  192 GiB  |  192  |  768 GiB  |  100 Gbit/s  | 
|  g5g.xlarge  |  1  |  16 GiB  |  4  |  8 GiB  |  Bis zu 10 Gbit/s  | 
|  g5g.2xlarge  |  1  |  16 GiB  |  8  |  16 GiB  |  Bis zu 10 Gbit/s  | 
|  g5g.4xlarge  |  1  |  16 GiB  |  16  |  32 GiB  |  Bis zu 10 Gbit/s  | 
|  g5g.8xlarge  |  1  |  16 GiB  |  32  |  64 GiB  |  12 Gbit/s  | 
|  g5g.16xlarge  |  2  |  32 GiB  |  64  |  128 GiB  |  25 Gbit/s  | 
|  g5g.metal  |  2  |  32 GiB  |  64  |  128 GiB  |  25 Gbit/s  | 
|  g6.xlarge  |  1  |  24 GiB  |  4  |  16 GiB  |  Bis zu 10 Gbit/s  | 
|  g6.2xlarge  |  1  |  24 GiB  |  8  |  32 GiB  |  Bis zu 10 Gbit/s  | 
|  g6.4xlarge  |  1  |  24 GiB  |  16  |  64 GiB  |  Bis zu 25 Gbit/s  | 
|  g6.8xlarge  |  1  |  24 GiB  |  32  |  128 GiB  |  25 Gbit/s  | 
|  g6.16xlarge  |  1  |  24 GiB  |  64  |  256 GiB  |  25 Gbit/s  | 
|  g6.12xlarge  |  4  |  96 GiB  |  48  |  192 GiB  |  40 GBit/s  | 
|  g6.24xlarge  |  4  |  96 GiB  |  96  |  384 GiB  |  50 Gbit/s  | 
|  g6.48xlarge  |  8  |  192 GiB  |  192  |  768 GiB  |  100 Gbit/s  | 
|  g6e.xlarge  |  1  |  48 GiB  |  4  |  32 GiB  |  Bis zu 20 Gbit/s  | 
|  g6e.2xlarge  |  1  |  48 GiB  |  8  |  64 GiB  |  Bis zu 20 Gbit/s  | 
|  g6e.4xlarge  |  1  |  48 GiB  |  16  |  128 GiB  |  20 Gbit/s  | 
|  g6e.8xlarge  |  1  |  48 GiB  |  32  |  256 GiB  |  25 Gbit/s  | 
|  g6e.16xlarge  |  1  |  48 GiB  |  64  |  512 GiB  |  35 Gbit/s  | 
|  g6e.12xlarge  |  4  |  192 GiB  |  48  |  384 GiB  |  100 Gbit/s  | 
|  g6e.24xlarge  |  4  |  192 GiB  |  96  |  768 GiB  |  200 Gbit/s  | 
|  g6e.48xlarge  |  8  |  384 GiB  |  192  |  1536 GiB  |  400 Gbit/s  | 
|  gr6.4xlarge  |  1  |  24 GiB  |  16  |  128 GiB  |  Bis zu 25 Gbit/s  | 
|  gr6.8xlarge  |  1  |  24 GiB  |  32  |  256 GiB  |  25 Gbit/s  | 
|  p2.xgroß  |  1  |  12 GiB  |  4  |  61 GiB  |  Hoch  | 
|  p2.8xgroß  |  8  |  96 GiB  |  32  |  488 GiB  |  10 Gbit/s  | 
|  p2.16xgroß  |  16  |  192 GiB  |  64  |  732 GiB  |  20 Gbit/s  | 
|  p3.2xgroß  |  1  |  16 GiB  |  8  |  61 GiB  |  Bis zu 10 Gbit/s  | 
|  p3.8xgroß  |  4  |  64 GiB  |  32  |  244 GiB  |  10 Gbit/s  | 
|  p3.16xgroß  |  8  |  128 GiB  |  64  |  488 GiB  |  25 Gbit/s  | 
|  p3dn.24xgroß  |  8  |  256 GiB  |  96  |  768 GiB  |  100 Gbit/s  | 
|  p4d.24xgroß  |  8  |  320 GiB  |  96  |  1152 GiB  |  400 Gbit/s  | 
|  p4de.24xlarge  |  8  |  640 GiB  |  96  |  1152 GiB  |  400 Gbit/s  | 
|  p5.48xlarge  |  8  |  640 GiB  |  192  |  2 TiB  |  3200 Gbit/s  | 
|  p5e.48xlarge  |  8  |  1128 GiB  |  192  |  2 TiB  |  3200 Gbit/s  | 
|  p5en.48xlarge  |  8  |  1128 GiB  |  192  |  2 TiB  |  3200 Gbit/s  | 
|  p6-b200.48xlarge  |  8  |  1440 GiB  |  192  |  2 TiB  |  100 Gbit/s  | 
|  trn1.2xlarge  |  1  |  32 GiB  |  8  |  32 GiB  |  Bis zu 12,5 GBit/s  | 
|  trn1.32xlarge  |  16  |  512 GiB  |  128  |  512 GiB  |  800 Gbit/s  | 
|  trn1n.32xlarge  |  16   |  512 GiB  |  128  |  512 GiB  |  1600 Gbit/s  | 
|  trn2.48xlarge  |  16  |  1,5 TiB  |  192  |  2 TiB  |  3,2 Tbit/s  | 
|  inf1.xlarge  |  1  |  8 GiB  |  4  |  8 GiB  |  Bis zu 25 Gbit/s  | 
|  inf1.2xlarge  |  1  |  8 GiB  |  8  |  16 GiB  |  Bis zu 25 Gbit/s  | 
|  inf1.6xlarge  |  4  |  32 GiB  |  24  |  48 GiB  |  25 Gbit/s  | 
|  inf1.24xlarge  |  16  |  128 GiB  |  96  |  192 GiB  |  100 Gbit/s  | 
|  inf2.xlarge  |  1  |  32 GiB  |  4  |  16 GiB  |  Bis zu 15 GBit/s  | 
|  inf2.8xlarge  |  1  |  32 GiB  |  32  |  128 GiB  |  Bis zu 25 Gbit/s  | 
|  inf2.24xlarge  |  6  |  192 GiB  |  96  |  384 GiB  |  50 Gbit/s  | 
|  inf2.48xlarge  |  12  |  384 GiB  |  192  |  768 GiB  |  100 Gbit/s  | 
|  dl1.24xlarge  |  8  |  256 GiB  |  96  |  768 GiB  |  400 Gbit/s  | 
|  dl2q.24xlarge  |  8  |  128 GiB  |  96  |  768 GiB  |  100 Gbit/s  | 

**Anmerkung**  
Für GPU-Jobs werden AWS Batch nur Instance-Typen unterstützt, die über NVIDIA GPUs verfügen. Die [https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances](https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances)Familie wird beispielsweise nicht für die GPU-Planung unterstützt. Sie können weiterhin [https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances](https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances)on verwenden, AWS Batch indem Sie nur die vCPU- und Speicheranforderungen in der Auftragsdefinition definieren und dann direkt auf die Host-GPUs zugreifen, indem Sie [Benutzerdaten in einer Amazon EC2 EC2-Startvorlage](launch-templates.md#lt-user-data) mit einem rechneroptimierten AMI von Amazon ECS oder Amazon EKS oder einem benutzerdefinierten AMI für die Verwendung von AMD anpassen. GPUs  
Instance-Typen, die eine ARM64 Architektur verwenden, werden für GPU-Jobs für benutzerdefinierte AMIs AWS Batch oder Amazon EC2 EC2-Benutzerdaten unterstützt, auf die GPUs durch benutzerdefinierten Code und Konfigurationen zugegriffen werden kann. Zum Beispiel die [https://aws.amazon.com/ec2/instance-types/g5g/](https://aws.amazon.com/ec2/instance-types/g5g/)Instance-Familie.

Der [ResourceRequirements-Parameter](job_definition_parameters.md#ContainerProperties-resourceRequirements) für die Jobdefinition gibt die Anzahl der an den Container GPUs anzuheften an. Diese Anzahl von GPUs ist für die Dauer dieses Auftrags für keinen anderen Job verfügbar, der auf dieser Instance ausgeführt wird. Alle Instance-Typen in einer Rechenumgebung, die GPU-Jobs ausführen`p3`, müssen zu den `g6` Instance-Familien `p4` `p5` `p6``g3`,`g3s`,`g4`,`g5`,,, oder gehören. Geschieht dies nicht, kann es sein, dass ein GPU-Job im `RUNNABLE` Status hängen bleibt.

Jobs, die das nicht verwenden, GPUs können auf GPU-Instanzen ausgeführt werden. Ihre Ausführung auf GPU-Instanzen kann jedoch mehr kosten als auf ähnlichen Nicht-GPU-Instanzen. Abhängig von der spezifischen vCPU, dem Arbeitsspeicher und der benötigten Zeit können diese Nicht-GPU-Jobs die Ausführung von GPU-Jobs blockieren.

**Topics**
+ [Erstellen Sie einen GPU-basierten Kubernetes Cluster auf Amazon EKS](create-gpu-cluster-eks.md)
+ [Erstellen Sie eine Amazon EKS-GPU-Auftragsdefinition](create-eks-gpu-job-definition.md)
+ [Führen Sie einen GPU-Job in Ihrem Amazon EKS-Cluster aus](run-gpu-job-eks-cluster.md)