

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esegui lavori GPU
<a name="gpu-jobs"></a>

I job GPU consentono di eseguire lavori che utilizzano un'istanza. GPUs

Sono supportati i seguenti tipi di istanza Amazon EC2 basati su GPU. [https://aws.amazon.com/ec2/instance-types/trn1/](https://aws.amazon.com/ec2/instance-types/trn1/) [ 2 istanze Dl1 e istanze](https://aws.amazon.com/ec2/instance-types/dl1/) [Amazon EC2](https://aws.amazon.com/ec2/instance-types/dl2q/) Dl2.


|  Tipo di istanza  |  GPUs  |  Memoria GPU  |  v CPUs  |  Memoria  |  Larghezza di banda di rete  | 
| --- | --- | --- | --- | --- | --- | 
|  g3s.xlarge  |  1  |  8 GiB  |  4  |  30,5 GiB  |  10 Gb/s  | 
|  g3.4xlarge  |  1  |  8 GiB  |  16  |  122 GiB  |  Fino a 10 Gb/s  | 
|  g3.8xlarge  |  2  |  16 GiB  |  32  |  24 GiB  |  10 Gb/s  | 
|  g3.16xlarge  |  4  |  32 GiB  |  64  |  488 GiB  |  25 Gb/s  | 
|  g4dn.xlarge  |  1  |  16 GiB  |  4  |  16 GiB  |  Fino a 25 Gb/s  | 
|  g4dn.2xlarge  |  1  |  16 GiB  |  8  |  32 GiB  |  Fino a 25 Gb/s  | 
|  g4dn.4xlarge  |  1  |  16 GiB  |  16  |  64 GiB  |  Fino a 25 Gb/s  | 
|  g4dn.8xlarge  |  1  |  16 GiB  |  32  |  128 GiB  |  50 Gb/s  | 
|  g4dn.12xlarge  |  4  |  64 GiB  |  48  |  192 GiB  |  50 Gb/s  | 
|  g4dn.16xlarge  |  1  |  16 GiB  |  64  |  256 GiB  |  50 Gb/s  | 
|  g5.xlarge  |  1  |  24 GiB  |  4  |  16 GiB  |  Fino a 10 Gb/s  | 
|  g5.2xlarge  |  1  |  24 GiB  |  8  |  32 GiB  |  Fino a 10 Gb/s  | 
|  g5.4xlarge  |  1  |  24 GiB  |  16  |  64 GiB  |  Fino a 25 Gb/s  | 
|  g5.8xlarge  |  1  |  24 GiB  |  32  |  128 GiB  |  25 Gb/s  | 
|  g5.16xlarge  |  1  |  24 GiB  |  64  |  256 GiB  |  25 Gb/s  | 
|  g5.12xlarge  |  4  |  96 GiB  |  48  |  192 GiB  |  40 Gb/s  | 
|  g5.24xlarge  |  4  |  96 GiB  |  96  |  384 GiB  |  50 Gb/s  | 
|  g5.48xlarge  |  8  |  192 GiB  |  192  |  768 GiB  |  100 Gb/s  | 
|  g5g.xlarge  |  1  |  16 GiB  |  4  |  8 GiB  |  Fino a 10 Gb/s  | 
|  g5g.2xlarge  |  1  |  16 GiB  |  8  |  16 GiB  |  Fino a 10 Gb/s  | 
|  g5g.4xlarge  |  1  |  16 GiB  |  16  |  32 GiB  |  Fino a 10 Gb/s  | 
|  g5g.8xlarge  |  1  |  16 GiB  |  32  |  64 GiB  |  12 GBps  | 
|  g5g.16xlarge  |  2  |  32 GiB  |  64  |  128 GiB  |  25 Gb/s  | 
|  g5g.metal  |  2  |  32 GiB  |  64  |  128 GiB  |  25 Gb/s  | 
|  g6.xlarge  |  1  |  24 GiB  |  4  |  16 GiB  |  Fino a 10 Gb/s  | 
|  g6.2xlarge  |  1  |  24 GiB  |  8  |  32 GiB  |  Fino a 10 Gb/s  | 
|  g6.4xlarge  |  1  |  24 GiB  |  16  |  64 GiB  |  Fino a 25 Gb/s  | 
|  g6.8xlarge  |  1  |  24 GiB  |  32  |  128 GiB  |  25 Gb/s  | 
|  g6.16xlarge  |  1  |  24 GiB  |  64  |  256 GiB  |  25 Gb/s  | 
|  g6.12xlarge  |  4  |  96 GiB  |  48  |  192 GiB  |  40 Gb/s  | 
|  g6.24xlarge  |  4  |  96 GiB  |  96  |  384 GiB  |  50 Gb/s  | 
|  g6.48xlarge  |  8  |  192 GiB  |  192  |  768 GiB  |  100 Gb/s  | 
|  g6e.xlarge  |  1  |  48 GiB  |  4  |  32 GiB  |  Fino a 20 Gbps  | 
|  g6e.2xlarge  |  1  |  48 GiB  |  8  |  64 GiB  |  Fino a 20 Gbps  | 
|  g6e.4xlarge  |  1  |  48 GiB  |  16  |  128 GiB  |  20 Gb/s  | 
|  g6e.8xlarge  |  1  |  48 GiB  |  32  |  256 GiB  |  25 Gb/s  | 
|  g6e.16xlarge  |  1  |  48 GiB  |  64  |  512 GiB  |  35 Gbps  | 
|  g6e.12xlarge  |  4  |  192 GiB  |  48  |  384 GiB  |  100 Gb/s  | 
|  g6e.24xlarge  |  4  |  192 GiB  |  96  |  768 GiB  |  200 Gb/s  | 
|  g6e.48xlarge  |  8  |  384 GiB  |  192  |  1536 GiB  |  400 Gb/s  | 
|  gr6.4xlarge  |  1  |  24 GiB  |  16  |  128 GiB  |  Fino a 25 Gb/s  | 
|  gr6.8xlarge  |  1  |  24 GiB  |  32  |  256 GiB  |  25 Gb/s  | 
|  p2.xlarge  |  1  |  12 GiB  |  4  |  61 GiB  |  Elevata  | 
|  p2.8xlarge  |  8  |  96 GiB  |  32  |  488 GiB  |  10 Gb/s  | 
|  p2.16xlarge  |  16  |  192 GiB  |  64  |  732 GiB  |  20 Gb/s  | 
|  p3.2xlarge  |  1  |  16 GiB  |  8  |  61 GiB  |  Fino a 10 Gb/s  | 
|  p3.8xlarge  |  4  |  64 GiB  |  32  |  24 GiB  |  10 Gb/s  | 
|  p3.16xlarge  |  8  |  128 GiB  |  64  |  488 GiB  |  25 Gb/s  | 
|  p3dn.24xlarge  |  8  |  256 GiB  |  96  |  768 GiB  |  100 Gb/s  | 
|  p4d.24xlarge  |  8  |  320 GiB  |  96  |  1152 GiB  |  400 Gb/s  | 
|  p4de.24xlarge  |  8  |  640 GiB  |  96  |  1152 GiB  |  400 Gb/s  | 
|  p5.48xlarge  |  8  |  640 GiB  |  192  |  2 TiB  |  3200 Gbps  | 
|  p5e.48xlarge  |  8  |  128 GiB  |  192  |  2 TiB  |  3200 Gbps  | 
|  p5en.48xlarge  |  8  |  128 GiB  |  192  |  2 TiB  |  3200 Gbps  | 
|  p6-b200.48xlarge  |  8  |  1440 GiB  |  192  |  2 TiB  |  100 Gb/s  | 
|  trn1.2xlarge  |  1  |  32 GiB  |  8  |  32 GiB  |  Fino a 12,5 Gb/s  | 
|  trn1.32xlarge  |  16  |  512 GiB  |  128  |  512 GiB  |  800 Gbps  | 
|  trn1n.32xlarge  |  16   |  512 GiB  |  128  |  512 GiB  |  1600 Gbps  | 
|  trn2.48xlarge  |  16  |  1,5 TiB  |  192  |  2 TiB  |  3,2 Tbps  | 
|  inf1.xlarge  |  1  |  8 GiB  |  4  |  8 GiB  |  Fino a 25 Gb/s  | 
|  inf1.2xlarge  |  1  |  8 GiB  |  8  |  16 GiB  |  Fino a 25 Gb/s  | 
|  inf1.6xlarge  |  4  |  32 GiB  |  24  |  48 GiB  |  25 Gb/s  | 
|  inf1.24xlarge  |  16  |  128 GiB  |  96  |  192 GiB  |  100 Gb/s  | 
|  inf2.xlarge  |  1  |  32 GiB  |  4  |  16 GiB  |  Fino a 15 Gb/s  | 
|  inf2.8xlarge  |  1  |  32 GiB  |  32  |  128 GiB  |  Fino a 25 Gb/s  | 
|  inf2.24xlarge  |  6  |  192 GiB  |  96  |  384 GiB  |  50 Gb/s  | 
|  inf2.48xlarge  |  12  |  384 GiB  |  192  |  768 GiB  |  100 Gb/s  | 
|  dl1.24xlarge  |  8  |  256 GiB  |  96  |  768 GiB  |  400 Gb/s  | 
|  dl2q.24xlarge  |  8  |  128 GiB  |  96  |  768 GiB  |  100 Gb/s  | 

**Nota**  
Per i lavori con GPU supporta AWS Batch solo i tipi di istanze con NVIDIA. GPUs Ad esempio, la [https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances](https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances)famiglia non è supportata per la pianificazione tramite GPU. Puoi comunque utilizzare [https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances](https://aws.amazon.com/ec2/instance-types/g4/#Amazon_EC2_G4ad_instances)on AWS Batch definendo solo i requisiti di vcpu e memoria nella definizione del processo, quindi accedendo direttamente alle GPU host tramite la personalizzazione in un [modello di lancio di Amazon EC2, i dati utente con](launch-templates.md#lt-user-data) un'AMI ottimizzata per il calcolo Amazon ECS o Amazon EKS o un'AMI personalizzata per l'utilizzo di AMD. GPUs  
I tipi di istanza che utilizzano un' ARM64 architettura sono supportati per i lavori GPU su dati AMIs forniti su misura AWS Batch o dati utente di Amazon EC2 a cui accedere GPUs tramite codice e configurazioni personalizzati. Ad esempio, la famiglia di istanze [https://aws.amazon.com/ec2/instance-types/g5g/](https://aws.amazon.com/ec2/instance-types/g5g/).

Il parametro [ResourceRequirements](job_definition_parameters.md#ContainerProperties-resourceRequirements) per la definizione del processo specifica il numero di GPUs da aggiungere al contenitore. Questo numero di non GPUs è disponibile per nessun altro processo eseguito su quell'istanza per la durata del processo. Tutti i tipi di istanze in un ambiente di calcolo che esegue processi GPU devono appartenere alle `p3` famiglie di `g6` istanze `p4` `p5``p6`,`g3`,`g3s`,`g4`,,`g5`, o. Se ciò non viene fatto, un job GPU potrebbe rimanere bloccato nello stato. `RUNNABLE`

I lavori che non utilizzano il GPUs possono essere eseguiti su istanze GPU. Tuttavia, l'esecuzione su istanze GPU potrebbe costare di più rispetto a istanze simili non GPU. A seconda della vCPU, della memoria e del tempo specifici necessari, questi job non GPU potrebbero bloccare l'esecuzione dei job GPU.

**Topics**
+ [Crea un Kubernetes cluster basato su GPU su Amazon EKS](create-gpu-cluster-eks.md)
+ [Crea una definizione di processo GPU Amazon EKS](create-eks-gpu-job-definition.md)
+ [Esegui un job GPU nel tuo cluster Amazon EKS](run-gpu-job-eks-cluster.md)