Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Présentation des quotas de service dans Athena pour Spark
Les quotas de service, également appelés limites, sont le nombre maximum de ressources de service ou d'opérations que vous Compte AWS pouvez utiliser. Pour plus d'informations sur les quotas de service pour les autres AWS services que vous pouvez utiliser avec Amazon Athena pour Spark, consultez la section sur les quotas de AWS service dans le. Référence générale d'Amazon Web Services
Note
Les valeurs par défaut sont les quotas initiaux définis parAWS, qui sont distincts de la valeur de quota réellement appliquée et du quota de service maximal possible. Les nouveaux Comptes AWS peuvent avoir des quotas initiaux inférieurs qui peuvent augmenter au fil du temps. Amazon Athena pour Apache Spark surveille l'utilisation des comptes au sein de chaque compteRégion AWS, puis augmente automatiquement les quotas en fonction de votre utilisation. Si vos exigences dépassent les limites indiquées, contactez le service client.
Le tableau suivant répertorie les Service Quotas pour Amazon Athena pour Apache Spark.
| Name | Par défaut | Ajustable | Version | Description |
|---|---|---|---|---|
| Simultanéité DPU Apache Spark | 160 | Non | PySpark Version 3 | Le nombre maximum d'unités de traitement de données (DPUs) que vous pouvez utiliser simultanément pour les calculs d'Apache Spark pour un seul compte en coursRégion AWS. Un DPU est une mesure relative de la puissance de traitement composée de 4 V de capacité CPUs de calcul et de 16 Go de mémoire. |
| Simultanéité DPU de session Apache Spark | 60 | Non | PySpark Version 3 | Le nombre maximum DPUs que vous pouvez consommer simultanément pour un calcul Apache Spark au cours d'une session. |
| À la demande DPUs | 4 | Non | Apache Spark version 3.5 | Nombre maximum d'unités de traitement de données (DPUs) que vous pouvez utiliser simultanément pour les sessions interactives Apache Spark en coursRégion AWS. |