

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Versions 6.9.0 d'Amazon EMR on EKS
<a name="emr-eks-6.9.0"></a>

Les versions 6.9.0 suivantes d'Amazon EMR sont disponibles pour Amazon EMR on EKS. Sélectionnez une version **emr-6.9.0-XXXX** spécifique pour voir plus de détails tels que la balise de l'image du conteneur correspondant.
+ [emr-6.9.0-latest](emr-eks-6.9.0-latest.md)
+  [emr-6.9.0-20230905](emr-eks-6.9.0-20230905.md) 
+ [emr-6.9.0-20230624](emr-eks-6.9.0-20230624.md)
+ [emr-6.9.0-20221108](emr-eks-6.9.0-20221108.md)
+ emr-6.9.0- spark-rapids-latest
+ emr-6.9.0-spark-rapids-20230624
+ emr-6.9.0-spark-rapids-20221108
+ notebook-spark/emr-6.9.0-latest
+ notebook-spark/emr-6.9.0-20230624
+ notebook-spark/emr-6.9.0-20221108
+ notebook-python/emr-6.9.0-latest
+ notebook-python/emr-6.9.0-20230624
+ notebook-python/emr-6.9.0-20221108

**Notes de mise à jour pour Amazon EMR 6.9.0**
+ Applications prises en charge ‐ AWS SDK pour Java 1.12.331, Spark 3.3.0-amzn-1, Hudi 0.12.1-amzn-0, Iceberg 0.14.1-amzn-0, Delta 2.1.0.
+ Composants pris en charge : `aws-sagemaker-spark-sdk`, `emr-ddb`, `emr-goodies`, `emr-s3-select`, `emrfs`, `hadoop-client`, `hudi`, `hudi-spark`, `iceberg`, `spark-kubernetes`.
+ Classifications de configuration prises en charge :

  À utiliser avec [StartJobRun](https://docs.aws.amazon.com/emr-on-eks/latest/APIReference/API_StartJobRun.html)et [ CreateManagedEndpoint](https://docs.aws.amazon.com/emr-on-eks/latest/APIReference/API_CreateManagedEndpoint.html) APIs:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks-6.9.0.html)

  À utiliser spécifiquement avec [ CreateManagedEndpoint](https://docs.aws.amazon.com/emr-on-eks/latest/APIReference/API_CreateManagedEndpoint.html) APIs:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks-6.9.0.html)

  Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `spark-hive-site.xml`. Pour plus d'informations, consultez la rubrique [Configuration des applications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html).

**Fonctionnalités notables**
+ **Accélérateur Nvidia RAPIDS pour Apache Spark** – Amazon EMR on EKS permet d'accélérer Spark à l'aide de types d'instances EC2 à unité de traitement graphique (GPU). Pour utiliser l'image Spark avec RAPIDS Accelerator, spécifiez l'étiquette de version emr-6.9.0-. spark-rapids-latest Consultez la [page de documentation](tutorial-spark-rapids.md) pour en savoir plus.
+ **Connecteur Spark-Redshift** – L'intégration d'Amazon Redshift à Apache Spark est incluse dans les versions 6.9.0 et ultérieures d'Amazon EMR. Auparavant un outil open-source, l'intégration native est un connecteur Spark que vous pouvez utiliser pour créer des applications Apache Spark capables de lire et d'écrire des données sur Amazon Redshift et Amazon Redshift sans serveur. Pour de plus amples informations, veuillez consulter [Utilisation de l'intégration Amazon Redshift pour Apache Spark sur Amazon EMR on EKS](emr-spark-redshift.md).
+ **Delta Lake** – [Delta Lake](https://delta.io/) est un format de stockage open-source qui permet de créer des lacs de données avec une cohérence transactionnelle, une définition cohérente des jeux de données, des changements dans l'évolution des schémas et la prise en charge des mutations de données. Consultez [Utilisation de Delta Lake](tutorial-delta-lake.md) pour en savoir plus.
+ **Modifier PySpark les paramètres ‐ Les** points de terminaison interactifs prennent désormais en charge la modification des paramètres Spark associés aux PySpark sessions dans le bloc-notes Jupyter d'EMR Studio. Consultez [Modifier les paramètres de PySpark session](modify-pyspark-parameters.md) pour en savoir plus.

**Problèmes résolus**
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. La version 6.9.0 d'Amazon EMR résout ce problème.
+ [Amazon EMR on EKS 6.8.0 ne remplit pas correctement le hachage de création dans les métadonnées des fichiers Parquet générées à l'aide d'Apache Spark.](https://aws.amazon.com//emr/features/spark) Ce problème peut entraîner l'échec des outils qui analysent la chaîne de version des métadonnées à partir des fichiers Parquet générés par Amazon EMR on EKS 6.8.0. 

**Problème connu**
+ Si vous utilisez l'intégration Amazon Redshift pour Apache Spark et que vous disposez d'une heure, d'un timestamp, d'un timestamp ou d'un timestamptz au format Parquet avec une précision de la microseconde, le connecteur arrondit les valeurs temporelles à la milliseconde la plus proche. Pour contourner le problème, utilisez le paramètre `unload_s3_format` de format de déchargement du texte.