

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# AWS Glue Spark und PySpark Jobs
<a name="spark_and_pyspark"></a>

AWS Glue unterstützen Sie Spark und PySpark Jobs. Ein Spark-Job wird in einer Apache Spark-Umgebung ausgeführt, die von verwaltet wird AWS Glue. Er verarbeitet Daten in Batches. Ein Streaming-ETL-Auftrag ähnelt einem Spark-Auftrag, mit der Ausnahme, dass er ETL für Datenstreams ausführt. Er verwendet das Framework Apache Spark Structured Streaming. Einige Features von Spark-Aufträgen sind für Streaming-ETL-Aufträge nicht verfügbar.

Die folgenden Abschnitte enthalten Informationen zu AWS Glue Spark und PySpark Jobs.

**Topics**
+ [Konfiguration der Auftragseigenschaften für Spark-Jobs in AWS Glue](add-job.md)
+ [Spark-Skripte in der AWS Glue-Konsole bearbeiten](edit-script-spark.md)
+ [Aufgräge (veraltet)](console-edit-script.md)
+ [Verfolgen von verarbeiteten Daten mit Auftragslesezeichen](monitor-continuations.md)
+ [Speichern von Spark-Shuffle-Daten](monitor-spark-shuffle-manager.md)
+ [Überwachung von AWS Glue-Spark-Aufträgen](monitor-spark.md)
+ [Generative KI-Fehlerbehebung für Apache Spark in AWS Glue](troubleshoot-spark.md)
+ [Materialisierte Ansichten mit AWS Glue verwenden](materialized-views.md)