

# Trabajos de Spark y PySpark de AWS Glue
<a name="spark_and_pyspark"></a>

AWS Glue admite trabajos de Spark y PySpark Un trabajo de Spark se ejecuta en un entorno Apache Spark administrado por AWS Glue. Procesa los datos en lotes. Un trabajo ETL de streaming es similar a un trabajo de Spark, excepto que realiza ETL en las transmisiones de datos. Utiliza el marco Apache Spark Structured Streaming. Algunas características de trabajo de Spark no están disponibles para los trabajos ETL de streaming.

En las siguientes secciones, se ofrece información acerca de trabajos Spark y PySpark en AWS Glue.

**Topics**
+ [Configuración de las propiedades de trabajos para trabajos de Spark en AWS Glue](add-job.md)
+ [Edición de scripts de Spark en la consola de AWS Glue](edit-script-spark.md)
+ [Trabajos (heredado)](console-edit-script.md)
+ [Seguimiento de los datos procesados mediante marcadores de trabajo](monitor-continuations.md)
+ [Almacenamiento de datos de mezclas aleatorias de Spark](monitor-spark-shuffle-manager.md)
+ [Supervisión de trabajos de Spark de AWS Glue](monitor-spark.md)
+ [Solución de problemas de IA generativa para Apache Spark en AWS Glue](troubleshoot-spark.md)
+ [Uso de vistas materializadas con AWS Glue](materialized-views.md)