

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon S3 on Outposts mit lokalem Amazon EMR on Outposts
<a name="s3-outposts-emr"></a>

Amazon EMR ist eine verwaltete Cluster-Plattform, die die Ausführung von Big-Data-Frameworks wie Apache Hadoop und vereinfachtApache Spark, AWS um riesige Datenmengen zu verarbeiten und zu analysieren. Durch die Verwendung dieser Frameworks und verwandter Open-Source-Projekte können Sie Daten zu Analysezwecken und Business-Intelligence-Workloads verarbeiten. Amazon EMR unterstützt Sie auch bei der Transformation und Übertragung großer Datenmengen in und aus anderen AWS Datenspeichern und Datenbanken und unterstützt Amazon S3 on Outposts. Weitere Informationen über Amazon EMR finden Sie unter [Amazon EMR in Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html) im *Verwaltungshandbuch für Amazon EMR*. 

Für Amazon S3 on Outposts unterstützt Amazon EMR seit Version 7.0.0 den Apache Hadoop-S3A-Connector. Frühere Versionen von Amazon EMR unterstützen kein lokales S3 on Outposts und das EMR-Dateisystem (EMRFS) wird nicht unterstützt.

**Unterstützte Anwendungen**  
Amazon EMR mit Amazon S3 on Outposts unterstützt die folgenden Anwendungen: 
+ Hadoop
+ Spark
+ Hue
+ Hive
+ Sqoop
+ Pig
+ Hudi
+ Flink

Weitere Informationen finden Sie im [Handbuch zu Amazon-EMR-Versionen](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html).

## Erstellen und Konfigurieren eines Buckets von Amazon S3 on Outposts.
<a name="create-outposts-bucket"></a>

Amazon EMR verwendet AWS SDK für Java zusammen mit Amazon S3 on Outposts die, um Eingabe- und Ausgabedaten zu speichern. Ihre Amazon-EMR-Protokolldateien werden an einem von Ihnen ausgewählten regionalen Amazon-S3-Speicherort und nicht lokal im Outpost gespeichert. Weitere Informationen über [Amazon-EMR-Protokolle](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-manage-view-web-log-files.html) finden Sie im *Verwaltungshandbuch für Amazon EMR*. 

Für Buckets von S3 on Outposts gelten in Übereinstimmung mit den Amazon-S3- und DNS-Anforderungen bestimmte Einschränkungen und Bedingungen. Weitere Informationen finden Sie unter [Erstellen eines S3-on-Outposts-Buckets](S3OutpostsCreateBucket.md).

Mit Amazon EMR Version 7.0.0 und höher können Sie Amazon EMR mit S3 on Outposts und dem S3A-Dateisystem verwenden.

**Voraussetzungen**  
**Berechtigungen für S3 on Outposts** — Wenn Sie Ihr Amazon EMR-Instance-Profil erstellen, muss Ihre Rolle den AWS Identity and Access Management (IAM) -Namespace für S3 auf Outposts enthalten. S3 on Outposts hat seinen eigenen Namespace, `s3-outposts*`. Eine Beispielrichtlinie, die diesen Namespace verwendet, finden Sie unter [Einrichten von IAM mit S3 on Outposts](S3OutpostsIAM.md).

**S3A-Connector**: Wenn Sie Ihren EMR-Cluster für den Zugriff auf Daten aus einem Bucket von Amazon S3 on Outposts konfigurieren wollen, müssen Sie dazu den S3A-Connector Apache Hadoop verwenden. Um den Connector zu verwenden, stellen Sie sicher, dass alle Ihre S3 das Schema verwenden. URIs `s3a` Wenn dies nicht der Fall ist, können Sie die Dateisystemimplementierung, die Sie für Ihren EMR-Cluster verwenden, so konfigurieren, dass Ihr S3 mit dem S3A-Connector URIs funktioniert.

Um die Dateisystemimplementierung so zu konfigurieren, dass sie mit dem S3A-Connector funktioniert, verwenden Sie die `fs.file_scheme.impl` und `fs.AbstractFileSystem.file_scheme.impl` Konfigurationseigenschaften für Ihren EMR-Cluster, wobei URIs dies dem S3-Typ `file_scheme` entspricht, den Sie haben. Wenn Sie das folgende Beispiel verwenden möchten, ersetzen Sie die *`user input placeholders`* (Platzhalter für Benutzereingaben) durch Ihre eigenen Informationen. Um beispielsweise die Dateisystemimplementierung für S3 zu ändern URIs , die das `s3` Schema verwenden, geben Sie die folgenden Cluster-Konfigurationseigenschaften an:

```
1. [
2.   {
3. "Classification": "core-site",
4.     "Properties": {
5.     "fs.s3.impl": "org.apache.hadoop.fs.s3a.S3AFileSystem",
6.     "fs.AbstractFileSystem.s3.impl": "org.apache.hadoop.fs.s3a.S3A"
7.     }
8.   }
9. ]
```

Um S3A zu verwenden, legen Sie die Konfigurationseigenschaft `fs.file_scheme.impl` auf `org.apache.hadoop.fs.s3a.S3AFileSystem` und die Eigenschaft `fs.AbstractFileSystem.file_scheme.impl` auf `org.apache.hadoop.fs.s3a.S3A` fest.

Wenn Sie beispielsweise auf den Pfad `s3a://bucket/...` zugreifen, legen Sie die Eigenschaft `fs.s3a.impl` auf `org.apache.hadoop.fs.s3a.S3AFileSystem` und die Eigenschaft `fs.AbstractFileSystem.s3a.impl` auf `org.apache.hadoop.fs.s3a.S3A` fest.

## Erste Schritte mit Amazon S3 on Outposts unter Verwendung von Amazon EMR
<a name="getting-started-outposts"></a>

Die folgenden Themen veranschaulichen die ersten Schritte mit EMR mit Amazon S3 on Outposts unter Verwendung von Amazon EMR.

**Topics**
+ [Erstellen einer Berechtigungsrichtlinie](#create-permission-policy)
+ [Ihren Cluster erstellen und konfigurieren](#configure-cluster)
+ [Konfigurationsübersicht](#configurations-overview)
+ [Überlegungen](#considerations)

### Erstellen einer Berechtigungsrichtlinie
<a name="create-permission-policy"></a>

Bevor Sie einen EMR-Cluster erstellen können, der Amazon S3 on Outposts verwendet, müssen Sie eine IAM-Richtlinie erstellen, die an das Amazon-EC2-Instance-Profil für den Cluster angefügt wird. Die Richtlinie muss über die Berechtigung verfügen, auf den Amazon-Ressourcennamen (ARN) des Zugangspunkts von S3 on Outposts zuzugreifen. Weitere Informationen zum Erstellen von IAM-Richtlinien für S3 on Outposts finden Sie unter [Einrichten von IAM mit S3 on Outposts](S3OutpostsIAM.md). 

Die folgende Beispielrichtlinie zeigt, wie Sie die erforderlichen Berechtigungen gewähren. Nachdem Sie die Richtlinie erstellt haben, ordnen Sie die Richtlinie der Instance-Profilrolle zu, mit der Sie Ihren EMR-Cluster erstellen, wie im Abschnitt [Ihren Cluster erstellen und konfigurieren](#configure-cluster) beschrieben. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *`user input placeholders`* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
 1. {
 2. "Version":"2012-10-17",		 	 	  
 3.   "Statement": [
 4.         {
 5.   "Effect": "Allow",
 6.             "Resource": "arn:aws:s3-outposts:us-west-2:111122223333:outpost/op-01ac5d28a6a232904/accesspoint/access-point-name,
 7.             "Action": [
 8.                 "s3-outposts:*"
 9.             ]
10.         }
11.     ]
12.     
13.  }
```

### Ihren Cluster erstellen und konfigurieren
<a name="configure-cluster"></a>

Schließen Sie die folgenden Schritte in der Konsole ab, um einen Cluster zu erstellen, der Spark mit S3 on Outposts ausführt.

**So erstellen Sie einen Cluster, der Spark mit S3 on Outposts ausführt**

1. Öffnen Sie die Amazon-EMR-Konsole unter [https://console.aws.amazon.com/elasticmapreduce/](https://console.aws.amazon.com/elasticmapreduce/).

1. Wählen Sie im linken Navigationsbereich **Cluster** aus.

1. Wählen Sie **Cluster erstellen**.

   

1. Wählen Sie als **Amazon EMR-Version** **emr-7.0.0** oder später.

1. Wählen Sie als Anwendungspaket **Interaktives Spark**. Wählen Sie danach alle anderen unterstützten Anwendungen aus, die in Ihren Cluster integriert werden sollen.

1. Geben Sie Ihre Konfigurationseinstellungen ein, um Amazon S3 on Outposts zu aktivieren.

**Beispiel-Konfigurationseinstellungen**  
Wenn Sie die folgenden Beispiel-Konfigurationseinstellungen verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre eigenen Informationen.

   ```
    1. [
    2.  {
    3.    "Classification": "core-site",
    4.    "Properties": {
    5.      "fs.s3a.bucket.DOC-EXAMPLE-BUCKET.accesspoint.arn": "arn:aws:s3-outposts:us-west-2:111122223333:outpost/op-01ac5d28a6a232904/accesspoint/access-point-name"
    6.      "fs.s3a.committer.name": "magic", 
    7.      "fs.s3a.select.enabled": "false"
    8.     }
    9.   },
   10.   {
   11.     "Classification": "hadoop-env",
   12.     "Configurations": [
   13.       {
   14.         "Classification": "export",
   15.         "Properties": {
   16.           "JAVA_HOME": "/usr/lib/jvm/java-11-amazon-corretto.x86_64" 
   17.           }
   18.        }
   19.      ],
   20.      "Properties": {}
   21.    },
   22.    {
   23.      "Classification": "spark-env",
   24.      "Configurations": [
   25.        {
   26.          "Classification": "export",
   27.          "Properties": {
   28.            "JAVA_HOME": "/usr/lib/jvm/java-11-amazon-corretto.x86_64"
   29.          }
   30.        }
   31.       ],
   32.       "Properties": {}
   33.      },
   34.      {
   35.       "Classification": "spark-defaults",
   36.       "Properties": {
   37.         "spark.executorEnv.JAVA_HOME": "/usr/lib/jvm/java-11-amazon-corretto.x86_64",
   38.         "spark.sql.sources.fastS3PartitionDiscovery.enabled": "false"
   39.       }
   40.      }
   41.   ]
   ```

1. Wählen Sie im Bereich **Netzwerk** eine virtuelle private Cloud (VPC) und ein Subnetz aus, die sich auf Ihrem AWS Outposts Rack befinden. Weitere Informationen über Amazon EMR in Outposts finden Sie unter [EMR-Cluster auf AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html) im *Verwaltungshandbuch für Amazon EMR*.

1. Wählen Sie im Abschnitt **EC2-Instance-Profil für Amazon EMR** die IAM-Rolle, der die [zuvor erstellte Berechtigungsrichtlinie](#create-permission-policy) angehängt ist.

1. Konfigurieren Sie Ihre verbleibenden Cluster-Einstellungen und wählen Sie dann **Create cluster (Cluster erstellen)**.

### Konfigurationsübersicht
<a name="configurations-overview"></a>

Die folgende Tabelle beschreibt S3A-Konfigurationen und die Werte, die Sie für ihre Parameter festlegen sollten, wenn Sie einen Cluster einrichten, der S3 on Outposts mit Amazon EMR verwendet.


| Parameter | Standardwert | Erforderlicher Wert für S3 on Outposts | Erklärung | 
| --- | --- | --- | --- | 
|  `fs.s3a.aws.credentials.provider`  |  Wenn nicht angegeben, sucht S3A im Regions-Bucket mit dem Bucket-Namen Outposts nach S3.  |  Der Zugriffspunkt-ARN des Buckets von S3 on Outposts  |  Amazon S3 on Outposts unterstützt reine Virtual-Private-Cloud(VPC)-Zugriffspunkte als einzige Möglichkeit, auf Ihre Outposts-Buckets zuzugreifen.  | 
|  `fs.s3a.committer.name`  | file |  `magic`  |  „Magic Committer“ ist der einzige Committer, der für S3 on Outposts unterstützt wird.   | 
|  `fs.s3a.select.enabled`  |  `TRUE`  |  `FALSE`  | S3 Select wird in Outposts nicht unterstützt. | 
|  `JAVA_HOME`  |  `/usr/lib/jvm/java-8`  |  `/usr/lib/jvm/java-11-amazon-corretto.x86_64`  |  Für S3 on Outposts auf S3A ist Java-Version 11 erforderlich.  | 

Die folgende Tabelle beschreibt Spark-Konfigurationen und die Werte, die Sie für ihre Parameter festlegen sollten, wenn Sie einen Cluster einrichten, der S3 on Outposts mit Amazon EMR verwendet.


| Parameter | Standardwert | Erforderlicher Wert für S3 on Outposts | Erklärung | 
| --- | --- | --- | --- | 
|  `spark.sql.sources.fastS3PartitionDiscovery.enabled`  |  `TRUE`  |  `FALSE`  |  S3 on Outposts unterstützt keine schnelle Partition.  | 
|  `spark.executorEnv.JAVA_HOME`  |  `/usr/lib/jvm/java-8`  |  `/usr/lib/jvm/java-11-amazon-corretto.x86_64`  |  Für S3 on Outposts auf S3A ist Java-Version 11 erforderlich.  | 

### Überlegungen
<a name="considerations"></a>

Beachten Sie Folgendes, wenn Sie Amazon EMR in Buckets von S3 on Outposts integrieren:
+ Amazon S3 on Outposts unterstützt die Speicherklasse Amazon S3 on Outposts.
+ Der S3A-Connector ist erforderlich, um S3 on Outposts mit Amazon EMR zu verwenden. Nur S3A verfügt über die Features, die für Interaktionen mit Buckets von S3 on Outposts erforderlich sind. Informationen zur Einrichtung des S3A-Connectors finden Sie unter [Voraussetzungen](#s3a-outposts-prerequisites). 
+ Amazon S3 on Outposts unterstützt mit Amazon EMR nur die serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3). Weitere Informationen finden Sie unter [Datenverschlüsselung in S3 on Outposts](s3-outposts-data-encryption.md).
+ Amazon S3 on Outposts unterstützt keine Schreibvorgänge mit dem FileOutputCommitter S3A. Schreibvorgänge mit dem S3A FileOutputCommitter auf S3 auf Outposts-Buckets führen zu dem folgenden Fehler InvalidStorageClass: Die von Ihnen angegebene Speicherklasse ist nicht gültig.
+ Amazon S3 on Outposts wird mit Amazon EMR Serverless oder Amazon EMR auf EKS nicht unterstützt.
+ Amazon-EMR-Protokolle werden an einem von Ihnen ausgewählten regionalen Amazon-S3-Speicherort und nicht lokal im Bucket von S3 on Outposts gespeichert.