

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Création d'un lac de données à partir d'une source JDBC dans Lake Formation
<a name="getting-started-tutorial-jdbc"></a>

Ce didacticiel vous explique les étapes à suivre sur la AWS Lake Formation console pour créer et charger votre premier lac de données à partir d'une source JDBC à l'aide de Lake Formation. 

**Topics**
+ [Public visé](#tut-personas)
+ [Prérequis pour le didacticiel JDBC](#tut-prereqs)
+ [Étape 1 : créer un utilisateur d'analyste de données](#tut-create-lf-user)
+ [Étape 2 : créer une connexion dans AWS Glue](#tut-connection)
+ [Étape 3 : créer un compartiment Amazon S3 pour le lac de données](#tut-create-bucket)
+ [Étape 4 : enregistrer un chemin Amazon S3](#tut-register)
+ [Étape 5 : accorder des autorisations de localisation des données](#tut-data-location)
+ [Étape 6 : Création d'une base de données dans le catalogue de données](#tut-create-db)
+ [Étape 7 : Accorder des autorisations de données](#tut-grant-data-permissions)
+ [Étape 8 : Utiliser un plan pour créer un flux de travail](#tut-create-workflow)
+ [Étape 9 : Exécuter le flux de travail](#tut-run-workflow)
+ [Étape 10 : Autorisez SELECT sur les tables](#tut-grant-select)
+ [Étape 11 : Interrogez le lac de données à l'aide de Amazon Athena](#tut-query-athena)
+ [Étape 12 : interroger les données du lac de données à l'aide d'Amazon Redshift Spectrum](#tut-query-redshift)
+ [Étape 13 : Accorder ou révoquer les autorisations de Lake Formation à l'aide d'Amazon Redshift Spectrum](#getting-started-tutorial-grant-revoke-redshift)

## Public visé
<a name="tut-personas"></a>

Le tableau suivant répertorie les rôles utilisés dans ce didacticiel [AWS Lake Formation JDBC.](#getting-started-tutorial-jdbc)


| Role | Description | 
| --- | --- | 
| Administrateur IAM | Utilisateur capable de créer des utilisateurs et des rôles Gestion des identités et des accès AWS (IAM) ainsi que des buckets Amazon Simple Storage Service (Amazon S3). Possède la politique AdministratorAccess AWS gérée. | 
| Administrateur du lac de données | Un utilisateur qui peut accéder au catalogue de données, créer des bases de données et accorder des autorisations Lake Formation à d'autres utilisateurs. Dispose de moins d'autorisations IAM que l'administrateur IAM, mais suffisamment pour administrer le lac de données. | 
| Analyste des données | Un utilisateur qui peut exécuter des requêtes sur le lac de données. Dispose uniquement de suffisamment d'autorisations pour exécuter des requêtes. | 
| Rôle du flux de travail | Rôle doté des politiques IAM requises pour exécuter un flux de travail. | 

Pour plus d'informations sur les conditions requises pour suivre le didacticiel, consultez[Prérequis pour le didacticiel JDBC](#tut-prereqs).

## Prérequis pour le didacticiel JDBC
<a name="tut-prereqs"></a>

Avant de commencer le [didacticiel AWS Lake Formation JDBC](#getting-started-tutorial-jdbc), assurez-vous d'avoir effectué les opérations suivantes :
+ Effectuez les tâches définies dans [Débuter avec Lake Formation](getting-started-setup.md).
+ Choisissez un magasin de données accessible en JDBC que vous souhaitez utiliser pour le didacticiel.
+ Rassemblez les informations nécessaires pour créer une AWS Glue connexion de type JDBC. Cet objet de catalogue de données inclut l'URL du magasin de données, les informations de connexion et, si le magasin de données a été créé dans un Amazon Virtual Private Cloud (Amazon VPC), des informations de configuration supplémentaires spécifiques au VPC. Pour plus d'informations, consultez la section [Définition des connexions dans le catalogue de AWS Glue données](https://docs.aws.amazon.com/glue/latest/dg/populate-add-connection.html) du *guide du AWS Glue développeur*.

Le didacticiel part du principe que vous connaissez Gestion des identités et des accès AWS (IAM). Pour plus d'informations sur IAM, consultez le guide de l'[utilisateur IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html).

Pour commencer, passez à[Étape 1 : créer un utilisateur d'analyste de données](#tut-create-lf-user).

## Étape 1 : créer un utilisateur d'analyste de données
<a name="tut-create-lf-user"></a>

Au cours de cette étape, vous créez un utilisateur Gestion des identités et des accès AWS (IAM) qui sera l'analyste de données de votre lac de données dans AWS Lake Formation.

Cet utilisateur dispose du minimum d'autorisations pour interroger le lac de données.

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam](https://console.aws.amazon.com/iam). Connectez-vous en tant qu'utilisateur administrateur que vous avez créé [Création d’un utilisateur doté d’un accès administratif](getting-started-setup.md#create-an-admin) ou en tant qu'utilisateur avec la politique `AdministratorAccess` AWS gérée.

1. Créez un utilisateur nommé `datalake_user` avec les paramètres suivants :
   + Activez AWS Management Console l'accès.
   + Définissez un mot de passe et n'exigez pas de réinitialisation du mot de passe.
   + Joignez la politique `AmazonAthenaFullAccess` AWS gérée.
   + Joignez la politique intégrée suivante. Nommez la stratégie `DatalakeUserBasic`.

     ```
     {
         "Version": "2012-10-17",		 	 	 
         "Statement": [
             {
                 "Effect": "Allow",
                 "Action": [
                     "lakeformation:GetDataAccess",
                     "glue:GetTable",
                     "glue:GetTables",
                     "glue:SearchTables",
                     "glue:GetDatabase",
                     "glue:GetDatabases",
                     "glue:GetPartitions",
                     "lakeformation:GetResourceLFTags",
                     "lakeformation:ListLFTags",
                     "lakeformation:GetLFTag",
                     "lakeformation:SearchTablesByLFTags",
                     "lakeformation:SearchDatabasesByLFTags"                
                ],
                 "Resource": "*"
             }
         ]
     }
     ```

## Étape 2 : créer une connexion dans AWS Glue
<a name="tut-connection"></a>

**Note**  
Ignorez cette étape si vous êtes déjà AWS Glue connecté à votre source de données JDBC.

AWS Lake Formation *accède aux sources de données JDBC via une connexion. AWS Glue* Une connexion est un objet du catalogue de données qui contient toutes les informations requises pour se connecter à la source de données. Vous pouvez créer une connexion à l'aide de la AWS Glue console.

**Pour créer une connexion**

1. Ouvrez AWS Glue la console à [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/) l'adresse et connectez-vous en tant qu'utilisateur administrateur dans lequel vous l'avez créée[Création d’un utilisateur doté d’un accès administratif](getting-started-setup.md#create-an-admin).

1. Dans le volet de navigation, sous **Data catalog (Catalogue de données)**, choisissez **Connections (Connexions)**.

1. Sur la page **Connecteurs**, choisissez **Créer une connexion**.

1. Sur la page **Choisir une source de données**, choisissez **JDBC** comme type de connexion. Ensuite, sélectionnez **Suivant**.

1. Continuez à utiliser l'assistant de connexion et enregistrez la connexion.

   Pour plus d'informations sur la création d'une connexion, consultez les [propriétés de connexion AWS Glue JDBC](https://docs.aws.amazon.com/glue/latest/dg/connection-properties.html#connection-properties-jdbc) dans le manuel du *AWS Glue développeur*.

## Étape 3 : créer un compartiment Amazon S3 pour le lac de données
<a name="tut-create-bucket"></a>

Au cours de cette étape, vous créez le bucket Amazon Simple Storage Service (Amazon S3) qui doit être l'emplacement racine de votre lac de données.

1. Ouvrez la console Amazon S3 à [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)et connectez-vous en tant qu'utilisateur administrateur dans lequel vous l'avez créée[Création d’un utilisateur doté d’un accès administratif](getting-started-setup.md#create-an-admin).

1. Choisissez **Create bucket**, puis passez par l'assistant pour créer un bucket nommé`<yourName>-datalake-tutorial`, où *<yourName>* sont votre prénom et votre nom de famille. Par exemple : `jdoe-datalake-tutorial`.

   Pour obtenir des instructions détaillées sur la création d'un compartiment Amazon S3, consultez [Comment créer un compartiment S3 ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*.

## Étape 4 : enregistrer un chemin Amazon S3
<a name="tut-register"></a>

Au cours de cette étape, vous devez enregistrer un chemin Amazon Simple Storage Service (Amazon S3) comme emplacement racine de votre lac de données.

1. Ouvrez la console Lake Formation à l'adresse [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/). Connectez-vous en tant qu'administrateur du lac de données.

1. Dans le volet de navigation, sous **Administration**, sélectionnez **Data lake locations**.

1. Choisissez **Enregistrer l'emplacement**, puis choisissez **Parcourir**. 

1. Sélectionnez le `<yourName>-datalake-tutorial` bucket que vous avez créé précédemment, acceptez le rôle IAM par défaut`AWSServiceRoleForLakeFormationDataAccess`, puis choisissez **Enregistrer l'emplacement**.

   Pour plus d'informations sur l'enregistrement des points de vente, consultez[Ajouter un emplacement Amazon S3 à votre lac de données](register-data-lake.md).

## Étape 5 : accorder des autorisations de localisation des données
<a name="tut-data-location"></a>

Les principaux doivent disposer d'*autorisations de localisation des données* sur l'emplacement d'un lac de données pour créer des tables de catalogue de données ou des bases de données pointant vers cet emplacement. Vous devez accorder des autorisations de localisation des données au rôle IAM pour les flux de travail afin que le flux de travail puisse écrire sur la destination d'ingestion des données.

1. Sur la console Lake Formation, dans le volet de navigation, sous **Autorisations**, sélectionnez **Data locations**.

1. Choisissez **Grant**, puis dans la boîte de dialogue **Accorder des autorisations**, procédez comme suit :

   1. Pour l'**utilisateur et les rôles IAM**, sélectionnez`LakeFormationWorkflowRole`.

   1. Pour les **emplacements de stockage**, choisissez votre `<yourName>-datalake-tutorial` compartiment.

1. Choisissez **Accorder**.

Pour plus d'informations sur les autorisations de localisation des données, consultez[Underlying data access control](access-control-underlying-data.md#data-location-permissions).

## Étape 6 : Création d'une base de données dans le catalogue de données
<a name="tut-create-db"></a>

Les tables de métadonnées du Lake Formation Data Catalog sont stockées dans une base de données.

1. Sur la console Lake Formation, dans le volet de navigation, sous **Catalogue de données**, sélectionnez **Databases**.

1. Choisissez **Créer une base de données**, puis entrez le nom sous **Détails de la base** de données`lakeformation_tutorial`.

1. Laissez les autres champs vides, puis choisissez **Créer une base de données**.

## Étape 7 : Accorder des autorisations de données
<a name="tut-grant-data-permissions"></a>

Vous devez accorder des autorisations pour créer des tables de métadonnées dans le catalogue de données. Étant donné que le flux de travail s'exécute avec le rôle`LakeFormationWorkflowRole`, vous devez accorder ces autorisations au rôle.

1. Sur la console Lake Formation, dans le volet de navigation, sous **Autorisations**, sélectionnez **Autorisations du lac de données**.

1. Choisissez **Grant**, puis dans la boîte de dialogue **Accorder les autorisations relatives aux données**, procédez comme suit :

   1. Sous **Principaux**, pour **Utilisateur et rôles IAM, sélectionnez**. `LakeFormationWorkflowRole`

   1. Sous **Balises LF ou ressources de catalogue, choisissez Ressources** de **catalogue de données nommées**.

   1. Pour **Bases de données**, choisissez la base de données que vous avez créée précédemment,`lakeformation_tutorial`.

   1. Sous **Autorisations de base** de données, sélectionnez **Créer une table**, **Modifier** **et Supprimer**, puis désélectionnez **Super** si cette option est sélectionnée.

1. Choisissez **Accorder**.

Pour plus d'informations sur l'octroi des autorisations de Lake Formation, consultez[Vue d'ensemble des autorisations relatives à Lake Formation](lf-permissions-overview.md).

## Étape 8 : Utiliser un plan pour créer un flux de travail
<a name="tut-create-workflow"></a>

Le AWS Lake Formation flux de travail génère les AWS Glue tâches, les robots d'exploration et les déclencheurs qui découvrent et ingèrent les données dans votre lac de données. Vous créez un flux de travail basé sur l'un des plans prédéfinis de Lake Formation.

1. Sur la console Lake Formation, dans le volet de navigation, choisissez **Blueprints**, puis **Use blueprint**.

1. Sur la page **Utiliser un plan**, sous **Type de plan**, choisissez Instantané de **base de données**.

1. Sous **Importer la source**, pour **Connexion à la base** de données, choisissez la connexion que vous venez de créer ou choisissez une connexion existante pour votre source de données. `datalake-tutorial`

1. Dans le **champ Chemin des données source**, entrez le chemin à partir duquel les données doivent être ingérées dans le formulaire`<database>/<schema>/<table>`.

   Vous pouvez remplacer le caractère générique pour le pourcentage (%) par le schéma ou le tableau. Pour les bases de données qui prennent en charge les schémas, entrez*<database>*/*<schema>*/% pour qu'il corresponde à toutes les tables qu'elles contiennent. *<schema>* *<database>* Oracle Database et MySQL ne prennent pas en charge le schéma dans le chemin ; entrez plutôt *<database>* /%. Pour Oracle Database, *<database>* c'est l'identifiant du système (SID).

   Par exemple, si une base de données Oracle a `orcl` `orcl/%` pour SID, entrez toutes les tables auxquelles l'utilisateur indiqué dans la connexion JDCB a accès.
**Important**  
Ce champ est sensible à la casse.

1. Sous **Cible d'importation**, spécifiez les paramètres suivants :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/lake-formation/latest/dg/getting-started-tutorial-jdbc.html)

1. Pour la fréquence d'importation, choisissez **Exécuter à la demande**.

1. Sous **Options d'importation**, spécifiez les paramètres suivants :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/lake-formation/latest/dg/getting-started-tutorial-jdbc.html)

1. Choisissez **Créer** et attendez que la console indique que le flux de travail a été créé avec succès.
**Astuce**  
Avez-vous reçu le message d'erreur suivant ?  
`User: arn:aws:iam::<account-id>:user/<datalake_administrator_user> is not authorized to perform: iam:PassRole on resource:arn:aws:iam::<account-id>:role/LakeFormationWorkflowRole...`  
Si tel est le cas, vérifiez que vous avez remplacé *<account-id>* dans la politique en ligne l'utilisateur administrateur du lac de données par un numéro de AWS compte valide.

## Étape 9 : Exécuter le flux de travail
<a name="tut-run-workflow"></a>

Comme vous avez indiqué que le flux de travail est run-on-demand, vous devez le démarrer manuellement dans AWS Lake Formation.

1. Sur la console Lake Formation, sur la page **Blueprints**, sélectionnez le flux de travail`lakeformationjdbctest`.

1. Choisissez **Actions**, puis sélectionnez **Démarrer**.

1. Au fur et à mesure que le flux de travail s'exécute, consultez sa progression dans la colonne **État de la dernière exécution**. Cliquez sur le bouton d'actualisation de temps en temps.

   Le statut passe de « **EN COURS** » à « **Découverte** », puis « **Importation** », puis « **TERMINÉ** ». 

   Lorsque le flux de travail est terminé :
   + Le catalogue de données contient de nouvelles tables de métadonnées.
   + Vos données sont ingérées dans le lac de données.

   Si le flux de travail échoue, procédez comme suit :

   1. Sélectionnez un flux de travail. Choisissez **Actions**, puis **Afficher le graphique**.

      Le flux de travail s'ouvre dans la AWS Glue console.

   1. Sélectionnez le flux de travail et cliquez sur l'onglet **Historique**.

   1. Sélectionnez l'exécution la plus récente et choisissez **Afficher les détails de la course**.

   1. Sélectionnez une tâche ou un robot d'exploration ayant échoué dans le graphique dynamique (d'exécution) et consultez le message d'erreur. Les nœuds défaillants sont rouges ou jaunes.

## Étape 10 : Autorisez SELECT sur les tables
<a name="tut-grant-select"></a>

Vous devez accorder l'`SELECT`autorisation sur les nouvelles tables du catalogue de données AWS Lake Formation afin que l'analyste de données puisse interroger les données vers lesquelles pointent les tables.

**Note**  
Un flux de travail accorde automatiquement l'`SELECT`autorisation sur les tables qu'il crée à l'utilisateur qui l'a exécuté. Étant donné que l'administrateur du lac de données a exécuté ce flux de travail, vous devez accorder une autorisation `SELECT` à l'analyste de données.

1. Sur la console Lake Formation, dans le volet de navigation, sous **Autorisations**, sélectionnez **Autorisations du lac de données**.

1. Choisissez **Grant**, puis dans la boîte de dialogue **Accorder les autorisations relatives aux données**, procédez comme suit :

   1. Sous **Principaux**, pour **Utilisateur et rôles IAM, sélectionnez**. `datalake_user`

   1. Sous **Balises LF ou ressources de catalogue, choisissez Ressources** de **catalogue de données nommées**.

   1. Pour **Bases de données**, sélectionnez`lakeformation_tutorial`.

      La liste **des tables** s'affiche.

   1. Pour **Tables**, choisissez une ou plusieurs tables dans votre source de données.

   1. Sous **Autorisations relatives aux tables et aux colonnes**, choisissez **Sélectionner**.

1. Choisissez **Accorder**.

**L'étape suivante est exécutée en tant qu'analyste de données.** 

## Étape 11 : Interrogez le lac de données à l'aide de Amazon Athena
<a name="tut-query-athena"></a>

Utilisez la Amazon Athena console pour interroger les données de votre lac de données.

1. Ouvrez la console Athena sur [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home), et connectez-vous en tant qu'analyste de données, utilisateur. `datalake_user`

1. Si nécessaire, choisissez **Get Started pour passer** à l'éditeur de requêtes Athena.

1. Pour **Data source (Source de données)**, choisissez **AwsDataCatalog**.

1. Pour **Database (Base de données)**, sélectionnez `lakeformation_tutorial`.

   La liste **des tables** s'affiche.

1. Dans le menu contextuel situé à côté de l'un des tableaux, choisissez **Aperçu du tableau**.

   La requête s'exécute et affiche 10 lignes de données.

## Étape 12 : interroger les données du lac de données à l'aide d'Amazon Redshift Spectrum
<a name="tut-query-redshift"></a>

Vous pouvez configurer Amazon Redshift Spectrum pour interroger les données que vous avez importées dans votre lac de données Amazon Simple Storage Service (Amazon S3). Créez d'abord un rôle Gestion des identités et des accès AWS (IAM) utilisé pour lancer le cluster Amazon Redshift et pour interroger les données Amazon S3. Accordez ensuite à ce rôle les `Select` autorisations sur les tables que vous souhaitez interroger. Accordez ensuite à l'utilisateur l'autorisation d'utiliser l'éditeur de requêtes Amazon Redshift. Enfin, créez un cluster Amazon Redshift et exécutez des requêtes.

Vous créez le cluster en tant qu'administrateur et vous l'interrogez en tant qu'analyste de données.

Pour plus d'informations sur Amazon Redshift Spectrum, [consultez la section Utilisation d'Amazon Redshift Spectrum pour interroger](https://docs.aws.amazon.com/redshift/latest/dg/c-using-spectrum.html) des données externes dans le manuel *Amazon Redshift* Database Developer Guide.

**Pour configurer les autorisations permettant d'exécuter des requêtes Amazon Redshift**

1. Ouvrez la console IAM à l’adresse [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/). Connectez-vous en tant qu'utilisateur administrateur que vous avez créé [Création d’un utilisateur doté d’un accès administratif](getting-started-setup.md#create-an-admin) (nom d'utilisateur`Administrator`) ou en tant qu'utilisateur doté de la politique `AdministratorAccess` AWS gérée.

1. Dans le panneau de navigation, choisissez **Politiques**.

   Si vous sélectionnez **Politiques** pour la première fois, la page **Bienvenue dans les politiques gérées** s’affiche. Sélectionnez **Get started (Mise en route)**.

1. Choisissez **Create Policy** (Créer une politique). 

1. Choisissez l'onglet **JSON**.

1. Collez le document de politique JSON suivant.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Effect": "Allow",
               "Action": [
                   "lakeformation:GetDataAccess",
                   "glue:GetTable",
                   "glue:GetTables",
                   "glue:SearchTables",
                   "glue:GetDatabase",
                   "glue:GetDatabases",
                   "glue:GetPartitions",
                   "lakeformation:GetResourceLFTags",
                   "lakeformation:ListLFTags",
                   "lakeformation:GetLFTag",
                   "lakeformation:SearchTablesByLFTags",
                   "lakeformation:SearchDatabasesByLFTags"                
              ],
               "Resource": "*"
           }
       ]
   }
   ```

1. Lorsque vous avez terminé, choisissez **Review** (Vérifier) pour vérifier la politique. Le programme de validation des politiques signale les éventuelles erreurs de syntaxe.

1. Sur la page **Réviser la politique**, entrez le **nom** **RedshiftLakeFormationPolicy** de la politique que vous créez. (Facultatif) Entrez une **description**. Vérifiez le **récapitulatif** de politique pour voir les autorisations accordées par votre politique. Sélectionnez ensuite **Créer une politique** pour enregistrer votre travail. 

1. Dans le volet de navigation de la console IAM, sélectionnez **Roles** (Rôles), puis **Create role** (Créer un rôle).

1. Pour **Sélectionner une entité de confiance**, choisissez **Service AWS **.

1. Choisissez le service Amazon Redshift pour assumer ce rôle.

1. Choisissez le cas d'utilisation **Redshift Customizable (Redshift personnalisable)** pour votre service. Choisissez ensuite **Suivant : Autorisations**.

1. Recherchez la politique d'autorisation que vous avez créée et cochez la case à côté du nom de la politique dans la liste. `RedshiftLakeFormationPolicy`

1. Choisissez **Suivant : Balises**.

1. Choisissez **Suivant : Vérification**. 

1. Pour **Role name (Nom du rôle)**, entrez le nom **RedshiftLakeFormationRole**. 

1. (Facultatif) Dans le champ **Description du rôle**, saisissez la description du nouveau rôle.

1. Passez en revue les informations du rôle, puis choisissez **Create role** (Créer un rôle).

**Pour accorder `Select` des autorisations sur la table à interroger dans la base de données Lake Formation**

1. Ouvrez la console Lake Formation à l'adresse [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/). Connectez-vous en tant qu'administrateur du lac de données.

1. Dans le volet de navigation, sous **Autorisations**, sélectionnez **Autorisations du lac de données**, puis choisissez **Grant**.

1. Saisissez les informations suivantes :
   + Pour les **utilisateurs et les rôles IAM**, choisissez le rôle IAM que vous avez créé,. `RedshiftLakeFormationRole` Lorsque vous exécutez l’éditeur de requêtes Amazon Redshift, il utilise ce rôle IAM pour l’autorisation des données. 
   + Pour **Database (Base de données)**, sélectionnez `lakeformation_tutorial`.

     La liste des tables s'affiche.
   + Pour **Table**, choisissez une table dans la source de données à interroger.
   + Choisissez l'autorisation **Sélectionner** une table.

1. Choisissez **Accorder**.

**Pour configurer Amazon Redshift Spectrum et exécuter des requêtes**

1. Ouvrez la console Amazon Redshift à l'adresse. [https://console.aws.amazon.com/redshift](https://console.aws.amazon.com/redshift) Connectez-vous en tant qu'utilisateur`Administrator`.

1. Choisissez **Créer un cluster**.

1. Sur la page **Créer un cluster**, entrez `redshift-lakeformation-demo` l'**identifiant du cluster**.

1. Pour le **type de nœud**, sélectionnez **dc2.large.**

1. Faites défiler la page vers le bas et sous **Configurations de base** de données, entrez ou acceptez les paramètres suivants :
   + **Nom d'utilisateur de l'administrateur** : `awsuser`
   + Mot de **passe de l'utilisateur administrateur** : `(Choose a password)`

1. Développez **les autorisations du cluster** et, **dans la zone Rôles IAM disponibles**, sélectionnez **RedshiftLakeFormationRole**. Ensuite, choisissez **Ajouter un rôle IAM**.

1. Si vous devez utiliser un port différent de la valeur par défaut de 5439, à côté de **Configurations supplémentaires**, désactivez l'option **Utiliser les valeurs par défaut**. Développez la section consacrée aux **configurations de base de données** et entrez un nouveau numéro **de port de base** de données.

1. Choisissez **Créer un cluster**.

   La page **Clusters** se charge.

1. Patientez jusqu'à ce que l'état du cluster devienne **disponible**. Choisissez régulièrement l'icône d'actualisation.

1. Accordez à l'analyste de données l'autorisation d'exécuter des requêtes sur le cluster. Pour ce faire, exécutez les étapes suivantes.

   1. Ouvrez la console IAM à l'[https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)adresse et connectez-vous en tant qu'`Administrator`utilisateur.

   1. Dans le volet de navigation, choisissez **Utilisateurs** et associez les politiques gérées suivantes à l'utilisateur`datalake_user`.
      + `AmazonRedshiftQueryEditor`
      + `AmazonRedshiftReadOnlyAccess` 

1. Déconnectez-vous de la console Amazon Redshift et reconnectez-vous en tant qu'utilisateur. `datalake_user`

1. Dans la barre d'outils verticale de gauche, cliquez sur l'icône **EDITOR** pour ouvrir l'éditeur de requêtes et vous connecter au cluster. Si la boîte de dialogue **Connect to database** apparaît, choisissez le nom du cluster`redshift-lakeformation-demo`, puis entrez le nom de la base de données**dev**, le nom **awsuser** d'utilisateur et le mot de passe que vous avez créés. Ensuite, choisissez **Se connecter à la base de données**.
**Note**  
Si aucun paramètre de connexion ne vous est demandé et qu'un autre cluster est déjà sélectionné dans l'éditeur de requêtes, choisissez **Modifier la connexion** pour ouvrir la boîte de dialogue **Connexion à la base de données**.

1. Dans la zone de texte **New Query 1**, entrez et exécutez l'instruction suivante pour mapper la base de données `lakeformation_tutorial` de Lake Formation au nom du schéma Amazon Redshift : `redshift_jdbc`
**Important**  
*<account-id>*Remplacez-le par un numéro de AWS compte valide et *<region>* par un nom de AWS région valide (par exemple,`us-east-1`).

   ```
   create external schema if not exists redshift_jdbc from DATA CATALOG database 'lakeformation_tutorial' iam_role 'arn:aws:iam::<account-id>:role/RedshiftLakeFormationRole' region '<region>';
   ```

1. Dans la liste des schémas sous **Sélectionner un schéma**, choisissez **redshift\$1jdbc**.

   La liste des tables s'affiche. L'éditeur de requêtes affiche uniquement les tables pour lesquelles vous avez obtenu des autorisations relatives au lac de données de Lake Formation.

1. Dans le menu contextuel situé à côté du nom d'une table, choisissez **Prévisualiser les données**.

   Amazon Redshift renvoie les 10 premières lignes.

   Vous pouvez désormais exécuter des requêtes sur les tables et les colonnes pour lesquelles vous avez des autorisations.

## Étape 13 : Accorder ou révoquer les autorisations de Lake Formation à l'aide d'Amazon Redshift Spectrum
<a name="getting-started-tutorial-grant-revoke-redshift"></a>

Amazon Redshift permet d'accorder et de révoquer les autorisations de Lake Formation sur les bases de données et les tables à l'aide d'instructions SQL modifiées. Ces instructions sont similaires aux instructions Amazon Redshift existantes. Pour plus d'informations, consultez [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html) et [REVOKE](https://docs.aws.amazon.com/redshift/latest/dg/r_REVOKE.html) dans le manuel *Amazon Redshift Database* Developer Guide. 