Connecteur Amazon Athena pour Snowflake - Amazon Athena

Connecteur Amazon Athena pour Snowflake

Le connecteur Amazon Athena pour Snowflake permet à Amazon Athena d’exécuter des requêtes SQL sur des données stockées dans vos bases de données Snowflake ou des instances RDS à l’aide de JDBC.

Ce connecteur peut être enregistré auprès du Catalogue de données Glue en tant que catalogue fédéré. Il prend en charge les contrôles d’accès aux données définis dans Lake Formation aux niveaux catalogue, base de données, table, colonne, ligne et balise. Ce connecteur utilise les connexions Glue pour centraliser les propriétés de configuration dans Glue.

Prérequis

Déployez le connecteur sur votre Compte AWS à l’aide de la console Athena ou de l’opération d’API CreateDataCatalog. Pour de plus amples informations, consultez Création d’une connexion à une source de données.

Limitations

  • Les opérations DDL d’écriture ne sont pas prises en charge.

  • Dans une configuration de multiplexeur, le compartiment de déversement et le préfixe sont partagés entre toutes les instances de base de données.

  • Toutes les limites Lambda pertinentes. Pour plus d'informations, consultez la section Quotas Lambda du Guide du développeur AWS Lambda.

  • Pour l’instant, les affichages Snowflake à division unique sont pris en charge.

  • Dans Snowflake, étant donné que les noms d’objets sont sensibles à la casse, deux tables peuvent porter le même nom en minuscules et en majuscules (par exemple, EMPLOYEE et employee). Dans la requête fédérée d’Athena, les noms des tables de schéma sont fournis à la fonction Lambda en minuscules. Pour contourner ce problème, vous pouvez fournir des indicateurs de requête @schemaCase pour récupérer les données des tables dont les noms sont sensibles à la casse. Vous trouverez ci-dessous deux exemples de requêtes avec des indicateurs de requête.

    SELECT * FROM "lambda:snowflakeconnector".SYSTEM."MY_TABLE@schemaCase=upper&tableCase=upper"
    SELECT * FROM "lambda:snowflakeconnector".SYSTEM."MY_TABLE@schemaCase=upper&tableCase=lower"
  • Si vous migrez vos connexions Snowflake vers le Catalogue Glue et Lake Formation, Athena n’établira pas par défaut toutes les demandes en majuscules ou la prise en charge de l’annotation. Le comportement par défaut de la connexion Glue n’impliquera pas l’ajustement de la casse.

    Snowflake prend en charge les modes suivants en matière de casse :

    • NONE (mode par défaut d’un connecteur avec connexion Glue)

    • CASE_INSENSITIVE_SEARCH

    • ANNOTATION (mode par défaut d’un connecteur sans connexion Glue)

Conditions

Les termes suivants se rapportent au connecteur Snowflake.

  • Base de données – Toute instance de base de données déployée sur site, sur Amazon EC2 ou sur Amazon RDS.

  • Gestionnaire – Un gestionnaire Lambda qui accède à votre instance de base de données. Un gestionnaire peut être destiné aux métadonnées ou aux enregistrements de données.

  • Gestionnaire de métadonnées – Un gestionnaire Lambda qui extrait les métadonnées de votre instance de base de données.

  • Gestionnaire d’enregistrements – Un gestionnaire Lambda qui extrait les enregistrements de données de votre instance de base de données.

  • Gestionnaire de composites – Un gestionnaire Lambda qui extrait les métadonnées et les enregistrements de données de votre instance de base de données.

  • Propriété ou paramètre – Propriété de base de données utilisée par les gestionnaires pour extraire des informations de base de données. Vous configurez ces propriétés en tant que variables d’environnement Lambda.

  • Chaîne de connexion – Chaîne de texte utilisée pour établir une connexion à une instance de base de données.

  • Catalogue – Un catalogue non-AWS Glue enregistré auprès d’Athena qui est un préfixe obligatoire pour la propriété connection_string.

  • Gestionnaire de multiplexage – Un gestionnaire Lambda qui peut accepter et utiliser plusieurs connexions de base de données.

Paramètres

Utilisez les paramètres de cette section pour configurer le connecteur Snowflake.

Nous vous recommandons de configurer un connecteur Snowflake en utilisant un objet des connexions Glue. Pour ce faire, définissez la variable d’environnement glue_connection du connecteur Snowflake Lambda sur le nom de la connexion Glue à utiliser.

Propriétés des connexions Glue

Utilisez la commande suivante afin d’obtenir le schéma d’un objet de connexion Glue. Ce schéma contient tous les paramètres que vous pouvez utiliser pour contrôler votre connexion.

aws glue describe-connection-type --connection-type SNOWFLAKE

Propriétés d’environnement Lambda

  • glue_connection – Spécifie le nom de la connexion Glue associée au connecteur fédéré.

  • casing_mode – (Facultatif) Spécifie comment gérer la casse des noms de schéma et de table. Le paramètre casing_mode utilise les valeurs suivantes pour spécifier le comportement de la casse :

    • none – Aucune modification de la casse dans les noms de schéma et de table indiqués. Il s’agit de la valeur par défaut pour les connecteurs auxquels une connexion Glue est associée.

    • annotation – Ajustement du nom de la table si une annotation est présente. Il s’agit de la valeur par défaut pour les connecteurs auxquels aucune connexion Glue n’est associée.

    • case_insensitive_search – Réalisation de recherches non sensibles à la casse sur les noms de schéma et de table dans Snowflake. Utilisez cette valeur si votre requête contient des noms de schéma ou de table qui ne correspondent pas à la casse par défaut de votre connecteur.

    • upper – Mise en majuscules de tous les noms de schéma et de table indiqués.

    • lower – Mise en minuscules de tous les noms de schéma et de table indiqués.

Note
  • Le connecteur Snowflake créé à l’aide des connexions Glue ne prend pas en charge l’utilisation d’un gestionnaire de multiplexage.

  • Le connecteur Snowflake créé à l’aide des connexions Glue prend uniquement en charge ConnectionSchemaVersion 2.

Stockage d'informations d'identification

Tous les connecteurs qui utilisent des connexions Glue doivent utiliser AWS Secrets Manager pour stocker les informations d’identification. Pour de plus amples informations, consultez Authentification auprès de Snowflake.

Note

Les connecteurs de source de données Athena créés le 3 décembre 2024 et les versions ultérieures utilisent des connexions AWS Glue.

Les noms et définitions de paramètres répertoriés ci-dessous concernent les connecteurs de source de données Athena créés sans connexion Glue associée. Utilisez les paramètres suivants uniquement lorsque vous déployez manuellement une version antérieure d’un connecteur de source de données Athena ou lorsque la propriété d’environnement glue_connection n’est pas spécifiée.

Propriétés d’environnement Lambda

  • default – Chaîne de connexion JDBC à utiliser pour se connecter à l’instance de base de données Snowflake. Par exemple , snowflake://${jdbc_connection_string}

  • catalog_connection_string – Utilisé par le gestionnaire de multiplexage (non pris en charge lors de l’utilisation d’une connexion Glue). Chaîne de connexion d’instance de base de données. Préfixez la variable d'environnement avec le nom du catalogue utilisé dans Athena. Par exemple, si le catalogue enregistré auprès d’Athena est mysnowflakecatalog, le nom de la variable d’environnement est alors mysnowflakecatalog_connection_string.

  • spill_bucket – Spécifie le compartiment Amazon S3 pour les données qui dépassent les limites des fonctions Lambda.

  • spill_prefix – (Facultatif) Par défaut, il s’agit d’un sous-dossier dans le spill_bucket spécifié appelé athena-federation-spill. Nous vous recommandons de configurer un cycle de vie de stockage Amazon S3 à cet endroit pour supprimer les déversements supérieurs à un nombre de jours ou d’heures prédéterminé.

  • spill_put_request_headers – (Facultatif) Une carte codée au format JSON des en-têtes et des valeurs des demandes pour la demande putObject Amazon S3 utilisée pour le déversement (par exemple, {"x-amz-server-side-encryption" : "AES256"}). Pour les autres en-têtes possibles, consultez PutObject dans la Référence d'API Amazon Simple Storage Service.

  • kms_key_id – (Facultatif) Par défaut, toutes les données déversées vers Amazon S3 sont chiffrées à l'aide du mode de chiffrement authentifié AES-GCM et d'une clé générée de manière aléatoire. Pour que votre fonction Lambda utilise des clés de chiffrement plus puissantes générées par KMS, comme a7e63k4b-8loc-40db-a2a1-4d0en2cd8331, vous pouvez spécifier l’ID d’une clé KMS.

  • disable_spill_encryption – (Facultatif) Lorsque la valeur est définie sur True, le chiffrement des déversements est désactivé. La valeur par défaut est False afin que les données déversées vers S3 soient chiffrées à l’aide d’AES-GCM, soit à l’aide d’une clé générée de manière aléatoire soit à l’aide de KMS pour générer des clés. La désactivation du chiffrement des déversements peut améliorer les performances, surtout si votre lieu de déversement utilise le chiffrement côté serveur.

Chaîne de connexion

Utilisez une chaîne de connexion JDBC au format suivant pour vous connecter à une instance de base de données.

snowflake://${jdbc_connection_string}

Utilisation d’un gestionnaire de multiplexage

Vous pouvez utiliser un multiplexeur pour vous connecter à plusieurs instances de base de données à l’aide d’une seule fonction Lambda. Les demandes sont acheminées par nom de catalogue. Utilisez les classes suivantes dans Lambda.

Handler (Gestionnaire) Classe
Gestionnaire de composites SnowflakeMuxCompositeHandler
Gestionnaire de métadonnées SnowflakeMuxMetadataHandler
Gestionnaire d’enregistrements SnowflakeMuxRecordHandler
Paramètres du gestionnaire de multiplexage
Paramètre Description
$catalog_connection_string Obligatoire. Chaîne de connexion d’instance de base de données. Préfixez la variable d'environnement avec le nom du catalogue utilisé dans Athena. Par exemple, si le catalogue enregistré auprès d’Athena est mysnowflakecatalog, le nom de la variable d’environnement est alors mysnowflakecatalog_connection_string.
default Obligatoire. Chaîne de connexion par défaut. Cette chaîne est utilisée lorsque le catalogue est lambda:${AWS_LAMBDA_FUNCTION_NAME}.

Les exemples de propriétés suivants concernent une fonction Snowflake MUX Lambda qui prend en charge deux instances de base de données : snowflake1 (par défaut) et snowflake2.

Propriété Valeur
default snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1&${Test/RDS/Snowflake1}
snowflake_catalog1_connection_string snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1${Test/RDS/Snowflake1}
snowflake_catalog2_connection_string snowflake://jdbc:snowflake://snowflake2.host:port/?warehouse=warehousename&db=db1&schema=schema1&user=sample2&password=sample2
Fourniture des informations d’identification

Pour fournir un nom d’utilisateur et un mot de passe pour votre base de données dans votre chaîne de connexion JDBC, vous pouvez utiliser les propriétés de la chaîne de connexion ou AWS Secrets Manager.

  • Chaîne de connexion – Un nom d'utilisateur et un mot de passe peuvent être spécifiés en tant que propriétés dans la chaîne de connexion JDBC.

    Important

    Afin de vous aider à optimiser la sécurité, n’utilisez pas d’informations d’identification codées en dur dans vos variables d’environnement ou vos chaînes de connexion. Pour plus d'informations sur le déplacement de vos secrets codés en dur vers AWS Secrets Manager, consultez Déplacer les secrets codés en dur vers AWS Secrets Manager dans le Guide de l'utilisateur AWS Secrets Manager.

  • AWS Secrets Manager – Pour utiliser la fonctionnalité de requête fédérée d'Athena avec AWS Secrets Manager, le VPC connecté à votre fonction Lambda doit avoir un accès internet ou un point de terminaison de VPC pour vous connecter à Secrets Manager.

    Vous pouvez mettre le nom d’un secret dans AWS Secrets Manager dans votre chaîne de connexion JDBC. Le connecteur remplace le nom secret par les valeurs username et password de Secrets Manager.

    Pour les instances de base de données Amazon RDS, cette prise en charge est étroitement intégrée. Si vous utilisez Amazon RDS, nous recommandons vivement d’utiliser AWS Secrets Manager et la rotation des informations d’identification. Si votre base de données n’utilise pas Amazon RDS, stockez les informations d’identification au format JSON au format suivant :

    {"username": "${username}", "password": "${password}"}
Exemple de chaîne de connexion avec un nom secret

La chaîne suivante porte le nom secret ${Test/RDS/Snowflake1}.

snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1${Test/RDS/Snowflake1}&...

Le connecteur utilise le nom secret pour récupérer les secrets et fournir le nom d’utilisateur et le mot de passe, comme dans l’exemple suivant.

snowflake://jdbc:snowflake://snowflake1.host:port/warehouse=warehousename&db=db1&schema=schema1&user=sample2&password=sample2&...

À l’heure actuelle, Snowflake reconnaît les propriétés JDBC user et password. Il accepte également le nom d’utilisateur et le mot de passe au format nomutilisateur/motdepasse sans les clés user ou password.

Utilisation d’un gestionnaire de connexion unique

Vous pouvez utiliser les métadonnées de connexion unique et les gestionnaires d’enregistrements suivants pour vous connecter à une seule instance Snowflake.

Type de gestionnaire Classe
Gestionnaire de composites SnowflakeCompositeHandler
Gestionnaire de métadonnées SnowflakeMetadataHandler
Gestionnaire d’enregistrements SnowflakeRecordHandler
Paramètres du gestionnaire de connexion unique
Paramètre Description
default Obligatoire. Chaîne de connexion par défaut.

Les gestionnaires de connexion unique prennent en charge une instance de base de données et doivent fournir un paramètre de connexion default. Toutes les autres chaînes de connexion sont ignorées.

L’exemple de propriété suivant concerne une instance Snowflake unique prise en charge par une fonction Lambda.

Propriété Valeur
default snowflake://jdbc:snowflake://snowflake1.host:port/?secret=Test/RDS/Snowflake1

Paramètres de déversement

Le kit SDK Lambda peut déverser des données vers Amazon S3. Toutes les instances de base de données accessibles par la même fonction Lambda déversent au même emplacement.

Paramètre Description
spill_bucket Obligatoire. Nom du compartiment de déversement.
spill_prefix Obligatoire. Préfixe de la clé du compartiment de déversement.
spill_put_request_headers (Facultatif) Une carte codée au format JSON des en-têtes et des valeurs des demandes pour la demande putObject Amazon S3 utilisée pour le déversement (par exemple, {"x-amz-server-side-encryption" : "AES256"}). Pour les autres en-têtes possibles, consultez PutObject dans la Référence d'API Amazon Simple Storage Service.

Prise en charge du type de données

Le tableau suivant montre les types de données correspondants pour JDBC et Apache Arrow.

JDBC Flèche
Booléen Bit
Entier Tiny
Court Smallint
Entier Int
Long Bigint
float Float4
Double Float8
Date DateDay
Horodatage DateMilli
Chaîne Varchar
Octets Varbinary
BigDecimal Décimal
ARRAY Liste

Conversions du type de données

Outre les conversions JDBC vers Arrow, le connecteur effectue certaines autres conversions pour que la source Snowflake et les types de données Athena soient compatibles. Ces conversions permettent de garantir la réussite de l’exécution des requêtes. Le tableau suivant présente ces conversions.

Type de données source (Snowflake) Type de données converties (Athena)
TIMESTAMP TIMESTAMPMILLI
DATE TIMESTAMPMILLI
INTEGER INT
DECIMAL BIGINT
TIMESTAMP_NTZ TIMESTAMPMILLI

Tous les autres types de données non pris en charge sont convertis en VARCHAR.

Partitions et déversements

Les partitions sont utilisées pour déterminer comment générer des divisions pour le connecteur. Athena construit une colonne synthétique de type varchar qui représente le schéma de partitionnement de la table afin d’aider le connecteur à générer des divisions. Le connecteur ne modifie pas la définition réelle de la table.

Pour créer cette colonne synthétique et les partitions, Athena nécessite la définition d’une clé primaire. Cependant, étant donné que Snowflake n’applique pas les contraintes de clé primaire, vous devez vous-même appliquer l’unicité. Si vous ne le faites pas, Athena optera par défaut pour une division unique.

Performances

Pour des performances optimales, utilisez des filtres dans les requêtes dans la mesure du possible. En outre, nous recommandons vivement le partitionnement natif pour récupérer des jeux de données volumineux dont la distribution des partitions est uniforme. La sélection d'un sous-ensemble de colonnes accélère considérablement l'exécution des requêtes et réduit le nombre de données analysées. Le connecteur Snowflake résiste à la limitation due à la simultanéité.

Le connecteur Athena Snowflake effectue une poussée vers le bas des prédicats pour réduire les données analysées par la requête. Les clauses LIMIT, les prédicats simples et les expressions complexes sont poussés vers le connecteur afin de réduire la quantité de données analysées et le délai d'exécution des requêtes.

Clauses LIMIT

Une instruction LIMIT N réduit les données analysées par la requête. Grâce à la poussée vers le bas LIMIT N, le connecteur renvoie uniquement des lignes N à Athena.

Prédicats

Un prédicat est une expression contenue dans la clause WHERE d'une requête SQL qui prend une valeur booléenne et filtre les lignes en fonction de plusieurs conditions. Le connecteur Athena Snowflake peut combiner ces expressions et les pousser directement vers Snowflake pour améliorer la fonctionnalité et réduire la quantité de données analysées.

Les opérateurs du connecteur Athena Snowflake suivants prennent en charge la poussée vers le bas de prédicats :

  • Booléen : AND, OR, NOT

  • Égalité : EQUAL, NOT_EQUAL, LESS_THAN, LESS_THAN_OR_EQUAL, GREATER_THAN, GREATER_THAN_OR_EQUAL, IS_DISTINCT_FROM, NULL_IF, IS_NULL

  • Arithmétique : ADD, SUBTRACT, MULTIPLY, DIVIDE, MODULUS, NEGATE

  • Autres : LIKE_PATTERN, IN

Exemple de poussée combinée vers le bas

Pour améliorer les capacités de requête, combinez les types de poussée vers le bas, comme dans l'exemple suivant :

SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%') LIMIT 10;

Requêtes de transmission

Le connecteur Snowflake prend en charge les requêtes de transmission. Les requêtes de transmission utilisent une fonction de table pour transmettre votre requête complète à la source de données à des fins d’exécution.

Pour utiliser les requêtes de transmission avec Snowflake, vous pouvez utiliser la syntaxe suivante :

SELECT * FROM TABLE( system.query( query => 'query string' ))

L’exemple de requête suivant transmet une requête à une source de données dans Snowflake. La requête sélectionne toutes les colonnes dans la table customer, en limitant les résultats à 10.

SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))

Informations de licence

En utilisant ce connecteur, vous reconnaissez l'inclusion de composants tiers, dont la liste se trouve dans le fichier pom.xml pour ce connecteur, et vous acceptez les conditions des licences tierces respectives fournis dans le fichier LICENSE.txt sur GitHub.com.

Ressources supplémentaires

Pour obtenir les dernières informations sur la version du pilote JDBC, veuillez consulter le fichier pom.xml pour le connecteur Snowflake sur GitHub.com.

Pour de plus amples informations sur ce connecteur, veuillez consulter le site correspondant sur GitHub.com.