Connettore Amazon Athena Azure Data Lake Storage (ADLS) Gen2 - Amazon Athena

Connettore Amazon Athena Azure Data Lake Storage (ADLS) Gen2

Il connettore Amazon Athena per Azure Data Lake Storage (ADLS) Gen2 consente ad Amazon Athena di eseguire query SQL sui dati archiviati in ADLS. Athena non può accedere direttamente ai file archiviati nel data lake.

Questo connettore può essere registrato con il Catalogo Dati Glue Data come catalogo federato. Supporta i controlli di accesso ai dati definiti in Lake Formation a livello di catalogo, database, tabella, colonna, riga e tag. Questo connettore utilizza connessioni Glue per centralizzare le proprietà di configurazione in Glue.

  • Flusso di lavoro: il connettore implementa l'interfaccia JDBC, che utilizza il driver com.microsoft.sqlserver.jdbc.SQLServerDriver. Il connettore passa le query al motore Azure Synapse, che quindi accede al data lake.

  • Gestione dei dati e S3: normalmente il connettore Lambda esegue query sui dati direttamente senza trasferirli ad Amazon S3. Tuttavia, quando i dati restituiti dalla funzione Lambda superano i limiti Lambda, i dati vengono scritti nel bucket di spill di Amazon S3 specificato in modo che Athena possa leggere il superamento.

  • Autenticazione AAD: AAD può essere usato come metodo di autenticazione per il connettore Azure Synapse. Per utilizzare AAD, la stringa di connessione JDBC utilizzata dal connettore deve contenere i parametri URL authentication=ActiveDirectoryServicePrincipal, AADSecurePrincipalId e AADSecurePrincipalSecret. Questi parametri possono essere passati direttamente o tramite Secrets Manager.

Prerequisiti

Limitazioni

  • Le operazioni di scrittura DDL non sono supportate.

  • In una configurazione multiplex, il bucket di spill e il prefisso sono condivisi tra tutte le istanze del database.

  • Eventuali limiti Lambda pertinenti. Per ulteriori informazioni, consulta la sezione Quote Lambda nella Guida per gli sviluppatori di AWS Lambda.

  • Nelle condizioni di filtro, è necessario impostare i tipi di dati date e timestamp sul tipo di dati appropriato.

Termini

I seguenti termini si riferiscono al connettore Azure Data Lake Storage Gen2.

  • Istanza del database: qualsiasi istanza del database distribuita on-premise, su Amazon EC2 o su Amazon RDS.

  • Gestore: un gestore Lambda che accede all'istanza del database. Un gestore può gestire i metadati o i record di dati.

  • Gestore dei metadati: un gestore Lambda che recupera i metadati dall'istanza del database.

  • Gestore dei record: un gestore Lambda che recupera i record di dati dall'istanza del database.

  • Gestore composito: un gestore Lambda che recupera sia i metadati sia i record di dati dall'istanza del database.

  • Proprietà o parametro: una proprietà del database utilizzata dai gestori per estrarre le informazioni del database. Queste proprietà vengono configurate come variabili di ambiente Lambda.

  • Stringa di connessione: una stringa di testo utilizzata per stabilire una connessione a un'istanza del database.

  • Catalogo: un catalogo non di AWS Glue registrato in Athena che costituisce un prefisso obbligatorio per la proprietà connection_string.

  • Gestore multiplex: un gestore Lambda in grado di accettare e utilizzare più connessioni al database.

Parametri

Utilizza i parametri illustrati in questa sezione per configurare il connettore Azure Data Lake Storage Gen2.

Nota

I connettori di origine dati Athena creati il 3 dicembre 2024 e versioni successive utilizzano connessioni AWS Glue.

I nomi e le definizioni dei parametri elencati di seguito si riferiscono ai connettori di origine dati Athena creati prima del 3 dicembre 2024. Questi possono differire dalle proprietà di connessioneAWS Glue corrispondenti. Dal 3 dicembre 2024, utilizzare i parametri seguenti solo quando si implementa manualmente una versione precedente di un connettore di origine dati Athena.

Si consiglia di configurare un connettore Azure Data Lake Storage Gen2 utilizzando un oggetto di connessioni Glue. Per fare ciò, impostare la variabile di ambiente glue_connection del connettore Azure Data Lake Storage Gen2 Lambda sul nome della connessione Glue da usare.

Proprietà delle connessioni Glue

Utilizzare il seguente comando per ottenere lo schema relativo a un oggetto di connessione Glue. Questo schema contiene tutti i parametri che è possibile usare per controllare la connessione.

aws glue describe-connection-type --connection-type DATALAKEGEN2

Proprietà dell'ambiente Lambda

  • glue_connection: specifica il nome della connessione Glue associata al connettore federato.

  • casing_mode: (Facoltativo) specifica come gestire il casing per i nomi di schemi e tabelle. Il parametro casing_mode utilizza i seguenti valori per specificare il comportamento di formattazione di maiuscole e minuscole:

    • none: non modifica le maiuscole e minuscole dello schema e dei nomi delle tabelle specificati. Questa è l'impostazione predefinita per i connettori a cui è associata una connessione Glue.

    • upper: tutti i nomi di schemi e tabelle specificati sono in maiuscolo.

    • lower: tutti i nomi di schemi e tabelle specificati in sono minuscolo.

Nota
  • Tutti i connettori che utilizzano le connessioni Glue devono utilizzare Gestione dei segreti AWS per memorizzare le credenziali.

  • Il connettore Azure Data Lake Storage Gen2 creato usando le connessioni Glue non supporta l'uso di un gestore multiplexing.

  • Il connettore Azure Data Lake Storage Gen2 creato utilizzando le connessioni Glue supporta solo 2 ConnectionSchemaVersion.

Stringa di connessione

Utilizza una stringa di connessione JDBC nel formato seguente per connetterti a un'istanza del database.

datalakegentwo://${jdbc_connection_string}

Utilizzo di un gestore multiplex

Puoi utilizzare un gestore multiplex per connetterti a più istanze del database con una singola funzione Lambda. Le richieste vengono indirizzate in base al nome del catalogo. Utilizza le seguenti classi in Lambda.

Gestore Classe
Gestore composito DataLakeGen2MuxCompositeHandler
Gestore dei metadati DataLakeGen2MuxMetadataHandler
Gestore dei record DataLakeGen2MuxRecordHandler
Parametri del gestore multiplex
Parametro Descrizione
$catalog_connection_string Obbligatorio. Una stringa di connessione di un'istanza del database. Appone alla variabile di ambiente un prefisso con il nome del catalogo utilizzato in Athena. Ad esempio, se il catalogo registrato presso Athena è mydatalakegentwocatalog, il nome della variabile di ambiente è mydatalakegentwocatalog_connection_string.
default Obbligatorio. La stringa di connessione predefinita. Questa stringa viene utilizzata quando il catalogo è lambda:${AWS_LAMBDA_FUNCTION_NAME}.

Le seguenti proprietà di esempio si riferiscono a una funzione Lambda DataLakeGen2 MUX che supporta due istanze del database: datalakegentwo1 (il valore predefinito) e datalakegentwo2.

Proprietà Valore
default datalakegentwo://jdbc:sqlserver://adlsgentwo1.hostname:port;databaseName=database_name;${secret1_name}
datalakegentwo_catalog1_connection_string datalakegentwo://jdbc:sqlserver://adlsgentwo1.hostname:port;databaseName=database_name;${secret1_name}
datalakegentwo_catalog2_connection_string datalakegentwo://jdbc:sqlserver://adlsgentwo2.hostname:port;databaseName=database_name;${secret2_name}
Specifica delle credenziali

Per fornire un nome utente e una password per il database nella stringa di connessione JDBC, puoi utilizzare le proprietà della stringa di connessione o Gestione dei segreti AWS.

  • Stringa di connessione: puoi specificare un nome utente e una password come proprietà nella stringa di connessione JDBC.

    Importante

    Come best practice di sicurezza, non utilizzare credenziali codificate nelle variabili di ambiente o nelle stringhe di connessione. Per informazioni su come trasferire i segreti codificati in Gestione dei segreti AWS, consulta Trasferimento dei segreti codificati in Gestione dei segreti AWS nella Guida per l'utente di Gestione dei segreti AWS.

  • Gestione dei segreti AWS: per utilizzare la funzione Athena Federated Query con Gestione dei segreti AWS, il VPC collegato alla funzione Lambda deve disporre dell'accesso a Internet o di un endpoint VPC per connettersi a Secrets Manager.

    Puoi inserire il nome di un segreto in Gestione dei segreti AWS nella stringa di connessione JDBC. Il connettore sostituisce il nome del segreto con i valori username e password di Secrets Manager.

    Per le istanze del database Amazon RDS, questo supporto è strettamente integrato. Se utilizzi Amazon RDS, ti consigliamo vivamente di utilizzare Gestione dei segreti AWS e la rotazione delle credenziali. Se il tuo database non utilizza Amazon RDS, archivia le credenziali come JSON nel seguente formato:

    {"username": "${username}", "password": "${password}"}
Esempio di stringa di connessione con nome del segreto

La stringa seguente ha il nome del segreto ${secret1_name}.

datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=database_name;${secret1_name}

Il connettore utilizza il nome del segreto per recuperare i segreti e fornire il nome utente e la password, come nell'esempio seguente.

datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=database_name;user=user_name;password=password

Utilizzo di un gestore a singola connessione

Puoi utilizzare i seguenti gestori di metadati e record a singola connessione per connetterti a una singola istanza di Azure Data Lake Storage Gen2.

Tipo di gestore Classe
Gestore composito DataLakeGen2CompositeHandler
Gestore dei metadati DataLakeGen2MetadataHandler
Gestore dei record DataLakeGen2RecordHandler
Parametri del gestore a singola connessione
Parametro Descrizione
default Obbligatorio. La stringa di connessione predefinita.

I gestori a singola connessione supportano una sola istanza del database e devono fornire un parametro di stringa di connessione del tipo default. Tutte le altre stringhe di connessione vengono ignorate.

La seguente proprietà di esempio si riferisce a una singola istanza Azure Data Lake Storage Gen2 supportata da una funzione Lambda.

Proprietà Valore
default datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=;${secret_name}

Parametri di spill

L'SDK Lambda può riversare i dati su Amazon S3. Tutte le istanze del database a cui accede la stessa funzione Lambda riversano i dati nella stessa posizione.

Parametro Descrizione
spill_bucket Obbligatorio. Nome del bucket di spill.
spill_prefix Obbligatorio. Prefisso della chiave del bucket di spill.
spill_put_request_headers (Facoltativo) Una mappa codificata in JSON delle intestazioni e dei valori della richiesta per la richiesta putObject di Amazon S3 utilizzata per lo spill (ad esempio, {"x-amz-server-side-encryption" : "AES256"}). Per altre possibili intestazioni, consulta l'argomento relativo a PutObject nella Documentazione di riferimento dell'API di Amazon Simple Storage Service.

Supporto dei tipi di dati

Nella tabella seguente vengono illustrati i tipi di dati corrispondenti per ADLS Gen2 e Arrow.

ADLS Gen2 Arrow
bit TINYINT
tinyint SMALLINT
smallint SMALLINT
int INT
bigint BIGINT
decimal DECIMAL
numeric FLOAT8
smallmoney FLOAT8
money DECIMAL
float[24] FLOAT4
float[53] FLOAT8
real FLOAT4
datetime Date(MILLISECOND)
datetime2 Date(MILLISECOND)
smalldatetime Date(MILLISECOND)
date Date(DAY)
time VARCHAR
datetimeoffset Date(MILLISECOND)
char[n] VARCHAR
varchar[n/max] VARCHAR

Partizioni e suddivisioni

Azure Data Lake Storage Gen2 utilizza l'archiviazione blob Gen2 compatibile con Hadoop per l'archiviazione dei file di dati. I dati di questi file vengono interrogati dal motore Azure Synapse. Il motore Azure Synapse tratta i dati Gen2 archiviati nei file system come tabelle esterne. Le partizioni vengono implementate in base al tipo di dati. Se i dati sono già stati partizionati e distribuiti all'interno del sistema di archiviazione Gen2, il connettore recupera i dati come singola suddivisione.

Prestazioni

Il connettore Azure Data Lake Storage Gen2 mostra prestazioni più lente quando si eseguono più query contemporaneamente ed è soggetto alla limitazione della larghezza di banda della rete.

Il connettore Athena Azure Data Lake Storage Gen2 esegue il pushdown dei predicati per ridurre la quantità di dati scansionati dalla query. I predicati semplici e le espressioni complesse vengono inviati al connettore per ridurre la quantità di dati scansionati e ridurre il tempo di esecuzione delle query.

Predicati

Un predicato è un'espressione nella clausola WHERE di una query SQL che valuta a un valore booleano e filtra le righe in base a più condizioni. Il connettore Athena Azure Data Lake Storage Gen2 può combinare queste espressioni e inviarle direttamente ad Azure Data Lake Storage Gen2 per funzionalità avanzate e per ridurre la quantità di dati scansionati.

I seguenti operatori del connettore Athena Azure Data Lake Storage Gen2 supportano il pushdown dei predicati:

  • Booleano: AND, OR, NOT

  • Uguaglianza: EQUAL, NOT_EQUAL, LESS_THAN, LESS_THAN_OR_EQUAL, GREATER_THAN, GREATER_THAN_OR_EQUAL, NULL_IF, IS_NULL

  • Aritmetica: ADD, SUBTRACT, MULTIPLY, DIVIDE, MODULUS, NEGATE

  • Altro: LIKE_PATTERN, IN

Esempio di pushdown combinato

Per le funzionalità di esecuzione di query avanzate, combina i tipi di pushdown, come nell'esempio seguente:

SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%');

Query passthrough

Il connettore Azure Data Lake Storage Gen2 supporta le query passthrough. Le query passthrough utilizzano una funzione di tabella per inviare la query completa all'origine dati per l'esecuzione.

Per usare le query passthrough con Azure Data Lake Storage Gen2, è possibile usare la seguente sintassi:

SELECT * FROM TABLE( system.query( query => 'query string' ))

La seguente query di esempio invia una query a un’origine dati in Azure Data Lake Storage Gen2. La query seleziona tutte le colonne della tabella customer, limitando i risultati a 10.

SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))

Informazioni sulla licenza

Utilizzando questo connettore, riconosci l'inclusione di componenti di terze parti, un elenco dei quali è disponibile nel file pom.xml di questo connettore, e accetti i termini delle rispettive licenze di terze parti fornite nel file LICENSE.txt su GitHub.com.

Risorse aggiuntive

Per informazioni sulla versione più recente del driver JDBC, consulta il file pom.xml del connettore Azure Data Lake Storage Gen2 su GitHub.com.

Per ulteriori informazioni su questo connettore, visita il sito corrispondente su GitHub.com.