Amazon Redshift ne prendra plus en charge la création de nouveaux Python UDFs à compter du 1er novembre 2025. Si vous souhaitez utiliser Python UDFs, créez la version UDFs antérieure à cette date. Le Python existant UDFs continuera à fonctionner normalement. Pour plus d’informations, consultez le billet de blog
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Mise en route de l’ingestion en streaming à partir de sources Apache Kafka
Cette rubrique explique comment utiliser des données de streaming depuis Amazon MSK, Apache Kafka ou Confluent Cloud à l’aide d’une vue matérialisée.
L’objectif de l’ingestion en streaming Amazon Redshift est de simplifier le processus afin d’ingérer directement des données de flux depuis un service de streaming vers Amazon Redshift ou Amazon Redshift sans serveur. Cela fonctionne avec des clusters alloués Amazon MSK et Amazon MSK sans serveur, avec Apache Kafka open source et avec Confluent Cloud. L’ingestion en flux continu Amazon Redshift élimine la nécessité de stocker temporairement une rubrique Apache Kafka dans Amazon S3 avant d’ingérer les données de flux dans Redshift.
Sur le plan technique, l’ingestion en streaming fournit une ingestion à faible latence et à haute vitesse des données de flux ou de rubrique dans une vue matérialisée Amazon Redshift. Après la configuration, l’actualisation de la vue matérialisée vous permet d’intégrer de gros volumes de données.
Vous devez disposer d’une source Apache Kafka avant de configurer l’ingestion en streaming Amazon Redshift. Si vous n’avez pas de source, créez-en une en suivant les instructions suivantes :
Amazon MSK : mise en route avec Amazon MSK
Apache Kafka : démarrage rapide d’Apache Kafka
Confluent Cloud : démarrage rapide pour Confluent Cloud
Configuration de l’ingestion en streaming depuis Kafka
Utilisez les procédures suivantes pour configurer l'ingestion de flux vers Amazon Redshift à partir d'Amazon MSK ou de sources Apache Kafka non AWS gérées (Apache Kafka et Confluent Cloud).
Configurer l’authentification
Cette section décrit la configuration de l’authentification pour permettre à votre application Amazon Redshift d’accéder à une source Amazon MSK.
Après avoir créé le rôle de votre application, attachez l’une des politiques suivantes pour autoriser l’accès à votre cluster Amazon MSK, Apache Kafka ou Confluent Cloud. Pour l’authentification mTLS, vous pouvez stocker les certificats utilisés par Amazon Redshift dans ACM ou Secrets Manager. Vous devez donc choisir la politique correspondant à l’endroit où le certificat est stocké.
Notez que les certificats autosignés ne sont pas pris en charge pour l’authentification ou les données en transit lorsque vous utilisez l’ingestion en streaming directe dans Amazon Redshift avec l’une des sources de streaming Apache Kafka prises en charge. Il s’agit notamment d’Amazon MSK, d’Apache Kafka et de Confluent Cloud. Envisagez d'utiliser des certificats générés par AWS Certificate Manager ou toute autre autorité de certification approuvée publiquement.
L’authentification IAM Amazon Redshift avec MSK n’est prise en charge que sur Kafka version 2.7.1 ou supérieure.
AUTHENTIFICATION IAM (Amazon MSK uniquement) :
AUTHENTIFICATION MTLS : à l'aide d'un certificat stocké dans AWS Certificate Manager
AUTHENTIFICATION MTLS : à l'aide d'un certificat stocké dans AWS Secrets Manager
Configuration de votre VPC
Après avoir créé vos ressources d’authentification, consultez votre VPC et vérifiez que votre cluster Amazon Redshift ou groupe de travail Amazon Redshift sans serveur dispose d’une itinéraire pour accéder à votre source Apache Kafka.
Note
Pour Amazon MSK, les règles de groupe de sécurité entrant pour votre cluster Amazon MSK doivent autoriser le groupe de sécurité de votre cluster Amazon Redshift ou de votre groupe de travail Redshift sans serveur. Les ports que vous spécifiez dépendent des méthodes d’authentification configurées sur votre cluster Amazon MSK. Pour plus d'informations, consultez les sections Informations sur les ports et Accès depuis le VPC AWS mais depuis l'extérieur.
Ensuite, activez le routage VPC amélioré sur votre cluster Amazon Redshift ou dans votre groupe de travail Amazon Redshift sans serveur. Pour plus d’informations, consultez Activation du routage VPC amélioré.
Créer une vue matérialisée
Dans cette section, vous allez configurer la vue matérialisée qu’Amazon Redshift utilise pour accéder à vos données de streaming Apache Kafka.
En supposant que vous avez un cluster Apache Kafka disponible, la première étape consiste à définir un schéma dans Redshift avec CREATE EXTERNAL SCHEMA et de référencer le cluster en tant que source de données. Ensuite, pour accéder aux données dans la rubrique, définissez le STREAM dans une vue matérialisée. Vous pouvez stocker des enregistrements de votre rubrique en utilisant le type de données Amazon Redshift par défaut VARBYTE, ou définir un schéma qui convertit les données au format SUPER semi-structuré. Lorsque vous interrogez la vue matérialisée, les enregistrements renvoyés sont une point-in-time vue du sujet.
-
Dans Amazon Redshift, créez un schéma externe à mapper au cluster Apache Kafka. La syntaxe est la suivante :
CREATE EXTERNAL SCHEMA MySchema FROM KAFKA [ IAM_ROLE [ default | 'iam-role-arn' ] ] AUTHENTICATION [ none | iam | mtls ] {AUTHENTICATION_ARN 'acm-certificate-arn' | SECRET_ARN 'asm-secret-arn'};Dans la clause
FROM,KAFKAindique que le schéma mappe les données à partir d’une source Apache Kafka.AUTHENTICATIONindique le type d’authentification pour l’ingestion en streaming. Trois types sont disponibles :none : indique l’absence de toute authentification requise. Cela correspond à un accès non authentifié sur MSK. Cela correspond à l’authentification SSL dans Apache Kafka. Cette méthode d’authentification n’est pas prise en charge pour Confluent Cloud.
iam – Indique une authentification IAM. Vous pouvez uniquement utiliser l’authentification IAM avec Amazon MSK. Lorsque vous choisissez cette option, vérifiez que le rôle IAM dispose des autorisations nécessaires à l’authentification IAM. Pour plus d’informations sur la configuration des politiques IAM requises, consultez Configuration de l’ingestion en streaming depuis Kafka.
mtls : indique que le protocole mTLS (Mutual Transport Layer Security) assure une communication sécurisée en facilitant l’authentification entre un client et un serveur. Dans ce cas, le client est Redshift et le serveur est Apache Kafka. Pour de plus amples informations sur la configuration de l’ingestion en streaming avec mTLS, consultez Authentification avec mTLS pour l’ingestion en streaming Redshift à partir de sources Apache Kafka.
Notez que l’authentification Amazon MSK avec nom d’utilisateur et mot de passe n’est pas prise en charge pour l’ingestion en streaming.
Le paramètre
AUTHENTICATION_ARNspécifie l’ARN du certificat mTLS (Mutual Transport Layer Security) ACM que vous utilisez pour établir une connexion cryptée.Le
SECRET_ARNparamètre spécifie l'ARN du AWS Secrets Manager secret contenant le certificat à utiliser par Amazon Redshift pour les MTL.Les exemples suivants montrent comment définir l’URI de l’agent pour le cluster Amazon MSK lorsque vous créez le schéma externe :
Avec l’authentification IAM :
CREATE EXTERNAL SCHEMA my_schema FROM KAFKA IAM_ROLE 'arn:aws:iam::012345678901:role/my_role' AUTHENTICATION IAM URI 'b-1.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9098,b-2.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9098'Sans authentification :
CREATE EXTERNAL SCHEMA my_schema FROM KAFKA AUTHENTICATION none URI 'b-1.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9092,b-2.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9092'Avec mTLS :
CREATE EXTERNAL SCHEMA my_schema FROM KAFKA IAM_ROLE 'arn:aws:iam::012345678901:role/my_role' AUTHENTICATION MTLS URI 'b-1.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9094,b- 2.myTestCluster.123z8u.c2.kafka.us-west-1.amazonaws.com:9094' {AUTHENTICATION_ARN 'acm-certificate-arn' | SECRET_ARN 'asm-secret-arn'}Pour plus d’informations sur la façon de créer un schéma externe, consultez CREATE EXTERNAL SCHEMA.
-
Créez une vue matérialisée pour consommer les données de la rubrique. Utilisez une commande SQL telle que l’exemple suivant.
CREATE MATERIALIZED VIEW MyView AUTO REFRESH YES AS SELECT * FROM MySchema."mytopic";Les noms de rubrique Kafka sont sensibles à la casse et peuvent contenir des lettres majuscules et minuscules. Pour ingérer à partir de rubriques dont les noms sont en majuscules, vous pouvez définir la configuration
enable_case_sensitive_identifiersurtrueau niveau de la session ou de la base de données. Pour plus d’informations, consultez Noms et identificateurs et enable_case_sensitive_identifier.Pour activer l’actualisation automatique, utilisez
AUTO REFRESH YES. L’actualisation manuelle est le comportement par défaut. -
Les colonnes de métadonnées incluent ce qui suit :
Colonne de métadonnées Type de données Description kafka_partition bigint ID de partition de l’enregistrement issu de la rubrique Kafka kafka_offset bigint Décalage de l’enregistrement dans la rubrique Kafka pour une partition donnée kafka_timestamp_type char(1) Type d’horodatage utilisé dans l’enregistrement Kafka :
C – Enregistrer l’heure de création (CREATE_TIME) côté client
L – Enregistrer l’heure d’ajout (LOG_APPEND_TIME) côté serveur Kafka
U – Enregistrer l’heure de création indisponible (NO_TIMESTAMP_TYPE)
kafka_timestamp horodatage sans fuseau horaire Valeur timestamp de l’enregistrement kafka_key varbyte La clé de l’enregistrement de Kafka kafka_value varbyte L’enregistrement reçu de Kafka kafka_headers super L’en-tête de l’enregistrement reçu de Kafka refresh_time horodatage sans fuseau horaire L’heure de début de l’actualisation Il est important de noter que s’il existe une logique métier dans votre définition de vue matérialisée qui entraîne des erreurs de logique métier, cela peut entraîner des échecs d’ingestion en streaming dans certains cas. Cela peut vous amener à supprimer et recréer la vue matérialisée. Pour éviter cela, nous vous recommandons de simplifier votre logique métier et d’exécuter une logique supplémentaire sur les données après l’ingestion.
Actualisez la vue, ce qui appelle Amazon Redshift à lire à partir de la rubrique et à charger des données dans la vue matérialisée.
REFRESH MATERIALIZED VIEW MyView;Interrogez les données dans la vue matérialisée.
select * from MyView;La vue matérialisée est mise à jour directement à partir de la rubrique lorsque
REFRESHest exécuté. Vous créez une vue matérialisée qui se mappe à la source de données de la rubrique Kafka. Vous pouvez effectuer des filtrages et des agrégations sur les données dans le cadre de la définition de la vue matérialisée. Votre vue matérialisée de l’ingestion en streaming (la vue matérialisée de base) ne peut référencer qu’une seule rubrique Kafka. Toutefois, vous pouvez créer des vues matérialisées supplémentaires qui se joignent à la vue matérialisée de base et à d’autres vues ou tables matérialisées.
Pour plus d’informations sur les limites relatives à l’ingestion en streaming, consultez Comportement de l’ingestion en streaming et types de données.