Amazon Redshift ne prendra plus en charge la création de nouveaux Python UDFs à compter du 1er novembre 2025. Si vous souhaitez utiliser Python UDFs, créez la version UDFs antérieure à cette date. Le Python existant UDFs continuera à fonctionner normalement. Pour plus d’informations, consultez le billet de blog
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
SVV_COPY_JOB_INTEGRATIONS
Utilisez SVV_COPY_JOB_INTEGRATIONS pour afficher les détails des intégrations d’événements S3.
Cette vue contient les intégrations d’événements S3 qui ont été créées.
SVV_COPY_JOB_INTEGRATIONS est visible par tous les utilisateurs. Les super-utilisateurs peuvent voir toutes les lignes, tandis que les utilisateurs standard peuvent voir uniquement leurs propres données. Pour plus d'informations, consultez Visibilité des données dans les tables et vues système.
Colonnes de la table
| Nom de la colonne | Type de données | Description |
|---|---|---|
| job_owner | entier | Identifiant du propriétaire de la tâche. |
| channel_arn | name | Identifiant d’intégration. |
| bucket | text | Le nom du compartiment Amazon S3 associé à l’intégration. |
| état du canal | name | État de l’intégration. Valeurs valides : Pending, Established et Inactive. |
| db_name | name | Nom de base de données de l’objet dépendant. |
| job_name | text | Nom de la tâche . |
| job_state | entier | État de la tâche. Valeurs valides : 0 pour une tâche active, 1 pour une tâche en attente. |
L’exemple suivant renvoie les intégrations S3 pour la base de données active.
SELECT * FROM SVV_COPY_JOB_INTEGRATIONS WHERE db_name = pg_catalog.current_database();