Amazon Redshift non supporterà più la creazione di nuovi Python UDFs a partire dalla Patch 198. Python esistente UDFs continuerà a funzionare fino al 30 giugno 2026. Per ulteriori informazioni, consulta il post del blog
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Compressione dei file di dati
Si consiglia di comprimere file di caricamento di grandi dimensioni utilizzando gzip, lzop, bzip2 o Zstandard per comprimerli e dividere i dati in più file di dimensioni minori.
Specificate l'opzione GZIP, LZOP o ZSTD con il comando COPY. BZIP2 Questo esempio carica la tabella TIME da un file Izop delimitato da pipe.
copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';
Esistono casi in cui non è necessario dividere i file di dati non compressi. Per ulteriori informazioni sulla suddivisione dei dati e per esempi sull'utilizzo di COPY per caricare i dati, consultare Caricamento di dati da Amazon S3.