Amazon Redshift dejará de admitir la creación de nuevas UDF de Python a partir del parche 198. Las UDF de Python existentes seguirán funcionando hasta el 30 de junio de 2026. Para obtener más información, consulte la publicación del blog
Compresión de los archivos de datos
Recomendamos que, cuando desee comprimir archivos de carga grandes, utilice gzip, lzop, bzip2 o Zstandard para comprimirlos y divida los datos en varios archivos más pequeños.
Especifique la opción GZIP, LZOP, BZIP2 o ZSTD con el comando COPY. En este ejemplo, se carga la tabla TIME desde un archivo lzop delimitado por la barra vertical.
copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';
Hay instancias en las que no necesita dividir los archivos de datos sin comprimir. Para obtener más información sobre cómo dividir los datos y ejemplos de uso del comando COPY para cargar datos, consulte Carga de datos desde Amazon S3.