

 Amazon Redshift dejará de admitir la creación de nuevas UDF de Python a partir del parche 198. Las UDF de Python existentes seguirán funcionando hasta el 30 de junio de 2026. Para obtener más información, consulte la [publicación del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

# Carga de tablas con el comando COPY
<a name="t_Loading_tables_with_the_COPY_command"></a>

El comando COPY utiliza la arquitectura de procesamiento masivo en paralelo (MPP) de Amazon Redshift para leer y cargar datos en paralelo desde archivos de Amazon S3, desde una tabla de DynamoDB o desde un texto de salida de uno o más alojamientos remotos.

Antes de obtener información sobre todas las opciones del comando COPY, le recomendamos que obtenga información sobre las opciones básicas para cargar datos de Amazon S3. La *Guía de introducción de Amazon Redshift* muestra un uso sencillo del comando COPY para cargar datos de Amazon S3 mediante un rol de IAM predeterminado. Consulte [Paso 4: Carga de datos desde Amazon S3 a Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/rs-gsg-create-sample-db.html) para obtener más información.

**nota**  
Le recomendamos encarecidamente que use el comando COPY para cargar grandes cantidades de datos. El uso de instrucciones INSERT individuales para completar una tabla podría ser prohibitivamente lento. O bien, si los datos ya existen en otras tablas de la base de datos de Amazon Redshift, puede utilizar INSERT INTO… SELECT o CREATE TABLE AS para mejorar el rendimiento. Para obtener información, consulte [INSERT](r_INSERT_30.md) o [CREATE TABLE AS](r_CREATE_TABLE_AS.md).

Para cargar datos desde otro recurso de AWS, Amazon Redshift debe tener permiso para acceder al recurso y realizar las acciones necesarias. 

Para otorgar o revocar el privilegio de carga de datos en una tabla mediante una instrucción COPY, otorgue o revoque el privilegio INSERT.

Los datos deben tener el formato correcto para cargase en la tabla de Amazon Redshift. En esta sección, se presentan las directrices para preparar y controlar sus datos antes de la carga y para validar una instrucción COPY antes de ejecutarla.

Para proteger la información en los archivos, puede cifrar los archivos de datos antes de cargarlos al bucket de Amazon S3; COPY descifrará los datos a medida que realice la carga. También puede otorgarles a los usuarios credenciales de seguridad temporales para limitar su acceso a los datos cargados. Las credenciales de seguridad temporales proporcionan mayor seguridad debido a su breve vigencia y al hecho de que no se pueden reutilizar cuando vencen.

Amazon Redshift tiene características integradas en COPY para cargar datos delimitados y sin comprimir de forma rápida. No obstante, puede comprimir sus archivos utilizando los formatos gzip, lzop o bzip2 para ahorrar tiempo cuando cargue los archivos.

No se admitirá la división automática de datos sin comprimir si las siguientes palabras clave aparecen en la consulta COPY: ESCAPE, REMOVEQUOTES y FIXEDWIDTH. Pero sí se admite la palabra clave CSV.

Para ayudar a mantener la protección de los datos en tránsito en la nube de AWS, Amazon Redshift utiliza la tecnología SSL con aceleración por hardware para comunicarse con Amazon S3 o Amazon DynamoDB en las operaciones de COPY, UNLOAD, copia de seguridad y restauración.

Si carga una tabla directamente desde una tabla de Amazon DynamoDB, puede optar por controlar la cantidad de rendimiento aprovisionado por Amazon DynamoDB que se va a consumir.

De forma alternativa, puede permitirle a COPY que analice los datos de entrada y aplique las codificaciones de compresión óptimas a su tabla de manera automática, como parte del proceso de carga.

**Topics**
+ [Credenciales y permisos de acceso](loading-data-access-permissions.md)
+ [Preparación de los datos de entrada](t_preparing-input-data.md)
+ [Carga de datos desde Amazon S3](t_Loading-data-from-S3.md)
+ [Carga de datos desde Amazon EMR](loading-data-from-emr.md)
+ [Carga de datos desde hosts remotos](loading-data-from-remote-hosts.md)
+ [Carga de datos desde una tabla de Amazon DynamoDB](t_Loading-data-from-dynamodb.md)
+ [Comprobación de carga correcta de datos](verifying-that-data-loaded-correctly.md)
+ [Validación de datos de entrada](t_Validating_input_files.md)
+ [Carga de tablas con compresión automática](c_Loading_tables_auto_compress.md)
+ [Optimización del almacenamiento para tablas angostas](c_load_compression_hidden_cols.md)
+ [Carga de valores de columna predeterminados](c_loading_default_values.md)
+ [Solución de problemas en cargas de datos](t_Troubleshooting_load_errors.md)