Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Opciones de implementación de modelos en Amazon SageMaker AI
Después de entrenar el modelo de machine learning, puede implementarlo con Amazon SageMaker AI para obtener predicciones. Amazon SageMaker AI admite las siguientes maneras de implementar un modelo, en función de su caso de uso:
-
Para los puntos de conexión persistentes y en tiempo real que realizan una predicción a la vez, utilice los servicios de alojamiento en tiempo real de SageMaker AI. Consulte Inferencia en tiempo real.
-
Utilice Inferencia sin servidor para las cargas de trabajo que tienen períodos de inactividad entre picos de tráfico y que pueden tolerar los arranques en frío. Consulte Implemente modelos con Amazon SageMaker Serverless Inference.
-
Las solicitudes con cargas útiles grandes de hasta 1 GB, los tiempos de procesamiento prolongados y los requisitos de latencia prácticamente en tiempo real utilizan la inferencia asíncrona de Amazon SageMaker. Consulte Inferencia asíncrona.
-
Para obtener predicciones para todo un conjunto de datos completo, use transformaciones por lotes de SageMaker AI. Consulte Transformación por lotes para inferencias con Amazon AI SageMaker .
SageMaker AI proporciona características que permiten administrar recursos y optimizar el rendimiento de las inferencias a la hora de implementar modelos de machine learning:
-
Para administrar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de machine learning en flotas de dispositivos periféricos, consulte Modele la implementación en la periferia con SageMaker Edge Manager. Esto se aplica a dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.
-
Para optimizar Gluon, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite y ONNX para la inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments y Xilinx, consulte Optimización del rendimiento de los modelos con SageMaker Neo.
Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.