Tipos de instancias y marcos compatibles - Amazon SageMaker AI

Tipos de instancias y marcos compatibles

Amazon SageMaker Neo es compatible con los marcos de aprendizaje profundo más populares tanto para la compilación como para la implementación. Puede implementar el modelo en las instancias de nubes o en los tipos de instancia de AWS Inferentia.

A continuación se describen los marcos compatibles con SageMaker Neo y las instancias de nube de destino en las que puede compilar e implementar. Para obtener información sobre cómo implementar su modelo compilado en una instancia de nube o de Inferentia, consulte Implementación de un modelo con instancias de nube.

Instancias en la nube

Sagemaker Neo es compatible con los siguientes marcos de aprendizaje profundo para las instancias de nube de CPU y GPU:

Marcos Versión de marco Versión del modelo Modelos Formatos de modelo (empaquetados en *.tar.gz) Kits de herramientas
MXNet 1.8.0 Compatible con 1.8.0 o versiones anteriores Clasificación de imágenes, detección de objetos, segmentación semántica, estimación de poses, reconocimiento de actividades Un archivo de símbolos (.json) y un archivo de parámetros (.params) GluonCV v0.8.0
ONNX 1.7.0 Compatible con 1.7.0 o versiones anteriores Clasificación de imágenes, SVM Un archivo de modelos (.onnx)
Keras 2.2.4 Compatible con 2.2.4 o versiones anteriores Clasificación de imágenes Un archivo de definición de modelo (.h5)
PyTorch 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 o 2.0 Compatible con 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 y 2.0

Clasificación de imágenes

Las versiones 1.13 y 2.0 son compatibles con detección de objetos, Vision Transformer y HuggingFace

Un archivo de definición de modelo (.pt o.pth) con la entrada dtype de float32
TensorFlow 1.15.3 o 2.9 Compatible con 1.15.3 y 2.9 Clasificación de imágenes

En el caso de los modelos guardados, un archivo .pb o .pbtxt y un directorio de variables que contiene variables

En el caso de los modelos congelados, un solo archivo .pb o .pbtxt

XGBoost 1.3.3 Compatible con 1.3.3 o versiones anteriores Árboles de decisión Un archivo de modelo de XGBoost (.model) en el que el número de nodos de un árbol es inferior a 2^31
nota

La “versión del modelo” es la versión del marco utilizada para formar y exportar el modelo.

Tipos de instancias

Puede implementar su modelo compilado de SageMaker AI en una de las instancias de nube que se indican a continuación:

instancia Tipo de computación

ml_c4

Estándar

ml_c5

Estándar

ml_m4

Estándar

ml_m5

Estándar

ml_p2

Computación acelerada

ml_p3

Computación acelerada

ml_g4dn

Computación acelerada

Para obtener información sobre vCPU, memoria y precio por hora disponibles para cada tipo de instancia, consulte los precios de Amazon SageMaker.

nota

Al compilar instancias ml_* con el marco PyTorch, use el campo de Opciones del compilador en Configuración de salida para proporcionar el tipo de datos correcto (dtype) de la entrada del modelo.

El valor predeterminado se establece en "float32".

Inferentia AWS

Sagemaker Neo es compatible con los siguientes marcos de aprendizaje profundo para Inf1:

Marcos Versión de marco Versión del modelo Modelos Formatos de modelo (empaquetados en *.tar.gz) Kits de herramientas
MXNet 1.5 o 1.8 Compatible con 1.8, 1.5 y versiones anteriores Clasificación de imágenes, detección de objetos, segmentación semántica, estimación de poses, reconocimiento de actividades Un archivo de símbolos (.json) y un archivo de parámetros (.params) GluonCV v0.8.0
PyTorch 1.7, 1.8 o 1.9 Compatible con 1.9 y versiones anteriores Clasificación de imágenes Un archivo de definición de modelo (.pt o.pth) con la entrada dtype de float32
TensorFlow 1.15 o 2.5 Compatible con 2.5, 1.15 y versiones anteriores Clasificación de imágenes

En el caso de los modelos guardados, un archivo .pb o .pbtxt y un directorio de variables que contiene variables

En el caso de los modelos congelados, un solo archivo .pb o .pbtxt

nota

La “versión del modelo” es la versión del marco utilizada para formar y exportar el modelo.

Puede implementar su modelo compilado por Sagemaker NEO en instancias Inf1 de Amazon EC2 basadas en Inferencia AWS. AWS Inferentia es el primer chip de silicio personalizado de Amazon diseñado para acelerar el aprendizaje profundo. Actualmente, puede usar la instancia ml_inf1 para implementar sus modelos compilados.

Inferentia2 AWS y Trainium AWS

Actualmente, puede implementar su modelo compilado por Sagemaker NEO en instancias Amazon EC2 Inf2 basadas en Inferentia2 AWS (en la región Este de EE. UU. (Ohio)) y en instancias Amazon EC2 Trn basadas en Trainium AWS (en la región Este de EE. UU. (Norte de Virginia)). Para obtener más información sobre los modelos compatibles con estas instancias, consulte las Pautas de ajuste de la arquitectura de modelos en la documentación de Neuron AWS y los ejemplos del repositorio de Github de Neuron.