Ejemplos y más información: usar algoritmo o modelo propio - Amazon SageMaker AI

Ejemplos y más información: usar algoritmo o modelo propio

En los siguientes ejemplos de blocs de notas se muestra cómo utilizar algoritmos o modelos preenrtenados propios desde una instancia de cuaderno de Amazon SageMaker. Para obtener enlaces a los repositorios de GitHub con los Dockerfiles precompilados para los marcos de trabajo TensorFlow, MXNet, Chainer y PyTorch e instrucciones sobre el uso de los estimadores de AWS SDK para Python (Boto3) para ejecutar sus propios algoritmos de entrenamiento en SageMaker AI Learner y sus propios modelos en alojamiento de SageMaker AI, consulte Imágenes de Docker de SageMaker AI precompiladas para aprendizaje profundo.

Configuración

  1. Cree una instancia de cuaderno de SageMaker. Para obtener instrucciones sobre cómo crear y obtener acceso a instancias de cuaderno de Jupyter, consulte Instancias de cuaderno de Amazon SageMaker.

  2. Abra la instancia de cuaderno creada.

  3. Seleccione la pestaña Ejemplos de SageMaker AI para ver una lista de todos los cuadernos de ejemplo de SageMaker AI.

  4. Abra los ejemplos de cuadernos desde la sección Advanced Functionality (Funcionalidad avanzada) de su instancia de cuaderno o desde GitHub con los enlaces facilitados. Para abrir un bloc de notas, elija su pestaña Usar y, a continuación, elija Crear copia.

Alojar modelos entrenados en Scikit-learn

Para obtener más información sobre cómo alojar modelos capacitados en Scikit-learn para realizar predicciones en SageMaker AI inyectándoles contenedores first-party k-means y XGBoost, consulte los siguientes cuadernos de ejemplo.

Empaquetado de modelos de TensorFlow y Scikit-learn para su uso en SageMaker AI

Para obtener más información sobre cómo empaquetar algoritmos desarrollados en marcos de trabajo de TensorFlow y scikit-learn para capacitación e implementación en el entorno de SageMaker AI, consulte los siguientes cuadernos. Muestran cómo crear, registrar e implementar sus propios contenedores de Docker mediante los Dockerfiles.

Entrenamiento e implementación de una red neuronal en SageMaker AI

Para obtener más información sobre cómo entrenar localmente una red neuronal con MXNet o TensorFlow y, a continuación crear un punto de conexión a partir del modelo capacitado e implementarlo en SageMaker AI, consulte los siguientes cuadernos. El modelo MXNet está capacitada para reconocer los números escritos a mano desde el conjunto de datos MNIST. El modelo de TensorFlow está capacitado para clasificar iris.

Entrenamiento en modo canalización

Para obtener información sobre cómo utilizar un Dockerfile para crear un contenedor que llame a train.py script y utilice un modo de canalización para entrenar de forma personalizada un algoritmo, consulte el siguiente cuaderno. En modo de canalización, los datos de entrada se transfieren al algoritmo mientras se capacita. Esto puede reducir el tiempo de capacitación en comparación con el uso del modo de archivo.

Aportar el modelo R propio

Para aprender a añadir una imagen R personalizada para crear y entrenar un modelo en un cuaderno AWS SMS, consulte la siguiente entrada del blog. Esta entrada de blog utiliza un ejemplo de Dockerfile R de una biblioteca de ejemplos de imágenes personalizadas de SageMaker AI Studio Classic.

Ampliar una imagen de contenedor precompilada

Para obtener más información sobre cómo ampliar una imagen de contenedor de PyTorch de SageMaker AI precompilada cuando tenga requisitos funcionales adicionales para su algoritmo o modelo que la imagen de Docker precompilada no admita, consulte el cuaderno siguiente.

Para obtener más información sobre cómo extender un contenedor, consulte Extender un contenedor precompilado.

Entrenar y depurar los trabajos de entrenamiento en un contenedor personalizado

Para aprender a entrenar y depurar trabajos de entrenamiento con SageMaker Debugger, consulte el siguiente cuaderno. Un script de entrenamiento proporcionado en este ejemplo usa el modelo TensorFlow Keras ResNet 50 y el conjunto de datos CIFAR10. Se crea un contenedor personalizado de Docker con el script de entrenamiento y se envía a Amazon ECR. Mientras se ejecuta el trabajo de entrenamiento, Debugger recopila los resultados de los tensores e identifica los problemas de depuración. Con las herramientas de la biblioteca del cliente smdebug, puede configurar un objeto de prueba smdebug que invoque el trabajo de entrenamiento y la información de depuración, comprobar el estado de las reglas de entrenamiento y depuración y recuperar los tensores guardados en un bucket de Amazon S3 para analizar los problemas de entrenamiento.