Selección e implementación de modelos de clasificación de textos - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Selección e implementación de modelos de clasificación de textos

Implemente dos modelos de clasificación de textos para compararlos: DistilBERT Base Cased y BERT Base Uncased. Verá las diferencias entre estos modelos y los implementará con la configuración de instancias adecuada.

Por qué estos dos modelos

Estos modelos son la elección típica a la que se enfrentan los clientes en producción al valorar el rendimiento y el costo:

  • BERT Base Uncased: es más grande y más preciso, pero es más lento y consume más recursos.

  • DistilBERT Base Cased: es más pequeño, rápido y rentable, pero potencialmente menos preciso.

Esta comparación le ayuda a elegir el modelo adecuado para sus necesidades específicas.

Comprensión de los nombres de los modelos en el catálogo

Los nombres de los modelos de clasificación de texto del catálogo tienen los siguientes componentes:

  • BERT: Bidirectional Encoder Representations from Transformers (representaciones codificadoras bidireccionales de transformadores)

  • L-X_H-Y_A-Z es la estructura del modelo, donde:

    • L-X: número de capas (X)

    • H-Y: tamaño oculto (Y)

    • A-Z: número de cabezas de atención (Z)

  • Small/Base/Large: Tamaño y complejidad del modelo.

  • Uncased/Cased: configuración de la distinción entre mayúsculas y minúsculas

Ejemplo: Small BERT L-2_H-128_A-2 es un modelo BERT pequeño (small) con:

  • 2 capas

  • 128 unidades ocultas

  • 2 cabezas de atención

Acceda al catálogo JumpStart de modelos

Navegue hasta los modelos de clasificación de texto del JumpStart catálogo.

  1. Abre SageMaker AI Studio

  2. En el panel de navegación izquierdo, elija JumpStart.

  3. En la JumpStart página, selecciona Hugging Face.

  4. Haga clic en Clasificación de texto.

Debería ver una lista de los modelos de clasificación de texto disponibles en el catálogo, incluidas las variantes DistilBERT y BERT.

Implementación de DistilBERT Base Cased

Implemente el modelo DistilBERT con la configuración predeterminada.

  1. En la lista de modelos, busque y seleccione DistilBERT Base Cased (de distilbert).

  2. En la página de detalles del modelo, deje el tipo de instancia predeterminado.

  3. Mantenga todas las demás configuraciones predeterminadas y elija Implementar.

  4. Espere entre 5 y 10 minutos a que se complete la implementación.

  5. Para comprobar que la implementación se ha realizado correctamente, vaya a Implementaciones y, luego, Puntos de conexión.

  6. Confirme que el punto de conexión de DistilBERT tenga el estado InService.

Implementación de BERT Base Uncased

Implemente el modelo BERT para compararlo con el modelo DistilBERT.

  1. Regrese a los modelos JumpStart de clasificación de texto de Hugging Face en.

  2. Busque y escoja BERT Base Uncased (de google-bert).

  3. Deje el tipo de instancia predeterminado y seleccione Implementar.

  4. Para confirmar ambas implementaciones, compruebe que ambos puntos de conexión muestren el estado InService en la lista de puntos de conexión.

Ambos modelos aparecen en la lista de puntos de conexión con el estado InService.

importante

Copie y guarde los nombres de los puntos de conexión. Los necesitará para el proceso de evaluación.

Resolución de problemas

Si tiene problemas de implementación, haga lo siguiente:

  • En el caso de errores de tipo de instancia, compruebe que está utilizando el tipo de instancia predeterminado y no instancias de CPU como ml.m5.large.

  • Si no encuentra modelos, busque con los nombres exactos de los modelos e incluya el nombre del publicador entre paréntesis.

  • Si las implementaciones fallan, consulte el estado del servicio en su región o pruebe con otra región.

Cuando el modelo muestre el estado InService, continúe con el paso Evaluación y comparación del rendimiento del modelo para evaluar el modelo implementado.