Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Evaluación y comparación de los modelos de clasificación SageMaker JumpStart de textos de Amazon
SageMaker La IA JumpStart ofrece varios modelos de clasificación de texto que clasifican el texto en clases predefinidas. Estos modelos gestionan tareas como el análisis de opiniones, la clasificación de temas y la moderación del contenido. La elección del modelo adecuado para la producción requiere una evaluación cuidadosa que utilice métricas clave, como la precisión, la puntuación F1 y el coeficiente de correlación de Matthews (MCC).
En esta guía, va a:
Implemente varios modelos de clasificación de textos (DisTilbert y BERT) del catálogo. JumpStart
Realizar evaluaciones exhaustivas de conjuntos de datos equilibrados, sesgados y complejos.
Interpretar métricas avanzadas, como las puntuaciones del coeficiente de correlación de Matthews (MCC) y de las características operativas del receptor Área bajo la curva.
Tomar decisiones sobre la selección de modelos basados en datos utilizando marcos de comparación sistemáticos.
Configure las implementaciones de producción con monitoreo y autoescalamiento CloudWatch .
Descargue el marco de evaluación completo: JumpStart Model Evaluation Package. El paquete incluye resultados previos a la ejecución con ejemplos de resultados para que pueda obtener una vista previa del proceso de evaluación y las métricas antes de implementar los modelos usted mismo.
Requisitos previos
Antes de comenzar, asegúrese de que dispone de lo siguiente:
Conocimientos básicos sobre Python
Comprensión de los conceptos de clasificación de textos
Tiempo y costo: 45 minutos en total. Los costes varían en función del tipo de instancia y de la duración del uso. Consulta los precios de SageMaker IA
Este tutorial incluye instrucciones de step-by-step limpieza para ayudarte a eliminar todos los recursos y evitar cargos continuos.