Supervisión del progreso en todas las iteraciones - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Supervisión del progreso en todas las iteraciones

Puede realizar un seguimiento de las métricas mediante MLflow.

Crea una MLflow aplicación

Uso de la interfaz de usuario de Studio: si creas un trabajo de formación a través de la interfaz de usuario de Studio, se crea automáticamente una MLflow aplicación predeterminada que se selecciona de forma predeterminada en Opciones avanzadas.

Uso de la CLI: si usa la CLI, debe crear una MLflow aplicación y pasarla como entrada a la solicitud de API del trabajo de capacitación.

mlflow_app_name="<enter your MLflow app name>" role_arn="<enter your role ARN>" bucket_name="<enter your bucket name>" region="<enter your region>" mlflow_app_arn=$(aws sagemaker create-mlflow-app \ --name $mlflow_app_name \ --artifact-store-uri "s3://$bucket_name" \ --role-arn $role_arn \ --region $region)

Acceda a la MLflow aplicación

Uso de CLI: cree una URL prefirmada para acceder a la interfaz de usuario de la MLflow aplicación:

aws sagemaker create-presigned-mlflow-app-url \ --arn $mlflow_app_arn \ --region $region \ --output text

Uso de la interfaz de usuario de Studio: la interfaz de usuario de Studio muestra las métricas clave almacenadas en la interfaz de usuario de la MLflow aplicación MLflow y proporciona un enlace a ella.

Métricas clave para realizar un seguimiento

Supervisa estas métricas en todas las iteraciones para evaluar la mejora y hacer un seguimiento del progreso del trabajo:

Para SFT

  • Curvas de pérdidas por entrenamiento

  • Número de muestras consumidas y tiempo de procesamiento

  • Precisión del rendimiento en equipos de prueba retenidos

  • Cumplimiento del formato (por ejemplo, velocidad de salida JSON válida)

  • Perplejidad en torno a los datos de evaluación de dominios específicos

Para RFT

  • Puntuaciones medias de recompensa durante el entrenamiento

  • Distribución de las recompensas (porcentaje de respuestas con altas recompensas)

  • Tendencias de recompensas por validación (ten cuidado con las sobreajustadas)

  • Tasas de éxito de tareas específicas (p. ej., tasa de aprobación de la ejecución de código, precisión de los problemas matemáticos)

General

  • Deltas de rendimiento comparativas entre iteraciones

  • Puntuaciones de evaluación humana en muestras representativas

  • Métricas de producción (si se despliegan de forma iterativa)

Determinar cuándo parar

Deje de iterar cuando:

  • Niveles de rendimiento: la formación adicional ya no mejora significativamente las métricas objetivo

  • El cambio de técnica ayuda: si una técnica se estanca, intenta cambiar (p. ej., SFT → RFT → SFT) para superar los límites de rendimiento

  • Métricas objetivo alcanzadas: se cumplen sus criterios de éxito

  • Regresión detectada: las nuevas iteraciones reducen el rendimiento (consulte los procedimientos de reversión que aparecen a continuación)

Para obtener información detallada sobre los procedimientos de evaluación, consulte la sección Evaluación.