Opzioni di implementazione dei modelli in Amazon SageMaker AI - Amazon SageMaker AI

Opzioni di implementazione dei modelli in Amazon SageMaker AI

Dopo aver addestrato il tuo modello di machine learning, puoi implementarlo utilizzando Amazon SageMaker AI per effettuare previsioni. Amazon SageMaker AI supporta i seguenti modi per implementare un modello, a seconda del caso d’uso:

SageMaker AI fornisce anche funzionalità per la gestione delle risorse e l’ottimizzazione delle prestazioni di inferenza durante l’implementazione di modelli di machine learning:

  • Per gestire modelli su dispositivi edge in modo da ottimizzare, proteggere, monitorare e mantenere modelli di machine learning su parchi di dispositivi edge, consulta Implementazione di modelli in posizione edge con SageMaker Edge Manager. Questo vale per i dispositivi edge come fotocamere intelligenti, robot, personal computer e dispositivi mobili.

  • Per ottimizzare i modelli Gluon, Keras, MXNet, PyTorch, TensorFlow, Tensorflow-Lite e ONNX per l'inferenza su macchine Android, Linux e Windows basate su processori Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments e Xilinx, consulta Ottimizzazione delle prestazioni dei modelli con SageMaker Neo.

Per ulteriori informazioni su tutte le opzioni di implementazione, consulta Implementa modelli per l'inferenza.