Options de déploiement de modèles dans Amazon SageMaker AI - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Options de déploiement de modèles dans Amazon SageMaker AI

Après avoir entraîné votre modèle de machine learning, vous pouvez le déployer à l’aide d’Amazon SageMaker AI afin d’obtenir des prédictions. Amazon SageMaker AI prend en charge les méthodes suivantes pour déployer un modèle et dépendent de votre cas d’utilisation :

SageMaker AI propose également des fonctions permettant de gérer les ressources et d’optimiser les performances d’inférence lors du déploiement de modèles de machine learning :

  • Pour gérer les modèles sur les appareils en périphérie afin de vous permettre d’optimiser, de sécuriser, de contrôler et de maintenir des modèles de machine learning sur des flottes d’appareils en périphérie, consultez Modélisez le déploiement à la périphérie avec SageMaker Edge Manager. Cela s’applique aux appareils en périphérie tels que les caméras intelligentes, les robots, les ordinateurs personnels et les appareils mobiles.

  • Pour optimiser les modèles Gluon, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite et ONNX pour l’inférence sur les machines Android, Linux et Windows basées sur des processeurs Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments et Xilinx, consultez Optimisation des performances des modèles avec SageMaker Neo.

Pour plus d’informations sur l’ensemble de ces options de déploiement, consultez Déploiement de modèles pour l'inférence.