Modèles de fondation d’IA générative dans SageMaker Canvas - Amazon SageMaker AI

Modèles de fondation d’IA générative dans SageMaker Canvas

Amazon SageMaker Canvas fournit des modèles de fondation d’IA générative que vous pouvez utiliser pour lancer des discussions conversationnelles. Ces modèles de génération de contenu sont entraînés sur de grandes quantités de données texte pour apprendre les modèles statistiques et les relations entre les mots. Ils peuvent produire un texte cohérent statistiquement similaire au texte sur lequel ils ont été entraînés. Vous pouvez utiliser cette fonctionnalité pour augmenter votre productivité en effectuant les tâches suivantes :

  • Générer du contenu, tel que des plans de documents, des rapports et des blogs

  • Résumer du texte à partir de grands corps de textes, tels que des transcriptions de conférences téléphoniques, des rapports annuels ou des chapitres de manuels d'utilisation

  • Extraire des informations et des points à retenir de grands passages de texte, tels que des notes de réunion ou des récits

  • Améliorer le texte et détecter les erreurs grammaticales ou les fautes de frappe

Les modèles de fondation sont une combinaison des grands modèles de langage (LLM) Amazon SageMaker JumpStart et Amazon Bedrock. Canvas propose les modèles suivants :

Modèle Type Description

Amazon Titan

Modèle Amazon Bedrock

Amazon Titan est un modèle de langage puissant et polyvalent que vous pouvez utiliser pour des tâches telles que le résumé, la génération de texte (comme la création d'un billet de blog), la classification, les questions-réponses ouvertes et l'extraction d'informations. Il est pré-entraîné sur de grands jeux de données, ce qui le rend adapté aux tâches et aux raisonnements complexes. Pour continuer à prendre en charge les bonnes pratiques en matière d’utilisation responsable de l’IA, les modèles de fondation Amazon Titan sont conçus pour détecter et supprimer les contenus préjudiciables dans les données, rejeter les contenus inappropriés dans les entrées utilisateur et filtrer les résultats des modèles comportant des contenus inappropriés (tels que les discours de haine, le langage grossier et la violence).

Anthropic Claude Instant

Modèle Amazon Bedrock

Le modèle Claude Instant d'Anthropic est plus rapide et plus rentable tout en restant très performant. Ce modèle peut gérer une gamme de tâches, notamment le dialogue informel, l'analyse de texte, le résumé et la réponse aux questions sur des documents. Tout comme Claude-2, Claude Instant peut prendre en charge jusqu’à 100 000 jetons par invite, soit l’équivalent d’environ 200 pages d’informations.

Anthropic Claude-2

Modèle Amazon Bedrock

Claude-2 est le modèle le plus puissant d'Anthropic, qui excelle dans un large éventail de tâches, qu'il s'agisse de dialogues sophistiqués, de génération de contenu créatif ou de suivi d'instructions détaillées. Claude-2 peut prendre en charge jusqu'à 100 000 jetons par invite, soit l'équivalent d'environ 200 pages d'informations. Il peut générer des réponses plus longues par rapport à sa version précédente. Il prend en charge des cas d’utilisation tels que la réponse aux questions, l’extraction d’informations, la suppression d’informations personnelles identifiables, la génération de contenu, la classification à choix multiples, le jeu de rôle, la comparaison de texte, le résumé et les questions-réponses sur les documents avec citation.

Falcon-7B-Instruct

Modèle JumpStart

Falcon-7B-Instruct possède 7 milliards de paramètres et a été optimisé sur la base d’un mélange de jeux de données de chat et d’instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-40B-Instruct, le modèle Falcon-7B-Instruct est légèrement plus petit et plus compact.

Falcon-40B-Instruct

Modèle JumpStart

Falcon-40B-Instruct possède 40 milliards de paramètres et a été optimisé sur la base d’un mélange de jeux de données de chat et d’instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-7B-Instruct, le modèle Falcon-40B-Instruct est légèrement plus grand et plus puissant.

Jurassic-2 Mid

Modèle Amazon Bedrock

Jurassic-2 Mid est un modèle de génération de texte haute performance entraîné sur un corps de texte massif (à jour jusqu’à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d’autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1.

Le Jurassic-2 Mid est le modèle de taille moyenne d'AI21, soigneusement conçu pour trouver le juste équilibre entre qualité exceptionnelle et accessibilité.

Jurassic-2 Ultra

Modèle Amazon Bedrock

Jurassic-2 Ultra est un modèle de génération de texte haute performance entraîné sur un corps de texte massif (à jour jusqu’à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d’autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1.

Comparé à Jurassic-2 Mid, le modèle Jurassic-2 Ultra est légèrement plus grand et plus puissant.

Llama-2-7b-Chat

Modèle JumpStart

Llama-2-7b-Chat est un modèle de fondation développé par Meta qui permet d’engager des conversations cohérentes et pertinentes, de générer du contenu nouveau et d’extraire des réponses à partir de notes existantes. Étant donné que le modèle a été entraîné à partir d’une grande quantité de données Internet en anglais, il comporte les biais et les limites que l’on trouve couramment en ligne et est particulièrement adapté aux tâches en anglais.

Llama-2-13B-Chat

Modèle Amazon Bedrock

Llama-2-13B-Chat de Meta a été peaufiné sur les données conversationnelles après un entraînement initial sur les données Internet. Il est optimisé pour les dialogues naturels et les capacités de chat engageantes, ce qui le rend parfaitement adapté en tant qu’agent conversationnel. Comparé au plus petit Llama-2-7b-Chat, Llama-2-13B-Chat dispose de près de deux fois plus de paramètres, ce qui lui permet de mémoriser davantage de contexte et de produire des réponses conversationnelles plus nuancées. Tout comme Llama-2-7b-Chat, Llama-2-13B-Chat a été entraîné à partir de données en anglais et est particulièrement adapté aux tâches en anglais.

Llama-2-70B-Chat

Modèle Amazon Bedrock

Tout comme Llama-2-7b-Chat et Llama-2-13B-Chat, le modèle Llama-2-70B-Chat de Meta est optimisé pour engager des dialogues naturels et pertinents. Avec 70 milliards de paramètres, ce modèle conversationnel de grande taille peut mémoriser un contexte plus étendu et produire des réponses très cohérentes par rapport aux versions plus compactes du modèle. Cependant, cela se traduit par des réponses plus lentes et des besoins en ressources plus importants. Llama-2-70B-Chat a été entraîné à partir d’une grande quantité de données Internet en anglais et est particulièrement adapté aux tâches en anglais.

Mistral-7B

Modèle JumpStart

Mistral-7B de Mistral.AI est un excellent modèle de langage polyvalent, adapté à un large éventail de tâches de traitement du langage naturel (NLP), telles que la génération de texte, la synthèse et la réponse à des questions. Il utilise l’attention par requêtes groupées (GQA), qui permet d’augmenter les vitesses d’inférence, ce qui le rend comparable à des modèles comportant deux à trois fois plus de paramètres. Il a été entraîné à partir d’un mélange de données textuelles comprenant des livres, des sites Web et des articles scientifiques en anglais. Il est donc particulièrement adapté aux tâches en anglais.

Mistral-7B-Chat

Modèle JumpStart

Mistral-7B-Chat est un modèle conversationnel développé par Mistral.AI et basé sur Mistral-7B. Alors que Mistral-7B est idéal pour les tâches générales de traitement du langage naturel, Mistral-7B-Chat a été optimisé à partir de données conversationnelles afin de disposer de meilleures capacités pour des discussions naturelles et engageantes. Par conséquent, Mistral-7B-Chat génère des réponses plus humaines et mémorise le contexte des réponses précédentes. Comme Mistral-7B, ce modèle est particulièrement bien adapté aux tâches linguistiques en anglais.

MPT-7B-Instruct

Modèle JumpStart

MPT-7B-Instruct est un modèle pour les tâches de suivi d’instructions longues qui peut vous aider à rédiger des tâches, notamment à résumer des textes et à répondre aux questions, afin de vous faire gagner du temps et de l’énergie. Ce modèle a été entraîné sur de grandes quantités de données optimisées et peut gérer des entrées plus importantes, telles que des documents complexes. Utilisez ce modèle lorsque vous souhaitez traiter de grands corps de texte ou que vous souhaitez que le modèle génère de longues réponses.

Les modèles de fondation d’Amazon Bedrock ne sont actuellement disponibles que dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon). En outre, lorsque vous utilisez des modèles de fondation d'Amazon Bedrock, vous êtes facturé en fonction du volume de jetons d'entrée et de jetons de sortie, tel que spécifié par chaque fournisseur de modèle. Pour plus d’informations, consultez la page Tarification Amazon Bedrock. Les modèles de fondation JumpStart sont déployés sur les instances d’hébergement SageMaker AI et la durée d’utilisation vous est facturée en fonction du type d’instance utilisé. Pour plus d’informations sur le coût des différents types d’instances, consultez la section sur l’inférence en temps réel pour l’hébergement Amazon SageMaker AI sur la page de tarification de SageMaker.

L’interrogation de documents est une fonctionnalité supplémentaire que vous pouvez utiliser pour interroger et obtenir des informations à partir de documents stockés dans des index à l’aide d’Amazon Kendra. Grâce à cette fonctionnalité, vous pouvez générer du contenu à partir du contexte de ces documents et recevoir des réponses spécifiques à votre cas d’utilisation métier, par opposition à des réponses génériques aux grandes quantités de données sur lesquelles les modèles de fondation ont été entraînés. Pour plus d’informations sur les index dans Amazon Kendra, consultez le Guide du développeur Amazon Kendra.

Si vous souhaitez obtenir des réponses de l’un des modèles de fondation personnalisés en fonction de vos données et de votre cas d’utilisation, vous pouvez optimiser les modèles de fondation. Pour en savoir plus, consultez Peaufinage des modèles de fondation.

Si vous souhaitez obtenir des prédictions à partir d’un modèle de fondation Amazon SageMaker JumpStart via une application ou un site Web, vous pouvez déployer le modèle sur un point de terminaison SageMaker AI. Les points de terminaison SageMaker AI hébergent votre modèle, et vous pouvez envoyer des demandes au point de terminaison via le code de votre application pour recevoir des prédictions à partir du modèle. Pour plus d’informations, consultez Déploiement de vos modèles sur un point de terminaison.