Configurazione del provider di modelli - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configurazione del provider di modelli

Nota

In questa sezione, diamo per scontato che i modelli linguistici e di embedding che intendi utilizzare siano già implementati. Per i modelli forniti daAWS, dovresti già disporre dell'ARN del tuo endpoint SageMaker AI o dell'accesso ad Amazon Bedrock. Per gli altri provider di modelli, devi disporre della chiave API utilizzata per autenticare e autorizzare le richieste nel modello.

Jupyter AI supporta un’ampia gamma di provider di modelli e modelli linguistici, consulta l’elenco dei modelli supportati per aggiornamenti sugli ultimi modelli disponibili. Per informazioni su come distribuire un modello fornito da JumpStart, consulta Deploy a Model nella documentazione. JumpStart Devi richiedere l’accesso ad Amazon Bedrock per utilizzarlo come provider di modelli.

La configurazione di Jupyter AI varia a seconda che si utilizzi l’interfaccia utente della chat o i comandi magic.

Configurazione del provider di modelli nell’interfaccia utente della chat

Nota

È possibile configurare diversi modelli LLMs e incorporarli seguendo le stesse istruzioni. Tuttavia, è necessario configurare almeno un modello linguistico.

Per configurare l’interfaccia utente della chat
  1. In JupyterLab, accedi all'interfaccia della chat selezionando l'icona della chat ( Icon of a rectangular shape with a curved arrow pointing to the upper right corner. ) nel pannello di navigazione a sinistra.

  2. Scegli l’icona di configurazione ( Gear or cog icon representing settings or configuration options. ) nell’angolo in alto a destra del riquadro a sinistra. Si apre il pannello di configurazione di Jupyter AI.

  3. Compila i campi relativi al provider di servizi.

L'istantanea seguente è un'illustrazione del pannello di configurazione dell'interfaccia utente della chat impostato per richiamare un modello FLAN-T5-small fornito e distribuito nell'intelligenza artificiale. JumpStart SageMaker

Pannello di configurazione dell'interfaccia utente della chat impostato per richiamare un modello FLAN-T5-small fornito da. JumpStart

Passaggio di ulteriori parametri del modello e di parametri personalizzati alla tua richiesta

Il tuo modello potrebbe aver bisogno di ulteriori parametri, ad esempio un attributo personalizzato per l’approvazione del contratto con l’utente o modifiche ad altri parametri del modello come la temperatura o la lunghezza della risposta. Consigliamo di configurare queste impostazioni come opzione di avvio dell'applicazione utilizzando una configurazione del ciclo di vita JupyterLab. Per informazioni su come creare una configurazione del ciclo di vita e collegarla al tuo dominio o a un profilo utente dalla console SageMaker AI, consulta Creare e associare una configurazione del ciclo di vita. Puoi scegliere lo script LCC quando crei uno spazio per la tua applicazione. JupyterLab

Utilizza il seguente schema JSON per configurare i parametri aggiuntivi:

{ "AiExtension": { "model_parameters": { "<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.} } } } }

Lo script seguente è un esempio di file di configurazione JSON che puoi utilizzare durante la creazione di un' JupyterLab applicazione LCC per impostare la lunghezza massima di un modello AI21 Labs Jurassic-2 distribuito su Amazon Bedrock. Se aumenti la lunghezza della risposta generata dal modello, potresti impedire il troncamento sistematico della risposta del modello.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}' # equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

Lo script seguente è un esempio di file di configurazione JSON per la creazione di un' JupyterLab applicazione LCC utilizzato per impostare parametri di modello aggiuntivi per un modello Anthropic Claude distribuito su Amazon Bedrock.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25 0,"max_tokens_to_sample":2}}}}}' # equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

Dopo aver collegato la scheda LCC al dominio o al profilo utente, aggiungi la scheda LCC al tuo spazio quando avvii l'applicazione. JupyterLab Per assicurarti che il file di configurazione venga aggiornato dalla LCC, esegui more ~/.jupyter/jupyter_jupyter_ai_config.json in un terminale. Il contenuto del file deve corrispondere al contenuto del file JSON passato alla LCC.

Configurazione del provider di modelli in un notebook

Per richiamare un modello tramite Jupyter AI all'interno dei notebook Studio Classic JupyterLab o utilizzando i comandi e magic %%ai%ai
  1. Installa le librerie client specifiche per il tuo provider di modelli nell’ambiente del notebook. Ad esempio, quando utilizzi modelli OpenAI, devi installare la libreria client openai. Puoi trovare l’elenco delle librerie client richieste per ogni provider nella colonna Pacchetti Python dell’elenco dei provider di modelli di Jupyter AI.

    Nota

    Per i modelli ospitati daAWS, boto3 è già installato nell'immagine SageMaker AI Distribution utilizzata da o in qualsiasi immagine Data JupyterLab Science utilizzata con Studio Classic.

    • Per i modelli ospitati da AWS

      Assicurati che il tuo ruolo di esecuzione sia autorizzato a richiamare il tuo endpoint SageMaker AI per i modelli forniti da Amazon Bedrock JumpStart o che tu abbia accesso ad Amazon Bedrock.

    • Per i modelli ospitati da provider di terze parti

      Esporta la chiave API del tuo provider nell’ambiente del notebook utilizzando le variabili di ambiente. Puoi utilizzare il comando magic seguente. Sostituisci provider_API_key nel comando con la variabile di ambiente corrispondente al tuo provider, disponibile nella colonna Variabile di ambiente dell’elenco dei provider di modelli di Jupyter AI.

      %env provider_API_key=your_API_key