Comment créer du LLM et du LLMChain dans LangChain ?

Comment Creer Du Llm Et Du Llmchain Dans Langchain



LangChain est le framework avec l'application dans le domaine du traitement du langage naturel ou NLP pour créer des modèles dans des langages de type humain. Ces modèles peuvent être utilisés par les humains pour obtenir des réponses du modèle ou avoir une conversation comme n’importe quel autre humain. LangChain est utilisé pour créer des chaînes en stockant chaque phrase de la conversation et en interagissant davantage en l'utilisant comme contexte.

Cet article illustrera le processus de création de LLM et LLMChain dans LangChain.







Comment créer du LLM et du LLMChain dans LangChain ?

Pour créer LLM et LLMChain dans LangChain, suivez simplement les étapes répertoriées :



Étape 1 : Installer les modules

Tout d'abord, installez le module LangChain pour utiliser ses bibliothèques pour créer des LLM et LLMChain :



pip installer langchain





Un autre module requis pour créer des LLM est OpenAI, et il peut être installé à l'aide de la commande pip :

pip installer openai



Étape 2 : Configurer un environnement

Configurez un environnement à l'aide de la clé API OpenAI depuis son environnement :

importez-nous
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Clé API OpenAI :')

Exemple 1 : créer des LLM à l'aide de LangChain

Le premier exemple consiste à créer les grands modèles de langage à l'aide de LangChain en important les bibliothèques OpenAI et ChatOpenAI et en utilisant la fonction llm() :

Étape 1 : Utilisation du modèle de discussion LLM

Importez les modules OpenAI et ChatOpenAI pour créer un LLM simple à l'aide de l'environnement OpenAI de LangChain :

depuis langchain.chat_models importer ChatOpenAI

à partir de langchain.llms, importer OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('salut!')

Le modèle a répondu par la réponse « salut », comme indiqué dans la capture d'écran suivante ci-dessous :

La fonction prédire() du chat_model est utilisée pour obtenir la réponse ou la réponse du modèle :

chat_model.predict('salut!')

Le résultat indique que le modèle est à la disposition de l'utilisateur posant des requêtes :

Étape 2 : Utiliser la requête de texte

L'utilisateur peut également obtenir des réponses du modèle en donnant la phrase complète dans la variable texte :

text = 'Quel serait un bon nom pour une entreprise qui fabrique des chaussettes colorées ?'

llm.predict(texte)

Le modèle a affiché plusieurs combinaisons de couleurs pour des chaussettes colorées :

Obtenez la réponse détaillée du modèle en utilisant la fonction prédire() avec les combinaisons de couleurs pour les chaussettes :

chat_model.predict(texte)

Étape 3 : Utiliser du texte avec du contenu

L'utilisateur peut obtenir la réponse avec une petite explication sur la réponse :

à partir de langchain.schema importer HumanMessage

text = 'Quel serait un bon titre pour une entreprise fabriquant des vêtements colorés'
messages = [Message humain (content=texte)]

llm.predict_messages(messages)

Le modèle a généré le titre de l’entreprise qui est « Creative Clothing Co » :

Prédisez le message pour obtenir la réponse pour le titre de l'entreprise avec son explication également :

chat_model.predict_messages(messages)

Exemple 2 : créer LLMChain à l'aide de LangChain

Le deuxième exemple de notre guide construit le LLMChain pour obtenir le modèle au format d'interaction humaine afin de combiner toutes les étapes de l'exemple précédent :

depuis langchain.chat_models importer ChatOpenAI
à partir de langchain.prompts.chat importer ChatPromptTemplate
à partir de langchain.prompts.chat importer ChatPromptTemplate
à partir de langchain.prompts.chat importer SystemMessagePromptTemplateà partir de langchain.prompts.chat importer HumanMessagePromptTemplate
à partir de langchain.chains importer LLMChain
à partir de langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser (BaseOutputParser) :

def parse (soi, texte : str) :
retourner text.strip().split(', ')

Construisez le modèle pour le modèle de chat en donnant une explication détaillée de son fonctionnement, puis construisez la fonction LLMChain() contenant les bibliothèques LLM, l'analyseur de sortie et chat_prompt :

template = '''Vous devez aider à générer des listes séparées par des virgules
Obtenez la catégorie de l'utilisateur et générez une liste de cinq objets séparés par des virgules
La seule chose devrait être l'objet de la catégorie '''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{texte}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configurer LLMChain avec la structure de la requête
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
chaîne = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('couleurs')

Le modèle a fourni la réponse avec la liste des couleurs car la catégorie ne doit contenir que 5 objets indiqués dans l'invite :

Il s’agit de construire le LLM et le LLMChain dans LangChain.

Conclusion

Pour créer le LLM et LLMChain à l'aide de LangChain, installez simplement les modules LangChain et OpenAI pour configurer un environnement à l'aide de sa clé API. Après cela, créez le modèle LLM à l'aide de chat_model après avoir créé le modèle d'invite pour une seule requête vers une discussion complète. LLMChain est utilisé pour créer des chaînes de toutes les observations de la conversation et les utiliser comme contexte de l'interaction. Cet article illustre le processus de création de LLM et LLMChain à l'aide du framework LangChain.