Comment utiliser un tampon de jeton de conversation dans LangChain ?

Comment Utiliser Un Tampon De Jeton De Conversation Dans Langchain



LangChain permet aux développeurs de créer des modèles à l'aide de l'apprentissage automatique ou de l'apprentissage profond qui peuvent former des modèles à l'aide des ensembles de données. Ces modèles peuvent obtenir différents modèles à partir des données ou comprendre la forme de l'ensemble de données et son langage pour extraire des informations. Les grands modèles linguistiques ou LLM peuvent être configurés ou conçus à l'aide des frameworks LangChain qui peuvent comprendre et générer du texte dans des langues naturelles.

Ce guide illustrera le processus d'utilisation d'un tampon de jeton de conversation dans LangChain.

Comment utiliser un tampon de jeton de conversation dans LangChain ?

Le ConversationTokenBufferMemory La bibliothèque peut être importée du framework LangChain pour stocker les messages les plus récents dans la mémoire tampon. Les jetons peuvent être configurés pour limiter le nombre de messages stockés dans le tampon et les messages précédents seront automatiquement vidés.







Pour découvrir le processus d'utilisation du tampon de jeton de conversation dans LangChain, utilisez le guide suivant :



Étape 1 : Installer les modules

Tout d'abord, installez le framework LangChain contenant tous les modules requis à l'aide de la commande pip :



pip installer langchain





Maintenant, installez le module OpenAI pour créer les LLM et les chaînes à l'aide de la méthode OpenAI() :

pip installer openai



Après avoir installé les modules, utilisez simplement la clé API d'OpenAI pour mettre en place l'environnement en utilisant les bibliothèques os et getpass :

importer toi

importer obtenir un laissez-passer

toi . environ [ 'OPENAI_API_KEY' ] = obtenir un laissez-passer . obtenir un laissez-passer ( « Clé API OpenAI : » )

Étape 2 : Utilisation de la mémoire tampon des jetons de conversation

Construisez les LLM à l'aide de la méthode OpenAI() après avoir importé le ConversationTokenBufferMemory bibliothèque du framework LangChain :

depuis chaîne de langue. mémoire importer ConversationTokenBufferMemory

depuis chaîne de langue. llms importer OpenAI

llm = OpenAI ( )

Configurez la mémoire pour définir le jeton, elle vide les anciens messages et les stocke dans la mémoire tampon. Après cela, stockez les messages de la conversation et récupérez les plus récents pour les utiliser comme contexte :

mémoire = ConversationTokenBufferMemory ( llm = llm , max_token_limit = dix )

mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Comment allez-vous' } )

mémoire. sauvegarder_contexte ( { 'saisir' : 'Je suis bon et toi' } , { 'sortir' : 'pas beaucoup' } )

Exécutez la mémoire pour récupérer les données stockées dans la mémoire tampon à l'aide de la méthode load_memory_variables() :

mémoire. load_memory_variables ( { } )

Étape 3 : Utilisation de la mémoire tampon des jetons de conversation dans une chaîne

Construisez les chaînes en configurant le Chaîne de conversation() méthode avec plusieurs arguments pour utiliser la mémoire tampon du jeton de conversation :

depuis chaîne de langue. Chaînes importer Chaîne de conversations

conversation_avec_summary = Chaîne de conversations (
llm = llm ,
mémoire = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
verbeux = Vrai ,
)
conversation_avec_summary. prédire ( saisir = 'Salut, ça va?' )

Maintenant, lancez la conversation en posant des questions à l’aide des invites écrites en langage naturel :

conversation_avec_summary. prédire ( saisir = 'Je travaille juste sur le projet NLP' )

Obtenez le résultat des données stockées dans la mémoire tampon en utilisant le nombre de jetons :

conversation_avec_summary. prédire ( saisir = 'Je travaille juste sur la conception de LLM' )

Le tampon continue de se mettre à jour à chaque nouvelle entrée car les messages précédents sont régulièrement vidés :

conversation_avec_summary. prédire (

saisir = 'LLM utilisant LangChain ! En avez-vous entendu parler'

)

Il s’agit d’utiliser le tampon de jeton de conversation dans LangChain.

Conclusion

Pour utiliser le tampon de jetons de conversation dans LangChain, installez simplement les modules pour configurer l'environnement à l'aide de la clé API du compte OpenAI. Après cela, importez la bibliothèque ConversationTokenBufferMemory à l'aide du module LangChain pour stocker la conversation dans le tampon. La mémoire tampon peut être utilisée en chaîne pour vider les anciens messages avec chaque nouveau message dans le chat. Cet article a expliqué l'utilisation de la mémoire tampon des jetons de conversation dans LangChain.