Ce guide illustrera le processus d'utilisation d'un tampon de jeton de conversation dans LangChain.
Comment utiliser un tampon de jeton de conversation dans LangChain ?
Le ConversationTokenBufferMemory La bibliothèque peut être importée du framework LangChain pour stocker les messages les plus récents dans la mémoire tampon. Les jetons peuvent être configurés pour limiter le nombre de messages stockés dans le tampon et les messages précédents seront automatiquement vidés.
Pour découvrir le processus d'utilisation du tampon de jeton de conversation dans LangChain, utilisez le guide suivant :
Étape 1 : Installer les modules
Tout d'abord, installez le framework LangChain contenant tous les modules requis à l'aide de la commande pip :
pip installer langchain
Maintenant, installez le module OpenAI pour créer les LLM et les chaînes à l'aide de la méthode OpenAI() :
pip installer openai
Après avoir installé les modules, utilisez simplement la clé API d'OpenAI pour mettre en place l'environnement en utilisant les bibliothèques os et getpass :
importer toiimporter obtenir un laissez-passer
toi . environ [ 'OPENAI_API_KEY' ] = obtenir un laissez-passer . obtenir un laissez-passer ( « Clé API OpenAI : » )
Étape 2 : Utilisation de la mémoire tampon des jetons de conversation
Construisez les LLM à l'aide de la méthode OpenAI() après avoir importé le ConversationTokenBufferMemory bibliothèque du framework LangChain :
depuis chaîne de langue. mémoire importer ConversationTokenBufferMemorydepuis chaîne de langue. llms importer OpenAI
llm = OpenAI ( )
Configurez la mémoire pour définir le jeton, elle vide les anciens messages et les stocke dans la mémoire tampon. Après cela, stockez les messages de la conversation et récupérez les plus récents pour les utiliser comme contexte :
mémoire = ConversationTokenBufferMemory ( llm = llm , max_token_limit = dix )mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Comment allez-vous' } )
mémoire. sauvegarder_contexte ( { 'saisir' : 'Je suis bon et toi' } , { 'sortir' : 'pas beaucoup' } )
Exécutez la mémoire pour récupérer les données stockées dans la mémoire tampon à l'aide de la méthode load_memory_variables() :
mémoire. load_memory_variables ( { } )
Étape 3 : Utilisation de la mémoire tampon des jetons de conversation dans une chaîne
Construisez les chaînes en configurant le Chaîne de conversation() méthode avec plusieurs arguments pour utiliser la mémoire tampon du jeton de conversation :
depuis chaîne de langue. Chaînes importer Chaîne de conversationsconversation_avec_summary = Chaîne de conversations (
llm = llm ,
mémoire = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
verbeux = Vrai ,
)
conversation_avec_summary. prédire ( saisir = 'Salut, ça va?' )
Maintenant, lancez la conversation en posant des questions à l’aide des invites écrites en langage naturel :
conversation_avec_summary. prédire ( saisir = 'Je travaille juste sur le projet NLP' )
Obtenez le résultat des données stockées dans la mémoire tampon en utilisant le nombre de jetons :
conversation_avec_summary. prédire ( saisir = 'Je travaille juste sur la conception de LLM' )
Le tampon continue de se mettre à jour à chaque nouvelle entrée car les messages précédents sont régulièrement vidés :
conversation_avec_summary. prédire (saisir = 'LLM utilisant LangChain ! En avez-vous entendu parler'
)
Il s’agit d’utiliser le tampon de jeton de conversation dans LangChain.
Conclusion
Pour utiliser le tampon de jetons de conversation dans LangChain, installez simplement les modules pour configurer l'environnement à l'aide de la clé API du compte OpenAI. Après cela, importez la bibliothèque ConversationTokenBufferMemory à l'aide du module LangChain pour stocker la conversation dans le tampon. La mémoire tampon peut être utilisée en chaîne pour vider les anciens messages avec chaque nouveau message dans le chat. Cet article a expliqué l'utilisation de la mémoire tampon des jetons de conversation dans LangChain.