Ce guide illustrera le processus d'utilisation d'un résumé de conversation dans LangChain.
Comment utiliser le résumé de la conversation dans LangChain ?
LangChain fournit des bibliothèques comme ConversationSummaryMemory qui peuvent extraire le résumé complet de la discussion ou de la conversation. Il peut être utilisé pour obtenir les principales informations de la conversation sans avoir à lire tous les messages et textes disponibles dans le chat.
Pour découvrir le processus d'utilisation du résumé de la conversation dans LangChain, suivez simplement les étapes suivantes :
Étape 1 : Installer les modules
Tout d’abord, installez le framework LangChain pour obtenir ses dépendances ou bibliothèques en utilisant le code suivant :
pip installer langchain
Maintenant, installez les modules OpenAI après avoir installé LangChain à l'aide de la commande pip :
pip installer openai
Après avoir installé les modules, il suffit mettre en place l'environnement en utilisant le code suivant après avoir obtenu la clé API du compte OpenAI :
importer toiimporter obtenir un laissez-passer
toi . environ [ 'OPENAI_API_KEY' ] = obtenir un laissez-passer . obtenir un laissez-passer ( « Clé API OpenAI : » )
Étape 2 : Utiliser le résumé de la conversation
Lancez-vous dans le processus d'utilisation du résumé de la conversation en important les bibliothèques depuis LangChain :
depuis chaîne de langue. mémoire importer ConversationRésuméMémoire , ChatMessageHistoriquedepuis chaîne de langue. llms importer OpenAI
Configurez la mémoire du modèle à l'aide des méthodes ConversationSummaryMemory() et OpenAI() et enregistrez-y les données :
mémoire = ConversationRésuméMémoire ( llm = OpenAI ( température = 0 ) )mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Salut' } )
Exécutez la mémoire en appelant le load_memory_variables() méthode pour extraire les données de la mémoire :
mémoire. load_memory_variables ( { } )
L'utilisateur peut également obtenir les données sous forme de conversation comme chaque entité avec un message distinct :
mémoire = ConversationRésuméMémoire ( llm = OpenAI ( température = 0 ) , return_messages = Vrai )mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Salut comment vas-tu' } )
Pour obtenir le message de l'IA et des humains séparément, exécutez la méthode load_memory_variables() :
mémoire. load_memory_variables ( { } )
Stockez le résumé de la conversation en mémoire puis exécutez la mémoire pour afficher le résumé du chat/conversation à l'écran :
messages = mémoire. chat_mémoire . messagesrésumé_précédent = ''
mémoire. prédire_nouveau_summary ( messages , résumé_précédent )
Étape 3 : Utiliser le résumé de la conversation avec les messages existants
L'utilisateur peut également obtenir le résumé de la conversation qui existe en dehors de la classe ou du chat en utilisant le message ChatMessageHistory(). Ces messages peuvent être ajoutés à la mémoire afin qu'elle puisse générer automatiquement le résumé de la conversation complète :
histoire = ChatMessageHistorique ( )histoire. add_user_message ( 'Salut' )
histoire. add_ai_message ( 'Salut!' )
Construisez le modèle tel que LLM en utilisant la méthode OpenAI() pour exécuter les messages existants dans le chat_mémoire variable:
mémoire = ConversationRésuméMémoire. from_messages (llm = OpenAI ( température = 0 ) ,
chat_mémoire = histoire ,
return_messages = Vrai
)
Exécutez la mémoire en utilisant le buffer pour obtenir le résumé des messages existants :
mémoire. tampon
Exécutez le code suivant pour créer le LLM en configurant la mémoire tampon à l'aide des messages de discussion :
mémoire = ConversationRésuméMémoire (llm = OpenAI ( température = 0 ) ,
tampon = '''L'humain interroge la machine sur lui-même
Le système répond que l'IA est conçue pour le bien car elle peut aider les humains à réaliser leur potentiel. ,
chat_mémoire = histoire ,
return_messages = Vrai
)
Étape 4 : Utiliser le résumé de la conversation dans la chaîne
L'étape suivante explique le processus d'utilisation du résumé de conversation dans une chaîne utilisant le LLM :
depuis chaîne de langue. llms importer OpenAIdepuis chaîne de langue. Chaînes importer Chaîne de conversations
llm = OpenAI ( température = 0 )
conversation_avec_summary = Chaîne de conversations (
llm = llm ,
mémoire = ConversationRésuméMémoire ( llm = OpenAI ( ) ) ,
verbeux = Vrai
)
conversation_avec_summary. prédire ( saisir = 'Bonjour comment allez-vous' )
Ici, nous avons commencé à construire des chaînes en commençant la conversation par une enquête courtoise :
Entrez maintenant dans la conversation en posant des questions un peu plus sur le dernier résultat pour le développer :
conversation_avec_summary. prédire ( saisir = 'Dis m'en plus sur le sujet!' )Le modèle a expliqué le dernier message avec une introduction détaillée à la technologie d'IA ou chatbot :
Extrayez un point d’intérêt de la sortie précédente pour orienter la conversation dans une direction spécifique :
conversation_avec_summary. prédire ( saisir = 'Incroyable. À quel point ce projet est-il bon ?' )Ici, nous obtenons des réponses détaillées du bot en utilisant la bibliothèque de mémoire de résumé de conversation :
Il s’agit d’utiliser le résumé de la conversation dans LangChain.
Conclusion
Pour utiliser le message récapitulatif de la conversation dans LangChain, installez simplement les modules et frameworks requis pour configurer l'environnement. Une fois l'environnement défini, importez le ConversationRésuméMémoire bibliothèque pour construire des LLM en utilisant la méthode OpenAI(). Après cela, utilisez simplement le résumé de la conversation pour extraire le résultat détaillé des modèles qui est le résumé de la conversation précédente. Ce guide a expliqué le processus d'utilisation de la mémoire de résumé de conversation à l'aide du module LangChain.