Comment utiliser le résumé de la conversation dans LangChain ?

Comment Utiliser Le Resume De La Conversation Dans Langchain



LangChain est le framework qui peut être utilisé pour créer des modèles de langage en utilisant la quantité massive d'ensembles de données de formation construits en langages naturels. LangChain fournit les bibliothèques et les dépendances qui peuvent être utilisées pour créer et gérer des chatbots et des modèles de langage tels que les LLM. Ces modèles sont principalement considérés comme des machines permettant d'avoir une conversation avec ou d'extraire des informations en fonction d'invites écrites dans des langages humains.

Ce guide illustrera le processus d'utilisation d'un résumé de conversation dans LangChain.

Comment utiliser le résumé de la conversation dans LangChain ?

LangChain fournit des bibliothèques comme ConversationSummaryMemory qui peuvent extraire le résumé complet de la discussion ou de la conversation. Il peut être utilisé pour obtenir les principales informations de la conversation sans avoir à lire tous les messages et textes disponibles dans le chat.







Pour découvrir le processus d'utilisation du résumé de la conversation dans LangChain, suivez simplement les étapes suivantes :



Étape 1 : Installer les modules

Tout d’abord, installez le framework LangChain pour obtenir ses dépendances ou bibliothèques en utilisant le code suivant :



pip installer langchain





Maintenant, installez les modules OpenAI après avoir installé LangChain à l'aide de la commande pip :

pip installer openai



Après avoir installé les modules, il suffit mettre en place l'environnement en utilisant le code suivant après avoir obtenu la clé API du compte OpenAI :

importer toi

importer obtenir un laissez-passer

toi . environ [ 'OPENAI_API_KEY' ] = obtenir un laissez-passer . obtenir un laissez-passer ( « Clé API OpenAI : » )

Étape 2 : Utiliser le résumé de la conversation

Lancez-vous dans le processus d'utilisation du résumé de la conversation en important les bibliothèques depuis LangChain :

depuis chaîne de langue. mémoire importer ConversationRésuméMémoire , ChatMessageHistorique

depuis chaîne de langue. llms importer OpenAI

Configurez la mémoire du modèle à l'aide des méthodes ConversationSummaryMemory() et OpenAI() et enregistrez-y les données :

mémoire = ConversationRésuméMémoire ( llm = OpenAI ( température = 0 ) )

mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Salut' } )

Exécutez la mémoire en appelant le load_memory_variables() méthode pour extraire les données de la mémoire :

mémoire. load_memory_variables ( { } )

L'utilisateur peut également obtenir les données sous forme de conversation comme chaque entité avec un message distinct :

mémoire = ConversationRésuméMémoire ( llm = OpenAI ( température = 0 ) , return_messages = Vrai )

mémoire. sauvegarder_contexte ( { 'saisir' : 'Bonjour' } , { 'sortir' : 'Salut comment vas-tu' } )

Pour obtenir le message de l'IA et des humains séparément, exécutez la méthode load_memory_variables() :

mémoire. load_memory_variables ( { } )

Stockez le résumé de la conversation en mémoire puis exécutez la mémoire pour afficher le résumé du chat/conversation à l'écran :

messages = mémoire. chat_mémoire . messages

résumé_précédent = ''

mémoire. prédire_nouveau_summary ( messages , résumé_précédent )

Étape 3 : Utiliser le résumé de la conversation avec les messages existants

L'utilisateur peut également obtenir le résumé de la conversation qui existe en dehors de la classe ou du chat en utilisant le message ChatMessageHistory(). Ces messages peuvent être ajoutés à la mémoire afin qu'elle puisse générer automatiquement le résumé de la conversation complète :

histoire = ChatMessageHistorique ( )

histoire. add_user_message ( 'Salut' )

histoire. add_ai_message ( 'Salut!' )

Construisez le modèle tel que LLM en utilisant la méthode OpenAI() pour exécuter les messages existants dans le chat_mémoire variable:

mémoire = ConversationRésuméMémoire. from_messages (
llm = OpenAI ( température = 0 ) ,
chat_mémoire = histoire ,
return_messages = Vrai
)

Exécutez la mémoire en utilisant le buffer pour obtenir le résumé des messages existants :

mémoire. tampon

Exécutez le code suivant pour créer le LLM en configurant la mémoire tampon à l'aide des messages de discussion :

mémoire = ConversationRésuméMémoire (
llm = OpenAI ( température = 0 ) ,
tampon = '''L'humain interroge la machine sur lui-même
Le système répond que l'IA est conçue pour le bien car elle peut aider les humains à réaliser leur potentiel.
,
chat_mémoire = histoire ,
return_messages = Vrai
)

Étape 4 : Utiliser le résumé de la conversation dans la chaîne

L'étape suivante explique le processus d'utilisation du résumé de conversation dans une chaîne utilisant le LLM :

depuis chaîne de langue. llms importer OpenAI
depuis chaîne de langue. Chaînes importer Chaîne de conversations
llm = OpenAI ( température = 0 )
conversation_avec_summary = Chaîne de conversations (
llm = llm ,
mémoire = ConversationRésuméMémoire ( llm = OpenAI ( ) ) ,
verbeux = Vrai
)
conversation_avec_summary. prédire ( saisir = 'Bonjour comment allez-vous' )

Ici, nous avons commencé à construire des chaînes en commençant la conversation par une enquête courtoise :

Entrez maintenant dans la conversation en posant des questions un peu plus sur le dernier résultat pour le développer :

conversation_avec_summary. prédire ( saisir = 'Dis m'en plus sur le sujet!' )

Le modèle a expliqué le dernier message avec une introduction détaillée à la technologie d'IA ou chatbot :

Extrayez un point d’intérêt de la sortie précédente pour orienter la conversation dans une direction spécifique :

conversation_avec_summary. prédire ( saisir = 'Incroyable. À quel point ce projet est-il bon ?' )

Ici, nous obtenons des réponses détaillées du bot en utilisant la bibliothèque de mémoire de résumé de conversation :

Il s’agit d’utiliser le résumé de la conversation dans LangChain.

Conclusion

Pour utiliser le message récapitulatif de la conversation dans LangChain, installez simplement les modules et frameworks requis pour configurer l'environnement. Une fois l'environnement défini, importez le ConversationRésuméMémoire bibliothèque pour construire des LLM en utilisant la méthode OpenAI(). Après cela, utilisez simplement le résumé de la conversation pour extraire le résultat détaillé des modèles qui est le résumé de la conversation précédente. Ce guide a expliqué le processus d'utilisation de la mémoire de résumé de conversation à l'aide du module LangChain.