Comment utiliser la fonction LangChain LLMChain en Python

Comment Utiliser La Fonction Langchain Llmchain En Python



LangChain a une pléthore de modules pour créer des applications de modèles de langage. Les applications peuvent être rendues plus compliquées en combinant des modules, ou elles peuvent être simplifiées en utilisant un seul module. L'appel d'un LLM sur une certaine entrée est le composant LangChain le plus essentiel.

Les chaînes ne fonctionnent pas uniquement pour un seul appel LLM ; ce sont des collections d'appels, soit à un LLM, soit à un autre utilitaire. Des chaînes de bout en bout pour les applications largement utilisées sont fournies par LangChain avec une API de chaîne standard et de nombreuses intégrations d'outils.

La flexibilité et la capacité de lier plusieurs éléments en une seule entité peuvent être utiles lorsque nous voulons concevoir une chaîne qui accepte les entrées de l'utilisateur, la configure à l'aide d'un PromptTemplate, puis transmet le résultat généré à un LLM.







Cet article vous aide à comprendre l'utilisation d'une fonction LangChain LLMchain en Python.



Exemple : Comment utiliser la fonction LLMchain dans LangChain

Nous avons parlé de ce que sont les chaînes. Nous allons maintenant voir une démonstration pratique de ces chaînes qui sont implémentées dans un script Python. Dans cet exemple, nous utilisons la chaîne LangChain la plus basique qui est LLMchain. Il contient un PromptTemplate et un LLM, et les enchaîne pour générer une sortie.



Pour commencer à implémenter le concept, nous devons installer certaines bibliothèques requises qui ne sont pas incluses dans la bibliothèque standard Python. Les bibliothèques que nous devons installer sont LangChain et OpenAI. Nous installons la bibliothèque LangChain car nous devons utiliser son module LLMchain ainsi que le PromptTemplate. La bibliothèque OpenAI nous permet d'utiliser les modèles d'OpenAI pour prédire les sorties, c'est-à-dire GPT-3.





Pour installer la bibliothèque LangChain, exécutez la commande suivante sur le terminal :

$ pip install langchain

Installez la bibliothèque OpenAI avec la commande suivante :



$ pip installer openai

Une fois les installations terminées, nous pouvons commencer à travailler sur le projet principal.

depuis langchain. instructions importer Modèle d'invite

depuis langchain. llms importer OpenAI

importer toi

toi . environ [ 'OPENAI_API_KEY' ] = 'sk-VOTRE CLÉ API'

Le projet principal commence par importer les modules nécessaires. Donc, nous importons d'abord le PromptTemplate depuis la bibliothèque 'langchain.prompts'. Ensuite, nous importons l'OpenAI depuis la bibliothèque « langchain.llms ». Ensuite, nous importons le 'os' pour définir la variable d'environnement.

Initialement, nous définissons la clé API OpenAI comme variable d'environnement. La variable d'environnement est une variable composée d'un nom et d'une valeur et définie sur notre système d'exploitation. Le 'os.environ' est un objet qui est utilisé pour mapper les variables d'environnement. Donc, nous appelons le 'os.environ'. Le nom que nous avons défini pour la clé API est OPENAI_API_KEY. Nous attribuons ensuite la clé API comme valeur. La clé API est unique pour chaque utilisateur. Ainsi, lorsque vous pratiquez ce script de code, écrivez votre clé API secrète.

llm = OpenAI ( température = 0,9 )

rapide = Modèle d'invite (

variables_d'entrée = [ 'des produits' ] ,

modèle = 'Comment s'appellerait une marque qui vend {produits} ?' ,

)

Maintenant que la clé est définie comme variable d'environnement, nous initialisons un wrapper. Réglez la température pour les modèles OpenAI GPT. La température est une caractéristique qui nous aide à déterminer à quel point la réponse sera imprévisible. Plus la température est élevée, plus les réponses sont erratiques. Nous fixons ici la valeur de température à 0,9. Ainsi, nous obtenons les résultats les plus aléatoires.

Ensuite, nous initialisons une classe PromptTemplate. Lorsque nous utilisons le LLM, nous générons une invite à partir de l'entrée qui est prise de l'utilisateur, puis la transmettons au LLM plutôt que d'envoyer l'entrée directement au LLM qui nécessite un codage en dur (une invite est une entrée que nous avons prise du utilisateur et sur lequel le modèle d'IA défini doit créer une réponse). Donc, nous initialisons le PromptTemplate. Ensuite, à l'intérieur de ses accolades, nous définissons la variable d'entrée comme 'Produits' et le texte du modèle est 'Comment s'appellerait une marque qui vend {produits} ?' L'entrée de l'utilisateur indique ce que fait la marque. Ensuite, il formate l'invite en fonction de ces informations.

depuis langchain. Chaînes importer LLMChain

chaîne = LLMChain ( llm = llm , rapide = rapide )

Maintenant que notre PromptTemplate est formaté, la prochaine étape consiste à créer une LLMchain. Tout d'abord, importez le module LLMchain depuis la bibliothèque « langchain.chain ». Ensuite, nous créons une chaîne en appelant la fonction LLMchain() qui prend l'entrée de l'utilisateur et formate l'invite avec celle-ci. Enfin, il envoie la réponse au LLM. Ainsi, il connecte le PromptTemplate et le LLM.

imprimer ( chaîne. courir ( 'Fournitures d'art' ) )

Pour exécuter la chaîne, nous appelons la méthode chain.run() et fournissons l'entrée de l'utilisateur comme paramètre défini comme 'Art Supplies'. Ensuite, nous passons cette méthode à la fonction Python print() pour afficher le résultat prévu sur la console Python.

Le modèle d'IA lit l'invite et fait une réponse basée sur celle-ci.

Puisque nous avons demandé de nommer une marque qui vend des fournitures d'art, le nom prédit par le modèle d'IA peut être vu dans l'instantané suivant :

Cet exemple nous montre le chaînage LLM lorsqu'une seule variable d'entrée est fournie. Ceci est également possible lors de l'utilisation de plusieurs variables. Pour cela, nous devons simplement créer un dictionnaire de variables pour les saisir ensemble. Voyons comment cela fonctionne :

depuis langchain. instructions importer Modèle d'invite

depuis langchain. llms importer OpenAI

importer toi

toi . environ [ 'OPENAI_API_KEY' ] = 'sk-Votre-API-KEY'

llm = OpenAI(température=0.9)

invite = InviteModèle(

variables_entrée=['
Marque ', ' Produit '],

modèle='
Quel serait le nom de { Marque } qui se vend { Produit } ? ',

)

de langchain.chains importer LLMChain

chain = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Marque': '
Fournitures d'art ',

'Produit': '
couleurs '

}))

Le code est le même que dans l'exemple précédent, sauf que nous devons passer deux variables dans la classe de modèle d'invite. Donc, créez un dictionnaire de input_variables. Les longues parenthèses représentent un dictionnaire. Ici, nous avons deux variables - 'Marque' et 'Produit' - qui sont séparées par une virgule. Maintenant, le modèle de texte que nous fournissons est 'Quel serait le nom de {Brand} qui vend {Product} ?' Ainsi, le modèle d'IA prédit un nom qui se concentre sur ces deux variables d'entrée.

Ensuite, nous créons une chaîne LLM qui formate l'entrée utilisateur avec l'invite d'envoyer la réponse à LLM. Pour exécuter cette chaîne, nous utilisons la méthode chain.run () et transmettons le dictionnaire de variables avec l'entrée utilisateur en tant que 'Marque': 'Fournitures d'art' et 'Produit' en tant que 'Couleurs'. Ensuite, nous passons cette méthode à la fonction Python print() pour afficher la réponse obtenue.

L'image de sortie montre le résultat prévu :

Conclusion

Les chaînes sont les éléments constitutifs de LangChain. Cet article passe en revue le concept d'utilisation de LLMchain dans LangChain. Nous avons fait une introduction à LLMchain et décrit la nécessité de les utiliser dans le projet Python. Ensuite, nous avons réalisé une illustration pratique qui démontre l'implémentation de la LLMchain en connectant le PromptTemplate et le LLM. Vous pouvez créer ces chaînes avec une seule variable d'entrée ainsi que plusieurs variables fournies par l'utilisateur. Les réponses générées à partir du modèle GPT sont également fournies.