लैंगचेन में वार्तालाप टोकन बफ़र का उपयोग कैसे करें?

Laingacena Mem Vartalapa Tokana Bafara Ka Upayoga Kaise Karem



लैंगचेन डेवलपर्स को मशीन लर्निंग या डीप लर्निंग का उपयोग करके मॉडल बनाने में सक्षम बनाता है जो डेटासेट का उपयोग करके मॉडल को प्रशिक्षित कर सकता है। ये मॉडल डेटा से अलग-अलग पैटर्न प्राप्त कर सकते हैं या जानकारी निकालने के लिए डेटासेट के रूप और उसकी भाषा को समझ सकते हैं। बड़े भाषा मॉडल या एलएलएम को लैंगचेन फ्रेमवर्क का उपयोग करके कॉन्फ़िगर या डिज़ाइन किया जा सकता है जो प्राकृतिक भाषाओं में पाठ को समझ और उत्पन्न कर सकता है।

यह मार्गदर्शिका लैंगचेन में वार्तालाप टोकन बफ़र का उपयोग करने की प्रक्रिया का वर्णन करेगी।

लैंगचेन में वार्तालाप टोकन बफ़र का उपयोग कैसे करें?

कन्वर्सेशनटोकनबफरमेमोरी बफर मेमोरी में नवीनतम संदेशों को संग्रहीत करने के लिए लाइब्रेरी को लैंगचेन फ्रेमवर्क से आयात किया जा सकता है। बफ़र में संग्रहीत संदेशों की संख्या को सीमित करने के लिए टोकन को कॉन्फ़िगर किया जा सकता है और पहले के संदेश स्वचालित रूप से फ्लश हो जाएंगे।







लैंगचेन में वार्तालाप टोकन बफर का उपयोग करने की प्रक्रिया सीखने के लिए, निम्नलिखित गाइड का उपयोग करें:



चरण 1: मॉड्यूल स्थापित करें

सबसे पहले, पाइप कमांड का उपयोग करके सभी आवश्यक मॉड्यूल वाले लैंगचेन फ्रेमवर्क स्थापित करें:



पाइप लैंगचैन स्थापित करें





अब, OpenAI() विधि का उपयोग करके एलएलएम और चेन बनाने के लिए OpenAI मॉड्यूल स्थापित करें:

पिप इंस्टाल ओपनाई



मॉड्यूल स्थापित करने के बाद, बस OpenAI की एपीआई कुंजी का उपयोग करें पर्यावरण स्थापित करें ओएस और गेटपास लाइब्रेरी का उपयोग करना:

आयात आप

आयात पास ले लो

आप . लगभग [ 'OPENAI_API_KEY' ] = पास ले लो . पास ले लो ( 'ओपनएआई एपीआई कुंजी:' )

चरण 2: वार्तालाप टोकन बफ़र मेमोरी का उपयोग करना

आयात करने के बाद OpenAI() विधि का उपयोग करके एलएलएम बनाएं कन्वर्सेशनटोकनबफरमेमोरी लैंगचेन फ्रेमवर्क से लाइब्रेरी:

से लैंगचैन. याद आयात कन्वर्सेशनटोकनबफरमेमोरी

से लैंगचैन. एलएमएस आयात ओपनएआई

एलएलएम = ओपनएआई ( )

टोकन सेट करने के लिए मेमोरी को कॉन्फ़िगर करें, यह पुराने संदेशों को फ्लश करता है और उन्हें बफर मेमोरी में संग्रहीत करता है। उसके बाद, वार्तालाप के संदेशों को संग्रहीत करें और उन्हें संदर्भ के रूप में उपयोग करने के लिए नवीनतम संदेश प्राप्त करें:

याद = कन्वर्सेशनटोकनबफरमेमोरी ( एलएलएम = एलएलएम , अधिकतम_टोकन_सीमा = 10 )

याद। save_context ( { 'इनपुट' : 'नमस्ते' } , { 'आउटपुट' : 'आप कैसे हैं' } )

याद। save_context ( { 'इनपुट' : 'मैं तुम्हारे बारे में अच्छा सोचता हूं' } , { 'आउटपुट' : 'ज्यादा नहीं' } )

Load_memory_variables() विधि का उपयोग करके बफर मेमोरी में संग्रहीत डेटा प्राप्त करने के लिए मेमोरी को निष्पादित करें:

याद। लोड_मेमोरी_वेरिएबल्स ( { } )

चरण 3: एक श्रृंखला में वार्तालाप टोकन बफर मेमोरी का उपयोग करना

को कॉन्फ़िगर करके श्रृंखलाएँ बनाएँ वार्तालाप श्रृंखला() वार्तालाप टोकन बफ़र मेमोरी का उपयोग करने के लिए एकाधिक तर्कों वाली विधि:

से लैंगचैन. चेन आयात वार्तालाप शृंखला

बातचीत_साथ_सारांश = वार्तालाप शृंखला (
एलएलएम = एलएलएम ,
याद = कन्वर्सेशनटोकनबफरमेमोरी ( एलएलएम = ओपनएआई ( ) , अधिकतम_टोकन_सीमा = 60 ) ,
वाचाल = सत्य ,
)
बातचीत_साथ_सारांश. भविष्यवाणी करना ( इनपुट = 'नमस्ते क्या हुआ?' )

अब, प्राकृतिक भाषा में लिखे संकेतों का उपयोग करके प्रश्न पूछकर बातचीत शुरू करें:

बातचीत_साथ_सारांश. भविष्यवाणी करना ( इनपुट = 'बस एनएलपी प्रोजेक्ट पर काम कर रहा हूं' )

टोकन की संख्या का उपयोग करके बफर मेमोरी में संग्रहीत डेटा से आउटपुट प्राप्त करें:

बातचीत_साथ_सारांश. भविष्यवाणी करना ( इनपुट = 'बस एलएलएम डिजाइन करने पर काम कर रहा हूं' )

बफ़र प्रत्येक नए इनपुट के साथ अद्यतन होता रहता है क्योंकि पिछले संदेश नियमित रूप से फ़्लश किए जा रहे हैं:

बातचीत_साथ_सारांश. भविष्यवाणी करना (

इनपुट = 'एलएलएम लैंगचेन का उपयोग कर रहा है! क्या आपने इसके बारे में सुना है'

)

यह सब लैंगचेन में वार्तालाप टोकन बफर का उपयोग करने के बारे में है।

निष्कर्ष

लैंगचेन में वार्तालाप टोकन बफर का उपयोग करने के लिए, बस ओपनएआई खाते से एपीआई कुंजी का उपयोग करके पर्यावरण स्थापित करने के लिए मॉड्यूल स्थापित करें। उसके बाद, बातचीत को बफर में संग्रहीत करने के लिए लैंगचेन मॉड्यूल का उपयोग करके कन्वर्सेशनटोकनबफ़रमेमोरी लाइब्रेरी को आयात करें। चैट में प्रत्येक नए संदेश के साथ पुराने संदेशों को फ्लश करने के लिए बफर मेमोरी का उपयोग एक श्रृंखला में किया जा सकता है। इस पोस्ट में लैंगचेन में वार्तालाप टोकन बफर मेमोरी का उपयोग करने के बारे में विस्तार से बताया गया है।