लैंगचेन में एलएलएम और एलएलएमचेन कैसे बनाएं?

Laingacena Mem Ela Ela Ema Aura Ela Ela Emacena Kaise Bana Em



लैंगचेन मानव-जैसी भाषाओं में मॉडल बनाने के लिए प्राकृतिक भाषा प्रसंस्करण या एनएलपी डोमेन में एप्लिकेशन के साथ ढांचा है। इन मॉडलों का उपयोग मानव द्वारा मॉडल से उत्तर प्राप्त करने या किसी अन्य मानव की तरह बातचीत करने के लिए किया जा सकता है। लैंगचेन का उपयोग बातचीत में प्रत्येक वाक्य को संग्रहीत करके और इसे संदर्भ के रूप में उपयोग करके आगे बातचीत करके श्रृंखला बनाने के लिए किया जाता है।

यह पोस्ट लैंगचेन में एलएलएम और एलएलएमचेन के निर्माण की प्रक्रिया का वर्णन करेगी।







लैंगचेन में एलएलएम और एलएलएमचेन कैसे बनाएं?

लैंगचेन में एलएलएम और एलएलएमचेन बनाने के लिए, बस सूचीबद्ध चरणों से गुजरें:



चरण 1: मॉड्यूल स्थापित करें

सबसे पहले, LLM और LLMChain के निर्माण के लिए इसकी लाइब्रेरी का उपयोग करने के लिए लैंगचेन मॉड्यूल स्थापित करें:



पाइप लैंगचैन स्थापित करें





एलएलएम बनाने के लिए आवश्यक एक अन्य मॉड्यूल ओपनएआई है, और इसे पिप कमांड का उपयोग करके स्थापित किया जा सकता है:

पिप इंस्टाल ओपनाई



चरण 2: एक वातावरण स्थापित करें

अपने परिवेश से OpenAI API कुंजी का उपयोग करके एक परिवेश स्थापित करें:

हमें आयात करें
आयात getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API कुंजी:')

उदाहरण 1: लैंगचेन का उपयोग करके एलएलएम बनाएं

पहला उदाहरण OpenAI और ChatOpenAI लाइब्रेरीज़ को आयात करके और llm() फ़ंक्शन का उपयोग करके लैंगचेन का उपयोग करके बड़े भाषा मॉडल का निर्माण करना है:

चरण 1: एलएलएम चैट मॉडल का उपयोग करना

लैंगचेन से ओपनएआई वातावरण का उपयोग करके एक सरल एलएलएम बनाने के लिए ओपनएआई और चैटओपनएआई मॉड्यूल आयात करें:

langchan.chat_models से ChatOpenAI आयात करें

langchan.llms से OpenAI आयात करें

एलएलएम = ओपनएआई()
चैट_मॉडल = चैटओपनएआई()
एलएलएम.भविष्यवाणी('हाय!')

मॉडल ने 'हाय' उत्तर दिया है जैसा कि नीचे दिए गए स्क्रीनशॉट में दिखाया गया है:

चैट_मॉडल से पूर्वानुमान () फ़ंक्शन का उपयोग मॉडल से उत्तर या उत्तर प्राप्त करने के लिए किया जाता है:

चैट_मॉडल.भविष्यवाणी('हाय!')

आउटपुट प्रदर्शित करता है कि मॉडल प्रश्न पूछने वाले उपयोगकर्ता के निपटान में है:

चरण 2: टेक्स्ट क्वेरी का उपयोग करना

उपयोगकर्ता टेक्स्ट वेरिएबल में पूरा वाक्य देकर मॉडल से उत्तर भी प्राप्त कर सकता है:

टेक्स्ट = 'रंग-बिरंगे मोज़े बनाने वाली कंपनी का अच्छा नाम क्या होगा?'

एलएलएम.भविष्यवाणी(पाठ)

मॉडल ने रंगीन मोज़ों के लिए कई रंग संयोजन प्रदर्शित किए हैं:

मोज़े के रंग संयोजन के साथ पूर्वानुमान () फ़ंक्शन का उपयोग करके मॉडल से विस्तृत उत्तर प्राप्त करें:

चैट_मॉडल.भविष्यवाणी(पाठ)

चरण 3: सामग्री के साथ पाठ का उपयोग करना

उपयोगकर्ता उत्तर के बारे में थोड़ी व्याख्या के साथ उत्तर प्राप्त कर सकता है:

langchan.schema से ह्यूमनमैसेज आयात करें

टेक्स्ट = 'रंगीन कपड़े बनाने वाली कंपनी के लिए अच्छा शीर्षक क्या होगा'
संदेश = [मानव संदेश(सामग्री=पाठ)]

एलएलएम.भविष्यवाणी_संदेश(संदेश)

मॉडल ने कंपनी के लिए शीर्षक तैयार किया है जो 'क्रिएटिव क्लोदिंग कंपनी' है:

कंपनी के शीर्षक का उत्तर इसके स्पष्टीकरण के साथ पाने के लिए संदेश का पूर्वानुमान लगाएं:

चैट_मॉडल.भविष्यवाणी_संदेश(संदेश)

उदाहरण 2: लैंगचेन का उपयोग करके एलएलएमचेन बनाएं

हमारे गाइड का दूसरा उदाहरण पिछले उदाहरण के सभी चरणों को संयोजित करने के लिए मानव संपर्क के प्रारूप में मॉडल प्राप्त करने के लिए एलएलएमसीचेन का निर्माण करता है:

langchan.chat_models से ChatOpenAI आयात करें
langchan.prompts.chat से ChatPromptTemplate आयात करें
langchan.prompts.chat से ChatPromptTemplate आयात करें
langchan.prompt.chat से आयात करें SystemMessagePromptTemplate
langchain.चेन से LLMChain आयात करें
langchan.schema से आयात BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def पार्स (स्वयं, पाठ: str):
वापसी text.strip().split(', ')

चैट मॉडल की कार्यप्रणाली का विस्तृत विवरण देकर उसके लिए टेम्प्लेट बनाएं और फिर LLM, आउटपुट पार्सर और चैट_प्रॉम्प्ट लाइब्रेरीज़ वाले LLMChain() फ़ंक्शन का निर्माण करें:

template = '''आपको अल्पविराम से अलग की गई सूचियाँ बनाने में सहायता करनी होगी
उपयोगकर्ता से श्रेणी प्राप्त करें, और पांच वस्तुओं के साथ अल्पविराम से अलग की गई सूची तैयार करें
श्रेणी''' से केवल वस्तु ही वस्तु होनी चाहिए
system_message_prompt = SystemMessagePromptTemplate.from_template(टेम्पलेट)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template( human_template)
#क्वेरी की संरचना के साथ LLMChain कॉन्फ़िगर करें
चैट_प्रॉम्प्ट = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
श्रृंखला = एलएलएमचेन(
एलएलएम=चैटओपनएआई(),
प्रॉम्प्ट=चैट_प्रॉम्प्ट,
आउटपुट_पार्सर=CommaSeparatedListOutputParser()
)
चेन.रन('रंग')

मॉडल ने रंगों की सूची के साथ उत्तर प्रदान किया है क्योंकि श्रेणी में प्रॉम्प्ट में दी गई केवल 5 वस्तुएं होनी चाहिए:

यह सब लैंगचेन में एलएलएम और एलएलएमचेन के निर्माण के बारे में है।

निष्कर्ष

लैंगचेन का उपयोग करके एलएलएम और एलएलएमचेन बनाने के लिए, बस इसकी एपीआई कुंजी का उपयोग करके एक वातावरण स्थापित करने के लिए लैंगचेन और ओपनएआई मॉड्यूल स्थापित करें। उसके बाद, संपूर्ण चैट के लिए एकल क्वेरी के लिए प्रॉम्प्ट टेम्पलेट बनाने के बाद चैट_मॉडल का उपयोग करके एलएलएम मॉडल बनाएं। LLMChain का उपयोग बातचीत में सभी टिप्पणियों की श्रृंखला बनाने और उन्हें बातचीत के संदर्भ के रूप में उपयोग करने के लिए किया जाता है। यह पोस्ट लैंगचेन ढांचे का उपयोग करके एलएलएम और एलएलएमचेन के निर्माण की प्रक्रिया को दर्शाती है।