एक चैटबॉट को विशेष रूप से कंपनी के आंतरिक, अक्सर अपडेट किए जाने वाले ज्ञान आधार के आधार पर प्रश्नों का उत्तर देना चाहिए, न कि उसके सामान्य पूर्व-प्रशिक्षित ज्ञान के आधार पर।
→Retrieval-Augmented Generation (RAG) पैटर्न लागू करें। प्रासंगिक दस्तावेज़ों को पुनः प्राप्त करने के लिए Azure AI Search का उपयोग करें और उन्हें एक Azure OpenAI मॉडल को संदर्भ के रूप में पास करें ताकि एक ग्राउंडेड उत्तर उत्पन्न किया जा सके।
क्यों: RAG महंगा रीट्रेनिंग के बिना मॉडल को विशिष्ट, वर्तमान डेटा में ग्राउंड करता है, मतिभ्रम को कम करता है और एक विश्वसनीय स्रोत से तथ्यात्मक सटीकता सुनिश्चित करता है।
एक डेवलपर को GPT मॉडल की आवश्यकता है जो एक विशिष्ट प्रारूप (जैसे, JSON) में प्रतिक्रिया दे।
→फ़्यू-शॉट प्रॉम्प्टिंग का उपयोग करें। वास्तविक अनुरोध से पहले प्रॉम्प्ट में सीधे वांछित इनपुट-आउटपुट प्रारूप के 2-3 उदाहरण प्रदान करें।
क्यों: फ़्यू-शॉट प्रॉम्प्टिंग इन-कॉन्टेक्स्ट उदाहरणों के माध्यम से मॉडल के व्यवहार और आउटपुट संरचना को निर्देशित करता है, जो फाइन-ट्यूनिंग से तेज़ और सस्ता है।
एक बहु-चरण तर्क समस्या (जैसे, एक गणित शब्द समस्या) पर एक मॉडल की सटीकता में सुधार करें।
→प्रॉम्प्ट में "चरण-दर-चरण सोचें" जैसा वाक्यांश जोड़कर Chain-of-Thought (CoT) प्रॉम्प्टिंग का उपयोग करें।
क्यों: CoT मॉडल को समस्या को तोड़ने और अपने तर्क को दिखाने के लिए प्रोत्साहित करता है, जो जटिल तार्किक कार्यों पर प्रदर्शन में काफी सुधार करता है।
एक जनरेटिव मॉडल के टेक्स्ट आउटपुट की रचनात्मकता बनाम पूर्वानुमेयता को नियंत्रित करें।
→`temperature` पैरामीटर को एडजस्ट करें। एक कम मान (~0.1) आउटपुट को अधिक नियतात्मक और केंद्रित बनाता है। एक उच्च मान (~0.9) इसे अधिक रचनात्मक और यादृच्छिक बनाता है।
क्यों: Temperature सीधे टोकन चयन की यादृच्छिकता को नियंत्रित करता है, जिससे आप विशिष्ट उपयोग के मामले (जैसे, तथ्यात्मक सारांश बनाम रचनात्मक लेखन) के लिए आउटपुट शैली को ट्यून कर सकते हैं।
एक एंटरप्राइज़ को अपने सुरक्षित Azure वातावरण के भीतर OpenAI के GPT-4 और DALL-E मॉडलों का उपयोग करने की आवश्यकता है, जिसमें निजी नेटवर्किंग और एकीकृत पहचान प्रबंधन हो।
→Azure OpenAI Service का उपयोग करें। यह Azure की एंटरप्राइज़-ग्रेड सुरक्षा, अनुपालन, क्षेत्रीय उपलब्धता और सामग्री फ़िल्टरिंग के साथ OpenAI मॉडल प्रदान करता है।
क्यों: Azure OpenAI OpenAI मॉडलों के चारों ओर एक सुरक्षित, एंटरप्राइज़-तैयार रैपर प्रदान करता है, उन्हें Azure इकोसिस्टम में एकीकृत करता है।
संदर्भ↗
एक खोज प्रणाली बनाएँ जो सिमेंटिक अर्थ के आधार पर दस्तावेज़ों को ढूंढती है, न कि केवल कीवर्ड मिलान (जैसे, "कार रखरखाव" को "वाहन सेवा अंतराल" मिलते हैं)।
→दस्तावेज़ों और प्रश्नों को संख्यात्मक वैक्टर में बदलने के लिए एक Azure OpenAI एम्बेडिंग मॉडल (जैसे, `text-embedding-ada-002`) का उपयोग करें। कोसाइन समानता द्वारा निकटतम वैक्टर खोजने के लिए एक वेक्टर डेटाबेस (जैसे Azure AI Search) का उपयोग करें।
क्यों: एम्बेडिंग पाठ के सिमेंटिक अर्थ को कैप्चर करते हैं, शाब्दिक ओवरलैप के बजाय वैचारिक समानता के आधार पर खोजों को सक्षम करते हैं।
Azure OpenAI का उपयोग करने वाला एक एप्लिकेशन स्वचालित रूप से हिंसा, घृणास्पद भाषण, यौन सामग्री या आत्म-हानि से संबंधित सामग्री के निर्माण को रोकना चाहिए।
→Azure AI Content Safety द्वारा संचालित अंतर्निहित सामग्री फ़िल्टरिंग पर भरोसा करें। प्रत्येक हानि श्रेणी के लिए गंभीरता स्तर (कम, मध्यम, उच्च) कॉन्फ़िगर करें।
क्यों: Azure OpenAI में एक अनिवार्य, बहु-स्तरीय सुरक्षा प्रणाली शामिल है जो जिम्मेदार AI सिद्धांतों के साथ संरेखित करने के लिए प्रॉम्प्ट और पूर्णता दोनों को फ़िल्टर करती है।
एक मार्केटिंग टीम को टेक्स्ट विवरणों से विज्ञापन अभियानों के लिए कस्टम उत्पाद छवियाँ बनाने की आवश्यकता है।
→Azure OpenAI Service के माध्यम से उपलब्ध DALL-E मॉडल का उपयोग करें। वांछित छवि का वर्णन करते हुए एक विस्तृत प्रॉम्प्ट बनाएँ।
क्यों: DALL-E एक टेक्स्ट-टू-इमेज जनरेशन मॉडल है, जिसे विशेष रूप से प्राकृतिक भाषा प्रॉम्प्ट से नई छवियाँ बनाने के लिए डिज़ाइन किया गया है।
एक जनरेटिव AI असिस्टेंट को बाहरी API को कॉल करके रीयल-टाइम डेटा (जैसे, वर्तमान स्टॉक मूल्य) तक पहुंचने या कार्यों (जैसे, एक मीटिंग बुक करना) को निष्पादित करने की आवश्यकता है।
→Azure OpenAI मॉडलों की फ़ंक्शन कॉलिंग क्षमता का उपयोग करें। API अनुरोध में उपलब्ध फ़ंक्शन को परिभाषित करें; मॉडल एक संरचित JSON ऑब्जेक्ट उत्पन्न करेगा जो निर्दिष्ट करेगा कि कौन से फ़ंक्शन को किन तर्कों के साथ कॉल करना है।
क्यों: फ़ंक्शन कॉलिंग LLM को बाहरी टूल और API के साथ इंटरैक्ट करने की अनुमति देती है, उनके स्थिर प्रशिक्षण डेटा की सीमा को दूर करती है और उन्हें कार्रवाई करने में सक्षम बनाती है।
एक टीम को एक दृश्य वर्कफ़्लो में LLM कॉल, Python स्क्रिप्ट और प्रॉम्प्ट टेम्प्लेट को ऑर्केस्ट्रेट करके एक जटिल जनरेटिव AI एप्लिकेशन बनाने, मूल्यांकन करने और डिप्लॉय करने की आवश्यकता है।
→Azure AI Foundry (पहले AI Studio) और उसकी प्रॉम्प्ट फ़्लो सुविधा का उपयोग करें। कनेक्टेड टूल के एक विज़ुअल ग्राफ़ के रूप में एप्लिकेशन बनाएँ।
क्यों: प्रॉम्प्ट फ़्लो जटिल LLM-आधारित अनुप्रयोगों के निर्माण और परीक्षण के लिए ऑर्केस्ट्रेशन टूल है, जो कई घटकों को एक रिप्रोड्यूसिबल वर्कफ़्लो में श्रृंखलाबद्ध करता है।
एक IT टीम को आंतरिक उपयोग के लिए एक कस्टम कोपायलट बनाने की आवश्यकता है जो कर्मचारी प्रश्नों का उत्तर दे सके और एक लो-कोड प्लेटफॉर्म का उपयोग करके एंटरप्राइज़ सिस्टम (जैसे, ServiceNow, SAP) के साथ एकीकृत हो सके।
→Microsoft Copilot Studio का उपयोग करें। यह पूर्व-निर्मित कनेक्टर और जनरेटिव AI क्षमताओं के साथ कस्टम कोपायलट बनाने के लिए एक लो-कोड ग्राफिकल इंटरफ़ेस प्रदान करता है।
क्यों: Copilot Studio एंटरप्राइज़-ग्रेड AI असिस्टेंट बनाने की जटिलता को अमूर्त करता है, जिससे व्यापक कोडिंग के बिना तेजी से विकास संभव होता है।