यह पता लगाएं कि आने वाले डेटा या अनुमानित परिणामों में बदलाव के कारण उत्पादन मॉडल का प्रदर्शन कब गिर रहा है।
→Vertex AI Model Monitoring कॉन्फ़िगर करें। प्रशिक्षण-सेवारत पूर्वाग्रह (प्रशिक्षण से इनपुट वितरण परिवर्तन) और भविष्यवाणी बहाव (समय के साथ आउटपुट वितरण परिवर्तन) का पता लगाने के लिए एक कार्य स्थापित करें।
क्यों: मॉडल गिरावट के लिए एक स्वचालित प्रारंभिक चेतावनी प्रणाली प्रदान करता है, व्यापार मेट्रिक्स के महत्वपूर्ण रूप से प्रभावित होने से पहले सक्रिय रिट्रेनिंग या हस्तक्षेप को सक्षम बनाता है।
संदर्भ↗
मॉडल का प्रदर्शन गिर रहा है, लेकिन इनपुट फीचर वितरण स्थिर प्रतीत होते हैं (कोई डेटा बहाव नहीं पाया गया)।
→विलंबित ग्राउंड ट्रुथ लेबल के विरुद्ध भविष्यवाणी परिणामों की निगरानी लागू करें। सटीकता या अन्य मूल्यांकन मेट्रिक्स में गिरावट अवधारणा बहाव को इंगित करती है, जहां सुविधाओं और लक्ष्य के बीच संबंध बदल गया है।
क्यों: फीचर बहाव निगरानी अकेले पर्याप्त नहीं है। अवधारणा बहाव के लिए अंतर्निहित पैटर्न में परिवर्तनों का पता लगाने के लिए वास्तविक के विरुद्ध मॉडल भविष्यवाणियों का मूल्यांकन करना आवश्यक है।
नियामक अनुपालन को पूरा करने या हितधारक विश्वास के लिए व्यक्तिगत मॉडल भविष्यवाणियों के लिए स्पष्टीकरण प्रदान करें।
→तैनात एंडपॉइंट पर Vertex AI Explainable AI सक्षम करें। प्रत्येक भविष्यवाणी के लिए फीचर एट्रिब्यूशन प्राप्त करने के लिए Sampled Shapley या Integrated Gradients जैसे तरीकों का उपयोग करें।
क्यों: स्थानीय, प्रति-भविष्यवाणी स्पष्टीकरण प्रदान करता है जो यह पहचानता है कि किन सुविधाओं ने निर्णय में योगदान दिया, जो "ब्लैक-बॉक्स" मॉडल के ऑडिटिंग और डीबगिंग के लिए आवश्यक है।
यह सुनिश्चित करें कि एक मॉडल विभिन्न उपयोगकर्ता खंडों (उदाहरण के लिए, जनसांख्यिकी) में समान रूप से प्रदर्शन करता है और छिपे हुए पूर्वाग्रहों का पता लगाएं।
→संवेदनशील गुणों द्वारा परिभाषित डेटा के स्लाइस पर प्रदर्शन मेट्रिक्स (उदाहरण के लिए, सटीकता, त्रुटि दर) की गणना और ट्रैक करने के लिए मॉडल निगरानी कॉन्फ़िगर करें।
क्यों: कुल मेट्रिक्स अल्पसंख्यक उपसमूहों के लिए खराब प्रदर्शन को छिपा सकते हैं। निष्पक्षता के मुद्दों की पहचान और उन्हें कम करने के लिए स्लाइस्ड विश्लेषण महत्वपूर्ण है।
एक मॉडल को उन इनपुट पर अविश्वसनीय, अति-आत्मविश्वासी भविष्यवाणियां करने से रोकें जो उसके प्रशिक्षण डेटा से मौलिक रूप से भिन्न हैं।
→मुख्य मॉडल के साथ एक आउट-ऑफ-डिस्ट्रीब्यूशन (OOD) डिटेक्शन मॉडल (उदाहरण के लिए, एक ऑटोएन्कोडर) लागू करें। उच्च पुनर्निर्माण त्रुटि एक इनपुट को OOD के रूप में ध्वजांकित करती है, जिससे फ़ॉलबैक लॉजिक ट्रिगर होता है।
क्यों: डोमेन शिफ्ट के खिलाफ एक सुरक्षा तंत्र प्रदान करता है, यह पहचान कर मॉडल की मजबूती में सुधार करता है कि मॉडल कब अपनी विशेषज्ञता के क्षेत्र से बाहर काम कर रहा है।
एक मॉडल के इच्छित उपयोग, सीमाओं, प्रशिक्षण डेटा और निष्पक्षता मूल्यांकन को तकनीकी और गैर-तकनीकी हितधारकों दोनों के लिए दस्तावेज़ित करें।
→Google के फ्रेमवर्क का उपयोग करके एक Model Card बनाएं। मॉडल विवरण, इच्छित उपयोग, नैतिक विचार, मात्रात्मक विश्लेषण (स्लाइस्ड मेट्रिक्स सहित) और सीमाओं पर अनुभाग शामिल करें।
क्यों: जिम्मेदार AI प्रलेखन के लिए एक मानक जो किसी संगठन में पारदर्शिता, जवाबदेही और उचित मॉडल उपयोग को बढ़ावा देता है।
अनुपालन और डीबगिंग के लिए सभी भविष्यवाणी अनुरोधों और प्रतिक्रियाओं का एक खोजने योग्य, ऑडिट करने योग्य लॉग बनाए रखें।
→Vertex AI Endpoint पर एक्सेस लॉगिंग सक्षम करें। संरचित, दीर्घकालिक भंडारण और विश्लेषण के लिए BigQuery में लॉग निर्यात करने के लिए कॉन्फ़िगर करें।
क्यों: BigQuery ऑडिट ट्रेल्स बनाने, भविष्यवाणी प्रवृत्तियों का विश्लेषण करने और भविष्यवाणी को ग्राउंड ट्रुथ डेटा के साथ जोड़ने के लिए एक स्केलेबल और क्वेरी करने योग्य प्लेटफॉर्म प्रदान करता है।