צ'אטבוט חייב לענות על שאלות אך ורק בהתבסס על בסיס הידע הפנימי והמתעדכן לעיתים קרובות של החברה, ולא על הידע הכללי שאומן עליו מראש.
→יישם את תבנית Retrieval-Augmented Generation (RAG). השתמש ב-Azure AI Search כדי לאחזר מסמכים רלוונטיים והעבר אותם כהקשר למודל Azure OpenAI כדי ליצור תשובה מבוססת.
למה: RAG מבסס את המודל בנתונים ספציפיים ועכשוויים ללא אימון מחדש יקר, מפחית הזיות ומבטיח דיוק עובדתי ממקור מהימן.
מפתח צריך שמודל GPT יגיב בפורמט ספציפי (לדוגמה, JSON).
→השתמש בהנחיה מרובת דוגמאות (few-shot prompting). ספק 2-3 דוגמאות של פורמט הקלט-פלט הרצוי ישירות בהנחיה לפני הבקשה בפועל.
למה: הנחיה מרובת דוגמאות מנחה את התנהגות המודל ומבנה הפלט באמצעות דוגמאות בתוך ההקשר, וזה מהיר וזול יותר מכוונון עדין (fine-tuning).
שפר את דיוק המודל בבעיית הסקה מרובת שלבים (לדוגמה, בעיית מילים במתמטיקה).
→השתמש בהנחיה מסוג "שרשרת מחשבה" (Chain-of-Thought - CoT) על ידי הוספת ביטוי כמו "חשוב שלב אחר שלב" להנחיה.
למה: CoT מעודד את המודל לפרק את הבעיה ולהציג את ההסקה שלו, מה שמשפר משמעותית את הביצועים במשימות לוגיות מורכבות.
שלוט ביצירתיות לעומת החיזוי של פלט טקסט של מודל גנרטיבי.
→כוונן את הפרמטר `temperature`. ערך נמוך (~0.1) הופך את הפלט לדטרמיניסטי וממוקד יותר. ערך גבוה (~0.9) הופך אותו ליצירתי ואקראי יותר.
למה: טמפרטורה שולטת ישירות באקראיות בחירת האסימונים, ומאפשרת לך לכוונן את סגנון הפלט למקרה השימוש הספציפי (לדוגמה, סיכום עובדתי לעומת כתיבה יצירתית).
ארגון צריך להשתמש במודלי GPT-4 ו-DALL-E של OpenAI בתוך סביבת Azure המאובטחת שלו, עם רשת פרטית וניהול זהויות משולב.
→השתמש בשירות Azure OpenAI. הוא מספק מודלי OpenAI עם אבטחה ברמה ארגונית של Azure, תאימות, זמינות אזורית וסינון תוכן.
למה: Azure OpenAI מספק מעטפת מאובטחת ומוכנה לארגונים סביב מודלי OpenAI, המשלבת אותם במערכת האקולוגית של Azure.
מקור↗
בנה מערכת חיפוש שמוצאת מסמכים על בסיס משמעות סמנטית, לא רק התאמות מילות מפתח (לדוגמה, "תחזוקת רכב" מוצא "מרווחי טיפול ברכב").
→השתמש במודל הטמעות של Azure OpenAI (לדוגמה, `text-embedding-ada-002`) כדי להמיר מסמכים ושאילתות לווקטורים מספריים. השתמש במסד נתונים וקטורי (כמו Azure AI Search) כדי למצוא את הווקטורים הקרובים ביותר על ידי דמיון קוסינוס.
למה: הטמעות לוכדות את המשמעות הסמנטית של טקסט, ומאפשרות חיפושים המבוססים על דמיון רעיוני ולא על חפיפה לקסיקלית.
יישום המשתמש ב-Azure OpenAI חייב למנוע אוטומטית יצירת תוכן הקשור לאלימות, דברי שטנה, תוכן מיני או פגיעה עצמית.
→הסתמך על סינון התוכן המובנה, המופעל על ידי Azure AI Content Safety. הגדר את רמות החומרה (נמוכה, בינונית, גבוהה) עבור כל קטגוריית נזק.
למה: Azure OpenAI כולל מערכת בטיחות חובה, רב-שכבתית המסננת הן הנחיות והן השלמות כדי להתיישר עם עקרונות AI אחראיים.
צוות שיווק צריך ליצור תמונות מוצר מותאמות אישית עבור קמפייני פרסום מתיאורי טקסט.
→השתמש במודל DALL-E הזמין דרך שירות Azure OpenAI. צור הנחיה מפורטת המתארת את התמונה הרצויה.
למה: DALL-E הוא מודל ליצירת תמונות מטקסט, שתוכנן במיוחד ליצירת תמונות חדשניות מהנחיות בשפה טבעית.
עוזר AI גנרטיבי צריך לגשת לנתונים בזמן אמת (לדוגמה, מחירי מניות נוכחיים) או לבצע פעולות (לדוגמה, קביעת פגישה) על ידי קריאה ל-API חיצוניים.
→השתמש ביכולת קריאת פונקציות של מודלי Azure OpenAI. הגדר פונקציות זמינות בבקשת ה-API; המודל ייצור אובייקט JSON מובנה המציין איזו פונקציה לקרוא עם אילו ארגומנטים.
למה: קריאת פונקציות מאפשרת למודלי שפה גדולים (LLMs) לקיים אינטראקציה עם כלים ו-API חיצוניים, ומתגברת על מגבלת נתוני האימון הסטטיים שלהם ומאפשרת להם לבצע פעולות.
צוות צריך לבנות, להעריך ולפרוס יישום AI גנרטיבי מורכב על ידי תזמור קריאות LLM, סקריפטים של Python ותבניות הנחיה בזרימת עבודה ויזואלית.
→השתמש ב-Azure AI Foundry (לשעבר AI Studio) ובתכונת זרימת ההנחיה שלה. בנה את היישום כגרף ויזואלי של כלים מחוברים.
למה: זרימת הנחיה היא כלי התזמור לבנייה ובדיקה של יישומי מודלי שפה גדולים (LLM) מורכבים, שרשור מספר רכיבים לזרימת עבודה ניתנת לשחזור.
צוות IT צריך לבנות Copilot מותאם אישית לשימוש פנימי שיכול לענות על שאלות עובדים ולהשתלב עם מערכות ארגוניות (לדוגמה, ServiceNow, SAP) באמצעות פלטפורמת low-code.
→השתמש ב-Microsoft Copilot Studio. הוא מספק ממשק גרפי low-code לבניית Copilots מותאמים אישית עם מחברים מובנים מראש ויכולות AI גנרטיביות.
למה: Copilot Studio מפשט את המורכבות של בניית עוזרי AI ברמה ארגונית, ומאפשר פיתוח מהיר ללא קידוד נרחב.