Ein Chatbot muss Fragen ausschließlich auf der Grundlage einer internen, häufig aktualisierten Wissensdatenbank eines Unternehmens beantworten, nicht auf seinem allgemeinen vorab trainierten Wissen.
→Implementieren Sie das Retrieval-Augmented Generation (RAG)-Muster. Verwenden Sie Azure AI Search, um relevante Dokumente abzurufen und diese als Kontext an ein Azure OpenAI-Modell zu übergeben, um eine fundierte Antwort zu generieren.
Warum: RAG erdet das Modell in spezifischen, aktuellen Daten ohne teures erneutes Training, reduziert Halluzinationen und gewährleistet die sachliche Genauigkeit aus einer vertrauenswürdigen Quelle.
Ein Entwickler benötigt ein GPT-Modell, das in einem spezifischen Format (z. B. JSON) antwortet.
→Verwenden Sie Few-Shot-Prompting. Stellen Sie 2-3 Beispiele des gewünschten Eingabe-Ausgabe-Formats direkt im Prompt vor der eigentlichen Anfrage bereit.
Warum: Few-Shot-Prompting leitet das Verhalten und die Ausgabestruktur des Modells durch In-Context-Beispiele, was schneller und kostengünstiger ist als Fine-Tuning.
Verbessern Sie die Genauigkeit eines Modells bei einem mehrstufigen Denkproblem (z. B. einer mathematischen Textaufgabe).
→Verwenden Sie Chain-of-Thought (CoT)-Prompting, indem Sie einen Satz wie "Denken Sie Schritt für Schritt" zum Prompt hinzufügen.
Warum: CoT ermutigt das Modell, das Problem zu zerlegen und seine Argumentation zu zeigen, was die Leistung bei komplexen logischen Aufgaben erheblich verbessert.
Steuern Sie die Kreativität versus Vorhersagbarkeit der Textausgabe eines generativen Modells.
→Passen Sie den `temperature`-Parameter an. Ein niedriger Wert (~0.1) macht die Ausgabe deterministischer und fokussierter. Ein hoher Wert (~0.9) macht sie kreativer und zufälliger.
Warum: Die Temperatur steuert direkt die Zufälligkeit der Tokenauswahl, sodass Sie den Ausgabestil für den jeweiligen Anwendungsfall (z. B. sachliche Zusammenfassung vs. kreatives Schreiben) anpassen können.
Ein Unternehmen muss die GPT-4- und DALL-E-Modelle von OpenAI in seiner sicheren Azure-Umgebung mit privater Vernetzung und integriertem Identitätsmanagement nutzen.
→Verwenden Sie den Azure OpenAI Service. Er bietet OpenAI-Modelle mit der Enterprise-Grade-Sicherheit, Compliance, regionalen Verfügbarkeit und Inhaltsfilterung von Azure.
Warum: Azure OpenAI bietet eine sichere, unternehmenstaugliche Hülle um OpenAI-Modelle, die diese in das Azure-Ökosystem integriert.
Referenz↗
Erstellen Sie ein Suchsystem, das Dokumente basierend auf der semantischen Bedeutung findet, nicht nur auf Keyword-Übereinstimmungen (z. B. "Autowartung" findet "Fahrzeugserviceintervalle").
→Verwenden Sie ein Azure OpenAI Embeddings-Modell (z. B. `text-embedding-ada-002`), um Dokumente und Abfragen in numerische Vektoren umzuwandeln. Verwenden Sie eine Vektordatenbank (wie Azure AI Search), um die nächsten Vektoren mittels Cosinus-Ähnlichkeit zu finden.
Warum: Embeddings erfassen die semantische Bedeutung von Text und ermöglichen Suchen basierend auf konzeptioneller Ähnlichkeit statt lexikalischer Überschneidung.
Eine Anwendung, die Azure OpenAI verwendet, muss die Generierung von Inhalten im Zusammenhang mit Gewalt, Hassrede, sexuellen Inhalten oder Selbstverletzung automatisch verhindern.
→Verlassen Sie sich auf die integrierte Inhaltsfilterung, die von Azure AI Content Safety betrieben wird. Konfigurieren Sie die Schweregrade (niedrig, mittel, hoch) für jede Schadenskategorie.
Warum: Azure OpenAI enthält ein obligatorisches, mehrschichtiges Sicherheitssystem, das sowohl Prompts als auch Completions filtert, um den Prinzipien der verantwortungsvollen KI zu entsprechen.
Ein Marketingteam muss benutzerdefinierte Produktbilder für Werbekampagnen aus Textbeschreibungen generieren.
→Verwenden Sie das DALL-E-Modell, das über den Azure OpenAI Service verfügbar ist. Erstellen Sie einen detaillierten Prompt, der das gewünschte Bild beschreibt.
Warum: DALL-E ist ein Text-zu-Bild-Generierungsmodell, das speziell für die Erstellung neuartiger Bilder aus natürlichen Sprachprompts entwickelt wurde.
Ein generativer KI-Assistent muss auf Echtzeitdaten zugreifen (z. B. aktuelle Aktienkurse) oder Aktionen ausführen (z. B. ein Meeting buchen), indem er externe APIs aufruft.
→Verwenden Sie die Funktion zum Funktionsaufruf von Azure OpenAI-Modellen. Definieren Sie verfügbare Funktionen in der API-Anfrage; das Modell generiert ein strukturiertes JSON-Objekt, das angibt, welche Funktion mit welchen Argumenten aufgerufen werden soll.
Warum: Funktionsaufrufe ermöglichen es LLMs, mit externen Tools und APIs zu interagieren, wodurch die Einschränkung ihrer statischen Trainingsdaten überwunden und ihnen ermöglicht wird, Maßnahmen zu ergreifen.
Ein Team muss eine komplexe generative KI-Anwendung erstellen, bewerten und bereitstellen, indem es LLM-Aufrufe, Python-Skripte und Prompt-Vorlagen in einem visuellen Workflow orchestriert.
→Verwenden Sie Azure AI Foundry (ehemals AI Studio) und dessen Prompt Flow-Funktion. Erstellen Sie die Anwendung als visuelles Diagramm verbundener Tools.
Warum: Prompt Flow ist das Orchestrierungstool zum Erstellen und Testen komplexer LLM-basierter Anwendungen, das mehrere Komponenten zu einem reproduzierbaren Workflow verknüpft.
Ein IT-Team muss einen benutzerdefinierten Copiloten für den internen Gebrauch erstellen, der Mitarbeiterfragen beantworten und sich mit Unternehmenssystemen (z. B. ServiceNow, SAP) über eine Low-Code-Plattform integrieren kann.
→Verwenden Sie Microsoft Copilot Studio. Es bietet eine Low-Code-Grafikoberfläche zum Erstellen benutzerdefinierter Copiloten mit vorgefertigten Konnektoren und generativen KI-Funktionen.
Warum: Copilot Studio abstrahiert die Komplexität des Aufbaus von KI-Assistenten auf Enterprise-Niveau und ermöglicht eine schnelle Entwicklung ohne umfangreiche Programmierung.