Un chatbot doit répondre aux questions exclusivement basées sur la base de connaissances interne de l'entreprise, fréquemment mise à jour, et non sur ses connaissances pré-entraînées générales.
→Mettez en œuvre le modèle RAG (Retrieval-Augmented Generation). Utilisez Azure AI Search pour récupérer les documents pertinents et les transmettre comme contexte à un modèle Azure OpenAI pour générer une réponse fondée.
Pourquoi: RAG ancre le modèle dans des données spécifiques et actuelles sans réentraînement coûteux, réduisant les hallucinations et assurant l'exactitude factuelle à partir d'une source fiable.
Un développeur a besoin qu'un modèle GPT réponde dans un format spécifique (par exemple, JSON).
→Utilisez le "few-shot prompting". Fournissez 2-3 exemples du format d'entrée-sortie souhaité directement dans l'invite avant la demande réelle.
Pourquoi: Le "few-shot prompting" guide le comportement du modèle et la structure de la sortie par des exemples contextuels, ce qui est plus rapide et moins cher que le fine-tuning.
Améliorer la précision d'un modèle sur un problème de raisonnement en plusieurs étapes (par exemple, un problème mathématique).
→Utilisez le "Chain-of-Thought (CoT) prompting" en ajoutant une phrase comme "Pensez étape par étape" à l'invite.
Pourquoi: CoT encourage le modèle à décomposer le problème et à montrer son raisonnement, ce qui améliore considérablement les performances sur les tâches logiques complexes.
Contrôler la créativité versus la prévisibilité de la sortie texte d'un modèle génératif.
→Ajustez le paramètre `temperature`. Une valeur basse (~0.1) rend la sortie plus déterministe et ciblée. Une valeur élevée (~0.9) la rend plus créative et aléatoire.
Pourquoi: La température contrôle directement le caractère aléatoire de la sélection des tokens, vous permettant d'ajuster le style de sortie pour le cas d'utilisation spécifique (par exemple, résumé factuel vs écriture créative).
Une entreprise a besoin d'utiliser les modèles GPT-4 et DALL-E d'OpenAI au sein de son environnement Azure sécurisé, avec un réseau privé et une gestion intégrée des identités.
→Utilisez le service Azure OpenAI. Il fournit les modèles OpenAI avec la sécurité de niveau entreprise d'Azure, la conformité, la disponibilité régionale et le filtrage de contenu.
Pourquoi: Azure OpenAI fournit un wrapper sécurisé et prêt pour l'entreprise autour des modèles OpenAI, les intégrant dans l'écosystème Azure.
Référence↗
Construire un système de recherche qui trouve des documents basés sur le sens sémantique, et non seulement sur des correspondances de mots-clés (par exemple, "entretien voiture" trouve "intervalles d'entretien véhicule").
→Utilisez un modèle d'embeddings Azure OpenAI (par exemple, `text-embedding-ada-002`) pour convertir les documents et les requêtes en vecteurs numériques. Utilisez une base de données vectorielle (comme Azure AI Search) pour trouver les vecteurs les plus proches par similarité cosinus.
Pourquoi: Les embeddings capturent le sens sémantique du texte, permettant des recherches basées sur la similarité conceptuelle plutôt que sur le chevauchement lexical.
Une application utilisant Azure OpenAI doit automatiquement empêcher la génération de contenu lié à la violence, aux discours haineux, au contenu sexuel ou à l'automutilation.
→Comptez sur le filtrage de contenu intégré, propulsé par Azure AI Content Safety. Configurez les niveaux de gravité (faible, moyen, élevé) pour chaque catégorie de préjudice.
Pourquoi: Azure OpenAI inclut un système de sécurité obligatoire et multicouche qui filtre à la fois les invites et les complétions pour s'aligner sur les principes de l'IA responsable.
Une équipe marketing doit générer des images de produits personnalisées pour des campagnes publicitaires à partir de descriptions textuelles.
→Utilisez le modèle DALL-E disponible via le service Azure OpenAI. Créez une invite détaillée décrivant l'image souhaitée.
Pourquoi: DALL-E est un modèle de génération de texte en image, spécifiquement conçu pour créer de nouvelles images à partir d'invites en langage naturel.
Un assistant IA génératif a besoin d'accéder à des données en temps réel (par exemple, les prix actuels des actions) ou d'exécuter des actions (par exemple, réserver une réunion) en appelant des API externes.
→Utilisez la capacité d'appel de fonction des modèles Azure OpenAI. Définissez les fonctions disponibles dans la requête API ; le modèle générera un objet JSON structuré spécifiant quelle fonction appeler avec quels arguments.
Pourquoi: L'appel de fonction permet aux LLM d'interagir avec des outils et des API externes, surmontant la limitation de leurs données d'entraînement statiques et leur permettant d'agir.
Une équipe doit construire, évaluer et déployer une application d'IA générative complexe en orchestrant des appels LLM, des scripts Python et des modèles d'invite dans un flux de travail visuel.
→Utilisez Azure AI Foundry (anciennement AI Studio) et sa fonctionnalité Prompt flow. Construisez l'application comme un graphe visuel d'outils connectés.
Pourquoi: Prompt flow est l'outil d'orchestration pour la construction et le test d'applications complexes basées sur les LLM, enchaînant plusieurs composants dans un flux de travail reproductible.
Une équipe informatique doit créer un copilot personnalisé pour un usage interne qui peut répondre aux questions des employés et s'intégrer aux systèmes d'entreprise (par exemple, ServiceNow, SAP) à l'aide d'une plateforme low-code.
→Utilisez Microsoft Copilot Studio. Il fournit une interface graphique low-code pour la création de copilots personnalisés avec des connecteurs pré-construits et des capacités d'IA générative.
Pourquoi: Copilot Studio masque la complexité de la construction d'assistants IA de niveau entreprise, permettant un développement rapide sans codage intensif.