Чат-бот должен отвечать на вопросы исключительно на основе внутренней, часто обновляемой базы знаний компании, а не на основе своих общих предварительно обученных знаний.
→Внедрите паттерн Retrieval-Augmented Generation (RAG). Используйте Azure AI Search для извлечения релевантных документов и передавайте их в качестве контекста модели Azure OpenAI для генерации обоснованного ответа.
Почему: RAG основывает модель на конкретных, актуальных данных без дорогостоящего переобучения, уменьшая галлюцинации и обеспечивая фактическую точность из надежного источника.
Разработчику нужна модель GPT, которая отвечает в определенном формате (например, JSON).
→Используйте малошаговое промтинг (few-shot prompting). Предоставьте 2-3 примера желаемого формата ввода-вывода непосредственно в промпте перед фактическим запросом.
Почему: Few-shot prompting направляет поведение модели и структуру вывода с помощью внутриконтекстных примеров, что быстрее и дешевле, чем тонкая настройка.
Повысить точность модели при решении многоэтапной логической задачи (например, математической задачи с текстом).
→Используйте промтинг "цепочка мыслей" (Chain-of-Thought, CoT), добавив фразу "Думай шаг за шагом" в промпт.
Почему: CoT побуждает модель разбивать проблему и показывать свои рассуждения, что значительно улучшает производительность в сложных логических задачах.
Контролировать креативность по сравнению с предсказуемостью текстового вывода генеративной модели.
→Настройте параметр `temperature`. Низкое значение (~0.1) делает вывод более детерминированным и сфокусированным. Высокое значение (~0.9) делает его более креативным и случайным.
Почему: Temperature напрямую контролирует случайность выбора токенов, позволяя настраивать стиль вывода для конкретного сценария использования (например, фактическое резюме против творческого письма).
Предприятию необходимо использовать модели GPT-4 и DALL-E от OpenAI в своей защищенной среде Azure с частной сетью и интегрированным управлением идентификацией.
→Используйте службу Azure OpenAI. Она предоставляет модели OpenAI с корпоративной безопасностью Azure, соответствием требованиям, региональной доступностью и фильтрацией контента.
Почему: Azure OpenAI предоставляет безопасную, готовую к использованию в масштабах предприятия оболочку для моделей OpenAI, интегрируя их в экосистему Azure.
Источник↗
Создать систему поиска, которая находит документы на основе семантического значения, а не только по совпадению ключевых слов (например, "обслуживание автомобиля" находит "интервалы обслуживания транспортного средства").
→Используйте модель внедрения Azure OpenAI (например, `text-embedding-ada-002`) для преобразования документов и запросов в числовые векторы. Используйте векторную базу данных (например, Azure AI Search) для поиска ближайших векторов по косинусной схожести.
Почему: Внедрения (embeddings) фиксируют семантическое значение текста, позволяя выполнять поиск на основе концептуального сходства, а не лексического совпадения.
Приложение, использующее Azure OpenAI, должно автоматически предотвращать генерацию контента, связанного с насилием, разжиганием ненависти, сексуальным контентом или членовредительством.
→Используйте встроенную фильтрацию контента, основанную на Azure AI Content Safety. Настройте уровни серьезности (низкий, средний, высокий) для каждой категории вреда.
Почему: Azure OpenAI включает обязательную многоуровневую систему безопасности, которая фильтрует как промпты, так и завершения для соответствия принципам ответственного ИИ.
Маркетинговой команде необходимо генерировать пользовательские изображения продуктов для рекламных кампаний из текстовых описаний.
→Используйте модель DALL-E, доступную через Azure OpenAI Service. Составьте подробный промпт, описывающий желаемое изображение.
Почему: DALL-E — это модель генерации текста в изображение, специально разработанная для создания новых изображений из запросов на естественном языке.
Генеративному ИИ-помощнику необходим доступ к данным в реальном времени (например, текущим ценам на акции) или выполнение действий (например, бронирование встречи) путем вызова внешних API.
→Используйте возможность вызова функций моделей Azure OpenAI. Определите доступные функции в запросе API; модель сгенерирует структурированный JSON-объект, указывающий, какую функцию вызвать с какими аргументами.
Почему: Вызов функций позволяет LLM взаимодействовать с внешними инструментами и API, преодолевая ограничения их статических обучающих данных и позволяя им выполнять действия.
Команде необходимо создавать, оценивать и развертывать сложное генеративное ИИ-приложение, организуя вызовы LLM, скрипты Python и шаблоны промптов в визуальном рабочем процессе.
→Используйте Azure AI Foundry (ранее AI Studio) и его функцию Prompt flow. Создайте приложение как визуальный граф связанных инструментов.
Почему: Prompt flow — это инструмент оркестровки для создания и тестирования сложных приложений на основе LLM, объединяющий несколько компонентов в воспроизводимый рабочий процесс.
ИТ-команде необходимо создать собственный Copilot для внутреннего использования, который может отвечать на вопросы сотрудников и интегрироваться с корпоративными системами (например, ServiceNow, SAP) с использованием платформы с минимальным кодом.
→Используйте Microsoft Copilot Studio. Он предоставляет низкокодовый графический интерфейс для создания пользовательских Copilot с предварительно созданными коннекторами и возможностями генеративного ИИ.
Почему: Copilot Studio абстрагирует сложность создания корпоративных ИИ-помощников, обеспечивая быструю разработку без обширного кодирования.