チャットボットが、会社の内部で頻繁に更新されるナレッジベースにのみ基づいて質問に答え、一般的な事前トレーニングされた知識に基づかないようにする必要がある。
→Retrieval-Augmented Generation (RAG) パターンを実装する。Azure AI Searchを使用して関連ドキュメントを取得し、それらをAzure OpenAIモデルのコンテキストとして渡し、根拠のある回答を生成する。
理由: RAGは、高価な再トレーニングなしにモデルを特定の最新データに基づかせ、ハルシネーションを減らし、信頼できる情報源からの事実の正確性を保証する。
開発者がGPTモデルに特定の形式(例:JSON)で応答させる必要がある。
→Few-shotプロンプトを使用する。実際の要求の前に、プロンプト内で希望する入出力形式の例を2〜3個直接提供する。
理由: Few-shotプロンプトは、コンテキスト内の例を通じてモデルの動作と出力構造をガイドし、ファインチューニングよりも高速かつ安価である。
複数ステップの推論問題(例:数学の文章題)におけるモデルの精度を向上させる。
→プロンプトに「段階的に考える」のようなフレーズを追加して、Chain-of-Thought (CoT) プロンプトを使用する。
理由: CoTはモデルに問題を分解し、その推論を示すことを促し、複雑な論理タスクにおけるパフォーマンスを大幅に向上させる。
生成モデルのテキスト出力における創造性と予測可能性を制御する。
→`temperature` パラメータを調整する。低い値(約0.1)は出力をより決定的で集中したものにし、高い値(約0.9)はより創造的でランダムなものにする。
理由: Temperatureはトークン選択のランダム性を直接制御し、特定のユースケース(例:事実の要約 vs 創造的なライティング)に合わせて出力スタイルを調整できる。
企業が、OpenAIのGPT-4およびDALL-Eモデルを、セキュアなAzure環境内で、プライベートネットワークと統合されたID管理と共に使用する必要がある。
→Azure OpenAI Serviceを使用する。これはAzureのエンタープライズグレードのセキュリティ、コンプライアンス、リージョンアベイラビリティ、およびコンテンツフィルタリングを備えたOpenAIモデルを提供する。
理由: Azure OpenAIは、OpenAIモデルの周りにセキュアでエンタープライズ対応のラッパーを提供し、Azureエコシステムに統合する。
リファレンス↗
キーワードマッチだけでなく、意味に基づいてドキュメントを見つける検索システムを構築する(例:「車のメンテナンス」で「車両のサービス間隔」を見つける)。
→Azure OpenAIの埋め込みモデル(例:`text-embedding-ada-002`)を使用して、ドキュメントとクエリを数値ベクトルに変換する。ベクトルデータベース(Azure AI Searchなど)を使用して、コサイン類似度で最も近いベクトルを見つける。
理由: 埋め込みはテキストのセマンティックな意味を捉え、語彙の重複ではなく概念的な類似性に基づく検索を可能にする。
Azure OpenAIを使用するアプリケーションが、暴力、ヘイトスピーチ、性的コンテンツ、自傷行為に関連するコンテンツの生成を自動的に防ぐ必要がある。
→Azure AI Content Safetyによって提供される組み込みのコンテンツフィルタリングに頼る。各危害カテゴリの重要度レベル(低、中、高)を設定する。
理由: Azure OpenAIには、責任あるAIの原則に沿うようにプロンプトと完了の両方をフィルタリングする、必須の多層安全システムが含まれている。
マーケティングチームが、テキスト記述から広告キャンペーン用のカスタム製品画像を生成する必要がある。
→Azure OpenAI Serviceを通じて利用可能なDALL-Eモデルを使用する。希望する画像を記述した詳細なプロンプトを作成する。
理由: DALL-Eはテキストから画像を生成するモデルであり、自然言語のプロンプトから新しい画像を生成するために特別に設計されている。
生成AIアシスタントが、外部APIを呼び出すことでリアルタイムデータ(例:現在の株価)にアクセスしたり、アクション(例:会議を予約)を実行したりする必要がある。
→Azure OpenAIモデルの関数呼び出し機能を使用する。APIリクエストで利用可能な関数を定義する。モデルは、どの関数をどの引数で呼び出すかを指定する構造化されたJSONオブジェクトを生成する。
理由: 関数呼び出しにより、LLMは外部ツールやAPIと対話でき、静的なトレーニングデータの制限を克服し、アクションを実行できるようになる。
チームが、視覚的なワークフローでLLM呼び出し、Pythonスクリプト、およびプロンプトテンプレートをオーケストレーションすることにより、複雑な生成AIアプリケーションを構築、評価、およびデプロイする必要がある。
→Azure AI Foundry (旧 AI Studio) とそのPrompt flow機能を使用する。接続されたツールの視覚的なグラフとしてアプリケーションを構築する。
理由: Prompt flowは、複雑なLLMベースのアプリケーションを構築およびテストするためのオーケストレーションツールであり、複数のコンポーネントを再現可能なワークフローに連結する。
ITチームが、ローコードプラットフォームを使用して、従業員の質問に答え、エンタープライズシステム(例:ServiceNow、SAP)と統合できる社内用のカスタムcopilotを構築する必要がある。
→Microsoft Copilot Studioを使用する。これは、事前構築済みコネクタと生成AI機能を備えたカスタムcopilotを構築するためのローコードのグラフィカルインターフェースを提供する。
理由: Copilot Studioは、エンタープライズグレードのAIアシスタントを構築する複雑さを抽象化し、広範なコーディングなしで迅速な開発を可能にする。