Um chatbot deve responder a perguntas exclusivamente com base na base de conhecimento interna e frequentemente atualizada de uma empresa, e não em seu conhecimento geral pré-treinado.
→Implemente o padrão de Geração Aumentada por Recuperação (RAG). Use o Azure AI Search para recuperar documentos relevantes e passá-los como contexto para um modelo Azure OpenAI para gerar uma resposta fundamentada.
Por quê: O RAG fundamenta o modelo em dados específicos e atuais sem retreinamento caro, reduzindo alucinações e garantindo a precisão factual a partir de uma fonte confiável.
Um desenvolvedor precisa que um modelo GPT responda em um formato específico (por exemplo, JSON).
→Use few-shot prompting. Forneça 2-3 exemplos do formato de entrada-saída desejado diretamente no prompt antes da requisição real.
Por quê: O few-shot prompting guia o comportamento do modelo e a estrutura de saída através de exemplos em contexto, o que é mais rápido e mais barato do que o ajuste fino.
Melhorar a precisão de um modelo em um problema de raciocínio multi-etapa (por exemplo, um problema de matemática textual).
→Use o prompting Chain-of-Thought (CoT) adicionando uma frase como "Pense passo a passo" ao prompt.
Por quê: O CoT encoraja o modelo a detalhar o problema e mostrar seu raciocínio, o que melhora significativamente o desempenho em tarefas lógicas complexas.
Controlar a criatividade versus previsibilidade da saída de texto de um modelo generativo.
→Ajuste o parâmetro `temperature`. Um valor baixo (~0.1) torna a saída mais determinística e focada. Um valor alto (~0.9) a torna mais criativa e aleatória.
Por quê: A temperatura controla diretamente a aleatoriedade da seleção de tokens, permitindo que você ajuste o estilo de saída para o caso de uso específico (por exemplo, resumo factual vs. escrita criativa).
Uma empresa precisa usar os modelos GPT-4 e DALL-E da OpenAI em seu ambiente seguro do Azure, com rede privada e gerenciamento de identidade integrado.
→Use o Serviço Azure OpenAI. Ele fornece modelos OpenAI com segurança de nível empresarial do Azure, conformidade, disponibilidade regional e filtragem de conteúdo.
Por quê: O Azure OpenAI fornece um invólucro seguro e pronto para empresas para modelos OpenAI, integrando-os ao ecossistema Azure.
Referência↗
Construir um sistema de busca que encontra documentos com base no significado semântico, não apenas na correspondência de palavras-chave (por exemplo, "manutenção de carro" encontra "intervalos de serviço de veículo").
→Use um modelo de embeddings do Azure OpenAI (por exemplo, `text-embedding-ada-002`) para converter documentos e consultas em vetores numéricos. Use um banco de dados de vetores (como Azure AI Search) para encontrar os vetores mais próximos por similaridade de cosseno.
Por quê: Embeddings capturam o significado semântico do texto, permitindo buscas baseadas em similaridade conceitual em vez de sobreposição lexical.
Um aplicativo que usa Azure OpenAI deve automaticamente prevenir a geração de conteúdo relacionado a violência, discurso de ódio, conteúdo sexual ou automutilação.
→Confie na filtragem de conteúdo integrada, impulsionada pelo Azure AI Content Safety. Configure os níveis de gravidade (baixo, médio, alto) para cada categoria de dano.
Por quê: O Azure OpenAI inclui um sistema de segurança obrigatório e multicamadas que filtra tanto prompts quanto conclusões para se alinhar aos princípios de IA responsável.
Uma equipe de marketing precisa gerar imagens personalizadas de produtos para campanhas publicitárias a partir de descrições de texto.
→Use o modelo DALL-E disponível através do Azure OpenAI Service. Crie um prompt detalhado descrevendo a imagem desejada.
Por quê: DALL-E é um modelo de geração de texto para imagem, especificamente projetado para criar imagens novas a partir de prompts de linguagem natural.
Um assistente de IA generativa precisa acessar dados em tempo real (por exemplo, preços de ações atuais) ou executar ações (por exemplo, agendar uma reunião) chamando APIs externas.
→Use a capacidade de chamada de função dos modelos Azure OpenAI. Defina as funções disponíveis na requisição da API; o modelo gerará um objeto JSON estruturado especificando qual função chamar com quais argumentos.
Por quê: A chamada de função permite que os LLMs interajam com ferramentas e APIs externas, superando a limitação de seus dados de treinamento estáticos e permitindo que eles tomem ações.
Uma equipe precisa construir, avaliar e implantar um aplicativo de IA generativa complexo orquestrando chamadas de LLM, scripts Python e modelos de prompt em um fluxo de trabalho visual.
→Use o Azure AI Foundry (anteriormente AI Studio) e seu recurso Prompt flow. Construa o aplicativo como um grafo visual de ferramentas conectadas.
Por quê: O Prompt flow é a ferramenta de orquestração para construir e testar aplicativos complexos baseados em LLM, encadeando múltiplos componentes em um fluxo de trabalho reproduzível.
Uma equipe de TI precisa construir um copilot personalizado para uso interno que possa responder a perguntas de funcionários e se integrar a sistemas empresariais (por exemplo, ServiceNow, SAP) usando uma plataforma low-code.
→Use o Microsoft Copilot Studio. Ele oferece uma interface gráfica low-code para construir copilots personalizados com conectores pré-construídos e capacidades de IA generativa.
Por quê: O Copilot Studio abstrai a complexidade da construção de assistentes de IA de nível empresarial, permitindo o desenvolvimento rápido sem codificação extensiva.