Un chatbot debe responder preguntas basándose exclusivamente en la base de conocimiento interna y frecuentemente actualizada de una empresa, no en su conocimiento general preentrenado.
→Implemente el patrón de Generación Aumentada por Recuperación (RAG). Utilice Azure AI Search para recuperar documentos relevantes y pasarlos como contexto a un modelo de Azure OpenAI para generar una respuesta fundamentada.
Por qué: RAG fundamenta el modelo en datos específicos y actuales sin un reentrenamiento costoso, reduciendo las alucinaciones y asegurando la precisión fáctica de una fuente confiable.
Un desarrollador necesita un modelo GPT para responder en un formato específico (por ejemplo, JSON).
→Utilice el prompting de pocas-muestras (few-shot prompting). Proporcione 2-3 ejemplos del formato de entrada-salida deseado directamente en el prompt antes de la solicitud real.
Por qué: El prompting de pocas-muestras guía el comportamiento y la estructura de salida del modelo a través de ejemplos en contexto, lo cual es más rápido y económico que el fine-tuning.
Mejorar la precisión de un modelo en un problema de razonamiento de múltiples pasos (por ejemplo, un problema de palabras matemáticas).
→Utilice el prompting de Cadena de Pensamiento (CoT) añadiendo una frase como "Piensa paso a paso" al prompt.
Por qué: CoT anima al modelo a desglosar el problema y mostrar su razonamiento, lo que mejora significativamente el rendimiento en tareas lógicas complejas.
Controlar la creatividad versus la previsibilidad de la salida de texto de un modelo generativo.
→Ajuste el parámetro `temperature`. Un valor bajo (~0.1) hace que la salida sea más determinista y enfocada. Un valor alto (~0.9) la hace más creativa y aleatoria.
Por qué: La temperatura controla directamente la aleatoriedad de la selección de tokens, lo que le permite ajustar el estilo de salida para el caso de uso específico (por ejemplo, resumen fáctico vs. escritura creativa).
Una empresa necesita utilizar los modelos GPT-4 y DALL-E de OpenAI dentro de su entorno seguro de Azure, con redes privadas y gestión de identidades integrada.
→Utilice el servicio Azure OpenAI. Proporciona modelos de OpenAI con la seguridad de nivel empresarial, el cumplimiento, la disponibilidad regional y el filtrado de contenido de Azure.
Por qué: Azure OpenAI proporciona un envoltorio seguro y listo para empresas alrededor de los modelos de OpenAI, integrándolos en el ecosistema de Azure.
Referencia↗
Construir un sistema de búsqueda que encuentre documentos basados en el significado semántico, no solo en coincidencias de palabras clave (por ejemplo, "mantenimiento de coches" encuentra "intervalos de servicio de vehículos").
→Utilice un modelo de embeddings de Azure OpenAI (por ejemplo, `text-embedding-ada-002`) para convertir documentos y consultas en vectores numéricos. Utilice una base de datos vectorial (como Azure AI Search) para encontrar los vectores más cercanos mediante similitud coseno.
Por qué: Los embeddings capturan el significado semántico del texto, lo que permite búsquedas basadas en la similitud conceptual en lugar de la superposición léxica.
Una aplicación que utiliza Azure OpenAI debe evitar automáticamente la generación de contenido relacionado con la violencia, el discurso de odio, el contenido sexual o la autolesión.
→Confíe en el filtrado de contenido incorporado, impulsado por Azure AI Content Safety. Configure los niveles de severidad (bajo, medio, alto) para cada categoría de daño.
Por qué: Azure OpenAI incluye un sistema de seguridad obligatorio y multicapa que filtra tanto las prompts como las completions para alinearse con los principios de IA responsable.
Un equipo de marketing necesita generar imágenes de productos personalizadas para campañas publicitarias a partir de descripciones de texto.
→Utilice el modelo DALL-E disponible a través del servicio Azure OpenAI. Elabore un prompt detallado que describa la imagen deseada.
Por qué: DALL-E es un modelo de generación de texto a imagen, diseñado específicamente para crear imágenes novedosas a partir de prompts en lenguaje natural.
Un asistente de IA generativa necesita acceder a datos en tiempo real (por ejemplo, precios actuales de acciones) o ejecutar acciones (por ejemplo, reservar una reunión) llamando a APIs externas.
→Utilice la capacidad de llamada a funciones de los modelos de Azure OpenAI. Defina las funciones disponibles en la solicitud de la API; el modelo generará un objeto JSON estructurado que especificará qué función llamar con qué argumentos.
Por qué: La llamada a funciones permite a los LLM interactuar con herramientas y APIs externas, superando la limitación de sus datos de entrenamiento estáticos y permitiéndoles tomar acción.
Un equipo necesita construir, evaluar e implementar una aplicación compleja de IA generativa orquestando llamadas a LLM, scripts de Python y plantillas de prompt en un flujo de trabajo visual.
→Utilice Azure AI Foundry (anteriormente AI Studio) y su función de Prompt flow. Construya la aplicación como un gráfico visual de herramientas conectadas.
Por qué: Prompt flow es la herramienta de orquestación para construir y probar aplicaciones complejas basadas en LLM, encadenando múltiples componentes en un flujo de trabajo reproducible.
Un equipo de TI necesita construir un copilot personalizado para uso interno que pueda responder preguntas de empleados e integrarse con sistemas empresariales (por ejemplo, ServiceNow, SAP) utilizando una plataforma de bajo código.
→Utilice Microsoft Copilot Studio. Proporciona una interfaz gráfica de bajo código para construir copilots personalizados con conectores preconstruidos y capacidades de IA generativa.
Por qué: Copilot Studio abstrae la complejidad de construir asistentes de IA de nivel empresarial, permitiendo un desarrollo rápido sin una codificación extensiva.