Aumente un modelo fundacional con datos privados de la empresa (PDFs, documentos, contenido de S3) sin fine-tuning.
→Cree una base de conocimientos de Amazon Bedrock (Knowledge Base). Bedrock maneja la ingesta, fragmentación, incrustación (embedding) y recuperación (RAG) en el momento de la inferencia.
Por qué: Más barato y rápido de actualizar que el fine-tuning. Los datos de origen cambian → resincronice la KB; sin reentrenamiento.
Referencia↗
Los datos cambian con frecuencia (inventario, precios, noticias) y el modelo debe reflejar el estado actual.
→RAG con una base de conocimientos. Evite el fine-tuning — los ciclos de reentrenamiento no pueden seguir el ritmo.
Por qué: RAG separa el modelo de los datos; la KB se actualiza independientemente del modelo.
Ajuste un modelo fundacional con ejemplos etiquetados para una tarea específica.
→Proporcione pares prompt-completado (instrucción-respuesta). El formato JSONL es estándar.
Por qué: El fine-tuning de instrucciones enseña al modelo a mapear las entradas del usuario a las salidas deseadas en la tarea objetivo.
Referencia↗
Enseñe a un modelo fundacional vocabulario especializado (médico, legal, científico) utilizando mucho texto de dominio sin etiquetar.
→Preentrenamiento continuado en el corpus de dominio sin etiquetar.
Por qué: El preentrenamiento continuado actualiza la comprensión del modelo de vocabulario y conceptos; el fine-tuning de instrucciones enseña el comportamiento de la tarea. Objetivo diferente, forma de datos diferente.
Referencia↗
Flujo de trabajo multi-paso que combina el razonamiento del LLM con llamadas a APIs externas, bases de datos o servicios de AWS.
→Amazon Bedrock Agents — orquesta el razonamiento del LLM, la invocación de herramientas/API y la síntesis de resultados en un único tiempo de ejecución gestionado.
Por qué: Los agentes planifican los pasos, llaman a las herramientas y unen los resultados en una respuesta final sin que usted escriba el bucle de orquestación.
Referencia↗
Elija una base de datos vectorial para embeddings.
→RAG gestionado → Bedrock Knowledge Bases (maneja el almacén de vectores automáticamente). Base de datos vectorial personalizada → OpenSearch Service (k-NN), Aurora PostgreSQL con pgvector, Neptune Analytics o RDS para PostgreSQL con pgvector.
Por qué: OpenSearch es el predeterminado para k-NN a gran escala; pgvector reutiliza una base de datos relacional existente.
Referencia↗
Implemente un modelo fine-tuned de Bedrock para el servicio de producción.
→Compre Rendimiento Aprovisionado para el modelo personalizado de Bedrock. Los modelos personalizados no se pueden invocar a través de precios bajo demanda.
Por qué: La capacidad del modelo personalizado es dedicada, facturada en unidades de modelo y requerida para la invocación.
Referencia↗
Estime o reduzca el costo de inferencia de Bedrock.
→Costo ≈ tokens procesados × tarifa por token. Reduzca acortando prompts, recortando ejemplos de pocas tomas, eligiendo modelos más pequeños o usando el almacenamiento en caché de prompts donde sea compatible.
Referencia↗
Genere datos etiquetados de alta precisión con revisión humana (ej. imágenes especializadas, registros médicos).
→Amazon SageMaker Ground Truth Plus — fuerza de trabajo de etiquetado HITL gestionada.
Por qué: Para la auditoría periódica de predicciones de modelos de baja confianza, combínelo con Amazon A2I (Augmented AI).
Referencia↗
El reconocimiento de voz entiende mal términos específicos del dominio (médicos, legales, nombres de marcas).
→Amazon Transcribe con un modelo de lenguaje personalizado o vocabulario personalizado entrenado en texto de dominio.
Referencia↗
El modelo funciona bien en el entrenamiento pero mal en producción (sobreajuste) — aumente la generalización sin cambiar la arquitectura.
→Aumente el volumen y la diversidad de los datos de entrenamiento. No reduzca datos ni solo añada hiperparámetros.
Por qué: Más datos representativos es la solución de mayor impacto; la regularización y la detención temprana ayudan, pero los datos dominan.
Evalúe la calidad de la salida generativa.
→Calidad de traducción → BLEU. Calidad de resumen → ROUGE. Similitud semántica con la referencia → BERTScore. Preferencia estilística → evaluación humana con conjuntos de prompts personalizados.
Elija un modelo fundacional de Bedrock para un caso de uso donde el estilo de salida importa.
→Realice una evaluación humana en un conjunto de datos de prompts personalizados en todos los modelos candidatos. No confíe únicamente en las tablas de clasificación públicas o las métricas de latencia.
Por qué: El ajuste de estilo/tono es subjetivo; los benchmarks no lo capturan.
Referencia↗
Genere gráficos y paneles a partir de preguntas en lenguaje natural sobre datos comerciales.
→Amazon Q en QuickSight — BI en lenguaje natural sobre conjuntos de datos de QuickSight.
Referencia↗