Detectar cuándo el rendimiento de un modelo en producción se está degradando debido a cambios en los datos entrantes o los resultados predichos.
→Configurar Vertex AI Model Monitoring. Configurar un trabajo para detectar el sesgo de entrenamiento-servicio (cambios en la distribución de entrada desde el entrenamiento) y la deriva de predicción (cambios en la distribución de salida con el tiempo).
Por qué: Proporciona un sistema de alerta temprana automatizado para la degradación del modelo, permitiendo el reentrenamiento proactivo o la intervención antes de que las métricas de negocio se vean significativamente afectadas.
Referencia↗
El rendimiento del modelo se está degradando, pero las distribuciones de las características de entrada parecen estables (no se detecta deriva de datos).
→Implementar monitoreo de los resultados de la predicción frente a etiquetas de verdad fundamental retrasadas. Una caída en la precisión u otras métricas de evaluación indica deriva de concepto, donde la relación entre las características y el objetivo ha cambiado.
Por qué: El monitoreo de deriva de características por sí solo es insuficiente. La deriva de concepto requiere evaluar las predicciones del modelo frente a los valores reales para detectar cambios en los patrones subyacentes.
Proporcionar explicaciones para predicciones individuales del modelo para cumplir con la conformidad regulatoria o para la confianza de las partes interesadas.
→Habilitar Vertex AI Explainable AI en el endpoint desplegado. Usar métodos como Sampled Shapley o Integrated Gradients para obtener atribuciones de características para cada predicción.
Por qué: Proporciona explicaciones locales, por predicción, que identifican qué características contribuyeron a una decisión, lo cual es esencial para auditar y depurar modelos de "caja negra".
Asegurar que un modelo se desempeñe equitativamente en diferentes segmentos de usuarios (ej., datos demográficos) y detectar sesgos ocultos.
→Configurar el monitoreo del modelo para calcular y rastrear métricas de rendimiento (ej., precisión, tasas de error) en segmentos de los datos definidos por atributos sensibles.
Por qué: Las métricas agregadas pueden ocultar un rendimiento deficiente para subgrupos minoritarios. El análisis segmentado es crucial para identificar y mitigar problemas de equidad.
Evitar que un modelo realice predicciones poco fiables y excesivamente seguras sobre entradas que son fundamentalmente diferentes de sus datos de entrenamiento.
→Implementar un modelo de detección de fuera de distribución (OOD) (ej., un autoencoder) junto con el modelo principal. Un alto error de reconstrucción marca una entrada como OOD, activando una lógica de fallback.
Por qué: Proporciona un mecanismo de seguridad contra el cambio de dominio, mejorando la robustez del modelo al identificar cuándo el modelo está operando fuera de su área de especialización.
Documentar el uso previsto de un modelo, sus limitaciones, datos de entrenamiento y evaluación de equidad para partes interesadas técnicas y no técnicas.
→Crear una Tarjeta de Modelo utilizando el framework de Google. Incluir secciones sobre detalles del modelo, uso previsto, consideraciones éticas, análisis cuantitativos (incluyendo métricas segmentadas) y limitaciones.
Por qué: Un estándar para la documentación de IA responsable que promueve la transparencia, la rendición de cuentas y el uso adecuado del modelo en toda una organización.
Mantener un registro auditable y con capacidad de búsqueda de todas las solicitudes y respuestas de predicción para cumplimiento y depuración.
→Habilitar el registro de acceso en el Endpoint de Vertex AI. Configurar los registros para que se exporten a BigQuery para almacenamiento y análisis estructurado a largo plazo.
Por qué: BigQuery proporciona una plataforma escalable y consultable para crear pistas de auditoría, analizar tendencias de predicción y unir predicciones con datos de verdad fundamental.