1. Métricas y KPIs
Indicadores clave para medir salud del producto, negocio y experiencia de usuario.
1.1 🎯 Métricas vs KPIs
Qué: Métricas = cualquier dato medible. KPIs = métricas críticas para objetivos estratégicos.
Por qué: Enfoque en lo que importa. "What gets measured gets managed."
Quién: PMs, founders, data analysts, leadership.
Cuándo: Definir al lanzar producto, revisar mensual/trimestral.
Esfuerzo: 5-7 KPIs máximo por producto. Menos es más.
1.2 ❤️ HEART Framework (Google)
Qué: Framework de Google para medir UX y engagement.
Por qué: Estructura completa para product health.
Cuándo: Definir métricas de producto, dashboards.
| Dimensión | Qué | Métricas Ejemplo | Cuándo usar |
|---|---|---|---|
| Happiness | Satisfacción y actitud | NPS, CSAT, app store rating | Productos consumer, SaaS |
| Engagement | Nivel de actividad | DAU/MAU, sesiones/usuario, tiempo en app | Apps sociales, contenido |
| Adoption | Nuevos usuarios usando feature | % usuarios activos usando feature X | Lanzar features |
| Retention | Usuarios que regresan | D1/D7/D30 retention, churn rate | Todo producto |
| Task Success | Eficiencia completando tareas | Tasa completación, tiempo por tarea, error rate | Herramientas, utilities |
Ejemplo - App de Fitness:
- Happiness: App store rating 4.5★, NPS 45
- Engagement: 3.5 workouts/semana, 25 min/sesión
- Adoption: 60% usuarios probaron feature "Challenges"
- Retention: 40% D30 retention
- Task Success: 85% completan workout sin saltar
1.3 🏴☠️ AARRR (Pirate Metrics)
Qué: Framework de Dave McClure para medir funnel de producto.
Por qué: Optimizar cada etapa del customer journey.
Cuándo: Startups growth, optimización conversión.
| Etapa | Qué | Métricas | Optimizar |
|---|---|---|---|
| Acquisition | Cómo llegan usuarios | Tráfico, cost per acquisition (CPA), canales | SEO, ads, referrals |
| Activation | Primera experiencia positiva | % completan onboarding, time to value | Onboarding, aha moment |
| Retention | Usuarios regresan | D7/D30 retention, churn rate | Engagement loops, notifs |
| Revenue | Monetización | MRR, ARPU, LTV | Pricing, upsells |
| Referral | Usuarios invitan otros | Referral rate, K-factor, viral coefficient | Sharing, incentivos |
Funnel típico:
1000 visitantes
↓ 20% signup
200 usuarios
↓ 50% activan
100 activos
↓ 40% retención D30
40 retained
↓ 25% convierten pago
10 pagos
↓ 20% refieren
2 referrals
Acción: Identificar mayor drop-off y optimizar ahí primero.
1.4 📊 Métricas DORA (DevOps)
Qué: Métricas para evaluar performance de engineering teams.
Por qué: Correlación demostrada con business outcomes.
Cuándo: Evaluar madurez DevOps, benchmarking.
| Métrica | Qué | Elite | High | Medium | Low |
|---|---|---|---|---|---|
| Deployment Frequency | Frecuencia de deploys a prod | On-demand | Semanal-mensual | Mensual-semestral | < Semestral |
| Lead Time for Changes | Commit → producción | < 1 hora | < 1 día | < 1 semana | > 1 semana |
| Change Failure Rate | % deploys que fallan | 0-15% | 30% | 45% | > 45% |
| MTTR | Mean Time To Recover | < 1 hora | < 1 día | < 1 semana | > 1 semana |
Cómo mejorar:
- Deployment Frequency: CI/CD automático, feature flags
- Lead Time: Trunk-based development, automatización
- Change Failure Rate: Tests, code review, staging
- MTTR: Monitoring, runbooks, rollback automático
1.5 🎯 NPS, CSAT, CES
1.5.1 NPS (Net Promoter Score)
Qué: "¿Qué tan probable recomendarías [producto] a un amigo?" (0-10)
Cálculo: % Promotores (9-10) - % Detractores (0-6)
Interpretación:
- > 50: Excelente
- 50: Bueno
- 0-30: Mejorar
- < 0: Problema serio
Cuándo: Trimestral, post-interacción importante
1.5.2 CSAT (Customer Satisfaction)
Qué: "¿Qué tan satisfecho estás con [experiencia]?" (1-5)
Cálculo: (Respuestas 4-5 / Total) × 100
Cuándo: Post-support ticket, post-compra
1.5.3 CES (Customer Effort Score)
Qué: "¿Qué tan fácil fue resolver tu problema?" (1-7)
Cálculo: Promedio de respuestas (menor = mejor)
Cuándo: Post-tarea compleja, onboarding
Comparación:
| Métrica | Predice | Cuándo |
|---|---|---|
| NPS | Loyalty, growth | Long-term health |
| CSAT | Satisfacción momento | Experiencia específica |
| CES | Retention | Esfuerzo usuario |
1.6 💰 Métricas de Negocio
1.6.1 SaaS Metrics
| Métrica | Qué | Fórmula | Target |
|---|---|---|---|
| MRR | Monthly Recurring Revenue | Suma suscripciones mensuales | Crecimiento 10%+ MoM |
| ARR | Annual Recurring Revenue | MRR × 12 | - |
| ARPU | Average Revenue Per User | MRR / Total usuarios | ↑ Over time |
| LTV | Lifetime Value | ARPU × (1 / Churn rate) | LTV > 3× CAC |
| CAC | Customer Acquisition Cost | Sales+Marketing / Nuevos clientes | ↓ Over time |
| Churn Rate | % clientes que cancelan | Cancelaciones / Total usuarios | < 5% mensual |
| CAC Payback | Meses para recuperar CAC | CAC / (ARPU × Margen bruto) | < 12 meses |
Ejemplo:
- MRR: $100k
- ARPU: $50/mes
- Churn: 5%/mes
- LTV: $50 / 0.05 = $1,000
- CAC: $300
- LTV/CAC = 3.33 ✅ (target: >3)
1.6.2 E-commerce
| Métrica | Qué | Fórmula |
|---|---|---|
| Conversion Rate | % visitantes que compran | Compras / Visitantes × 100 |
| AOV | Average Order Value | Revenue / # Órdenes |
| Cart Abandonment | % carritos no completados | Carritos abandonados / Carritos iniciados |
| ROAS | Return on Ad Spend | Revenue ads / Gasto ads |
1.7 📈 Métricas de Engagement
| Métrica | Qué | Cálculo | Interpretación |
|---|---|---|---|
| DAU/MAU | Daily/Monthly Active Users | Ratio DAU/MAU | >20% = sticky product |
| Sessions/User | Frecuencia de uso | Sesiones totales / Usuarios | Engagement alto |
| Session Duration | Tiempo por visita | Avg tiempo sesión | Depende producto |
| Feature Adoption | % usando feature | Usuarios feature / Total activos | >70% = feature exitosa |
| Stickiness | Hábito de uso | DAU / MAU | >0.2 = sticky |
DAU/MAU Benchmark:
- >40%: Redes sociales top (Facebook, Instagram)
- 40%: Productos con buen engagement
- <20%: Engagement débil
1.8 🔄 Retention Cohorts
Qué: Tabla que muestra % usuarios activos por cohorte en el tiempo.
Por qué: Identificar si retention mejora con cambios de producto.
Ejemplo:
| Cohort | Week 0 | Week 1 | Week 2 | Week 3 | Week 4 |
|---|---|---|---|---|---|
| Jan W1 | 100% | 40% | 30% | 25% | 23% |
| Jan W2 | 100% | 45% | 35% | 30% | 28% |
| Jan W3 | 100% | 50% | 40% | 35% | 33% |
Insight: Retention mejorando (cohorts nuevos retienen mejor). Cambios recientes funcionan.
Buena retention curve: Se aplana (no llega a 0%)
1.9 ⚠️ Vanity Metrics vs Actionable Metrics
| Vanity (Evitar) | Por qué engañosa | Actionable (Preferir) |
|---|---|---|
| Total usuarios registrados | No dice cuántos activos | MAU, DAU |
| Page views | No refleja engagement real | Tiempo en página, conversión |
| Followers sociales | Pueden ser bots, inactivos | Engagement rate, clicks |
| Total downloads | No dice cuántos usan | D7/D30 retention |
| Revenue absoluto | Sin contexto de costo | MRR growth rate, LTV/CAC |
Principio: Métrica accionable = si sube/baja, sabes qué hacer.
1.10 🎯 North Star + Supporting Metrics
Estructura:
[North Star Metric]
/ | \
Input 1 Input 2 Input 3
/ \ / \ / \
M1 M2 M3 M4 M5 M6
Ejemplo - Spotify:
- North Star: Tiempo escuchando música
- Input Metrics:
- Frecuencia uso (sesiones/semana)
- Engagement con playlists (saves, shares)
- Discovery (nuevas canciones/artistas)
- Supporting:
- % usuarios usando Discover Weekly
- Avg canciones por playlist
- % sesiones completas (no skip)
1.11 🔬 A/B Testing Metrics
| Concepto | Qué | Ejemplo |
|---|---|---|
| Primary Metric | Métrica principal a mover | Conversion rate |
| Secondary Metrics | Otras métricas a monitorear | AOV, retention |
| Guardrail Metrics | No deben empeorar | Load time, error rate |
| Statistical Significance | p-value < 0.05 | Confianza 95% |
| Minimum Detectable Effect | Cambio mínimo a detectar | +5% conversion |
Evitar: Múltiples comparaciones sin corrección (p-hacking).
1.12 📊 Dashboards
1.12.1 Dashboard de Producto
1.12.2 Sección 1: Health Overview
- MAU, DAU, DAU/MAU
- Churn rate
- NPS
1.12.3 Sección 2: Engagement
- Sesiones/usuario
- Session duration
- Feature adoption
1.12.4 Sección 3: Growth
- New users
- Activation rate
- Retention cohorts
1.12.5 Sección 4: Business
- MRR, ARR
- LTV, CAC
- Conversion funnel
Herramientas: Amplitude, Mixpanel, Looker, Metabase
1.13 🚫 Errores Comunes
| Error | Problema | Solución |
|---|---|---|
| Demasiadas métricas | Parálisis, falta foco | 5-7 KPIs máximo |
| Métricas sin ownership | Nadie responsable | Asignar owner por métrica |
| No segmentar | Promedios esconden insights | Segmentar por persona, feature, cohorte |
| Optimizar métrica equivocada | Goodhart's Law | Validar que métrica refleja valor real |
| Ignorar leading indicators | Solo mirar lagging | Balancear ambos |