Publicaciones

Framework de puntuación RICE: cómo priorizar tu product backlog

Equipo de producto reunido alrededor de una pizarra cubierta de notas adhesivas coloridas, ordenando y clasificando elementos para decidir qué construir a continuaciónEquipo de producto reunido alrededor de una pizarra cubierta de notas adhesivas coloridas, ordenando y clasificando elementos para decidir qué construir a continuación
Kelly Lewandowski

Kelly Lewandowski

Última actualización 19/02/20268 min de lectura

Todos los equipos de producto tienen el mismo problema: demasiadas ideas y no suficiente tiempo. Los stakeholders presionan con prioridades competitivas, los ingenieros quieren pagar la deuda técnica, y los clientes siguen solicitando funcionalidades. Sin una forma clara de clasificar qué es lo más importante, la voz más fuerte en la sala gana. RICE es un framework de puntuación desarrollado por el equipo de producto de Intercom que intenta solucionar esto. Evalúa funcionalidades a través de cuatro dimensiones (Alcance, Impacto, Confianza y Esfuerzo) y produce un único número que puedes usar para comparar cualquier cosa en tu backlog.

Cómo funciona la puntuación RICE

Aquí está la fórmula: Puntuación RICE = (Alcance × Impacto × Confianza) / Esfuerzo Cada componente mide algo diferente:
ComponenteQué mideCómo puntuarlo
AlcanceCuántas personas afecta esto en un período de tiempo establecidoNúmeros reales (ej., 2,000 usuarios/trimestre)
ImpactoCuánto afecta a cada persona3 = masivo, 2 = alto, 1 = medio, 0.5 = bajo, 0.25 = mínimo
ConfianzaQué tan seguro estás sobre tus estimaciones100% = respaldado por datos, 80% = alguna evidencia, 50% = principalmente conjeturas
EsfuerzoTiempo total del equipo requeridoPersona-meses (incluye diseño, desarrollo, QA, documentación)
El resultado es "impacto total por tiempo trabajado", que es lo que deberías optimizar al decidir qué construir a continuación.

Un ejemplo rápido

Digamos que tu equipo está considerando agregar recomendaciones de productos personalizadas:
  • Alcance: 2,000 clientes por trimestre
  • Impacto: 2 (alto, afecta directamente la conversión)
  • Confianza: 80% (tienes datos de pruebas A/B de un competidor)
  • Esfuerzo: 3 persona-meses
Puntuación RICE = (2,000 × 2 × 0.8) / 3 = 1,067 Compara eso con otros elementos del backlog y tendrás una clasificación basada en datos. Prueba conectar tus propias funcionalidades en nuestra Calculadora de Puntuación RICE gratuita para ver cómo se comparan.

Puntuando bien cada componente

La fórmula es simple. Obtener entradas precisas es la parte difícil.

Alcance: usa números reales, no porcentajes

El Alcance debe ser un conteo concreto de usuarios o eventos durante un período de tiempo fijo. "Todos nuestros usuarios" no es una estimación de alcance. Revisa tus analíticas. Si estás construyendo una nueva página de configuración, no asumas que todos los 10,000 usuarios activos la tocarán. Los datos históricos podrían mostrar que solo 1,200 usuarios visitan configuración en un trimestre determinado. Usa ese número.

Impacto: fuerza una distribución

El mayor error que los equipos cometen con el Impacto es calificar todo con un 2 o 3. Si cada funcionalidad es de "alto impacto", la puntuación pierde significado. Establece una regla: no más del 20% de las funcionalidades pueden ser calificadas con 3 (masivo). Define qué significa cada nivel para tus métricas específicas. Por ejemplo, "3 = mejora proyectada del 10%+ en una métrica de negocio que estamos rastreando activamente."

Confianza: comienza bajo y gana tu camino hacia arriba

Predetermina al 50% de confianza para cualquier idea que no haya sido validada. ¿Una solicitud de un stakeholder sin investigación de usuarios? 50%. ¿Una funcionalidad inspirada por un competidor sin datos sobre si tus usuarios la quieren? 50%. Muévete al 80% cuando tengas evidencia de apoyo como entrevistas a usuarios, datos de encuestas o resultados de pruebas de prototipos. Reserva el 100% para funcionalidades respaldadas por analíticas sólidas o experimentos exitosos.

Esfuerzo: cuenta todo, no solo la ingeniería

Una trampa común es estimar solo el tiempo de desarrollo. El esfuerzo real incluye descubrimiento, diseño, QA, documentación y coordinación de lanzamiento también. Pide a cada disciplina su estimación y agrega un buffer del 30%. Una persona equilibrando cuidadosamente objetos de diferentes tamaños en una balanza, representando el pesaje de alcance, impacto, confianza y esfuerzoUna persona equilibrando cuidadosamente objetos de diferentes tamaños en una balanza, representando el pesaje de alcance, impacto, confianza y esfuerzo

RICE vs MoSCoW vs WSJF

RICE no es el único framework de priorización que existe. Otras dos opciones populares son MoSCoW y WSJF. Cada uno funciona mejor en contextos diferentes.
RICEMoSCoWWSJF
TipoPuntuación cuantitativaCategoríasPuntuación económica
Mejor paraClasificación a nivel de funcionalidadDefinición del alcance del MVPDecisiones a nivel de épica/iniciativa
Datos necesariosMétricas de usuario + estimacionesJuicio de stakeholdersDatos económicos + input de equipos cruzados
ComplejidadMediaBajaAlta
ResultadoPuntuación numérica de prioridadDebe / Debería / Podría / NoPrioridad de costo de retraso
MoSCoW ordena elementos en Debe Tener, Debería Tener, Podría Tener, y No Tendrá. Es rápido y fácil de explicar a stakeholders no técnicos. La desventaja es que es subjetivo: todo tiende a derivar hacia "Debe Tener" sin criterios claros. Funciona mejor al principio cuando estás definiendo un MVP. WSJF (Weighted Shortest Job First) proviene del framework SAFe. Su fórmula considera el valor del negocio, la criticidad del tiempo y la reducción de riesgo, todo dividido por el tamaño del trabajo. Funciona bien para grandes iniciativas que abarcan múltiples equipos, pero requiere entrenamiento real para usarse correctamente. La mayoría de los equipos lo encuentran excesivo para decisiones a nivel de funcionalidad. RICE se sitúa entre los dos. Pide más rigor que MoSCoW pero no necesita la pesada infraestructura de datos que WSJF demanda. Si tu equipo tiene analíticas básicas de usuario y quiere avanzar más allá de la priorización por intuición, RICE es un buen punto de partida. Si tu equipo usa priority poker para clasificar colaborativamente elementos del backlog, las puntuaciones RICE te dan un sólido punto de partida para esas discusiones.

Errores comunes que sesgan tus puntuaciones

Incluso los equipos que adoptan RICE consistentemente caen en algunas trampas. Puntuar en aislamiento. Cuando un solo PM puntúa todo solo, el sesgo se infiltra. Haz que los ingenieros estimen el Esfuerzo, los diseñadores opinen sobre el Impacto, y los analistas de datos validen el Alcance. La puntuación colaborativa produce mejores resultados. Anclarse en la primera puntuación. Si discutes las puntuaciones en voz alta antes de que todos voten, las personas se anclan en el primer número que escuchan. Puntúa individualmente primero, luego compara. Mismo principio que planning poker: estimación independiente antes de la discusión grupal. Saltarse la recalibración. Las puntuaciones RICE se vuelven obsoletas. Las condiciones del mercado cambian, llegan nuevos datos, y la capacidad del equipo cambia. Revisa las puntuaciones trimestralmente y actualiza cualquier elemento que haya estado en el backlog por más de un ciclo. Tratar el número como absoluto. Una puntuación RICE de 850 vs 820 no significa que la primera funcionalidad sea significativamente más importante. Agrupa puntuaciones similares en niveles (alta / media / baja prioridad) y usa el juicio dentro de cada nivel. Miembros del equipo escribiendo puntuaciones individualmente en tarjetas antes de revelarlas juntos, previniendo el sesgo de anclajeMiembros del equipo escribiendo puntuaciones individualmente en tarjetas antes de revelarlas juntos, previniendo el sesgo de anclaje

Comenzando con RICE

Si no has usado RICE antes, aquí está cómo implementarlo sin complicar demasiado las cosas.
Define tu rúbrica de puntuación
Escribe qué significa cada nivel de Impacto para tu producto. Establece un período de tiempo estándar para Alcance. Documenta directrices de estimación de Esfuerzo. Haz que el equipo esté de acuerdo antes de que alguien comience a puntuar.
Puntúa tus 15-20 principales elementos del backlog
No intentes puntuar con RICE todo tu backlog de 200 elementos. Comienza con los candidatos más probables para tu próximo sprint o trimestre. Usa nuestra Calculadora de Puntuación RICE para acelerar esto.
Ejecuta una sesión de calibración
Puntúa 5-10 funcionalidades pasadas como ejercicio de equipo. Compara puntuaciones, discute desacuerdos, y refina tu rúbrica. Este paso de alineación es lo que convierte a RICE de un ejercicio de hoja de cálculo en una herramienta compartida de toma de decisiones.
Integra en tu cadencia de planificación
Puntúa nuevas ideas a medida que entran al backlog. Revisa puntuaciones durante el refinamiento del backlog. Actualiza puntuaciones obsoletas cada trimestre. Rastrea si las funcionalidades de alto RICE realmente entregaron el impacto esperado.
El objetivo no es la precisión perfecta. Una estimación aproximadamente correcta supera a una opinión confidentemente equivocada. La mayor parte del valor de RICE proviene de la conversación que fuerza: para quién estamos construyendo, cuánto importa, y qué costará realmente. Para más sobre la preparación de tu backlog para la planificación de sprint, consulta nuestras guías sobre refinamiento del backlog y planificación de sprint.

ICE (Impact, Confidence, Ease) elimina el componente de Alcance y reemplaza Esfuerzo con Facilidad. Es más rápido pero menos preciso. Úsalo cuando no tengas datos confiables de alcance.

Como mínimo, revisa las puntuaciones RICE trimestralmente. Re-puntúa cada vez que obtengas nuevos datos que cambien tus suposiciones: resultados de investigación de usuarios, cambios en analíticas, o cambios en la capacidad del equipo.

Sí. Los equipos de marketing lo usan para priorizar campañas, los equipos de diseño lo usan para inversiones en sistemas de diseño, y los equipos de ingeniería lo usan para deuda técnica. La fórmula funciona en cualquier lugar donde necesites comparar valor contra esfuerzo.

Para bugs menores, una matriz simple de severidad/frecuencia es generalmente suficiente. RICE funciona bien para bugs más grandes o problemas donde necesitas sopesar la corrección contra el trabajo de funcionalidades que compiten por el mismo sprint.