Articles
Cadre de notation RICE : comment prioriser votre backlog produit

Kelly Lewandowski
Dernière mise à jour 19/02/20268 min de lecture
Comment fonctionne la notation RICE
| Composant | Ce qu'il mesure | Comment le noter |
|---|---|---|
| Portée | Combien de personnes cela affecte sur une période définie | Nombres réels (ex. : 2 000 utilisateurs/trimestre) |
| Impact | À quel point chaque personne est affectée | 3 = massif, 2 = élevé, 1 = moyen, 0,5 = faible, 0,25 = minimal |
| Confiance | À quel point vous êtes sûr de vos estimations | 100 % = appuyé par des données, 80 % = quelques preuves, 50 % = principalement des suppositions |
| Effort | Temps total de l'équipe requis | Personnes-mois (incluez conception, dev, QA, docs) |
Un exemple rapide
- Portée : 2 000 clients par trimestre
- Impact : 2 (élevé, affecte directement la conversion)
- Confiance : 80 % (vous avez des données de test A/B d'un concurrent)
- Effort : 3 personnes-mois
Bien noter chaque composant
Portée : utilisez des nombres réels, pas des pourcentages
Impact : forcez une distribution
Confiance : commencez bas et montez progressivement
Effort : comptez tout, pas seulement l'ingénierie

RICE vs MoSCoW vs WSJF
| RICE | MoSCoW | WSJF | |
|---|---|---|---|
| Type | Score quantitatif | Catégories | Score économique |
| Meilleur pour | Classement au niveau des fonctionnalités | Définition de la portée MVP | Décisions au niveau des épopées/initiatives |
| Données nécessaires | Métriques utilisateurs + estimations | Jugement des parties prenantes | Données économiques + apport inter-équipes |
| Complexité | Moyenne | Faible | Élevée |
| Résultat | Score de priorité numérique | Doit / Devrait / Pourrait / Ne fera pas | Priorité du coût du délai |
Erreurs courantes qui faussent vos scores
