Beiträge
RICE Scoring Framework: So priorisieren Sie Ihren Product Backlog

Kelly Lewandowski
Zuletzt aktualisiert am 19/02/20268 Min. Lesezeit
Wie RICE Scoring funktioniert
| Komponente | Was es misst | Wie man es bewertet |
|---|---|---|
| Reach | Wie viele Personen dies in einem festgelegten Zeitraum betrifft | Echte Zahlen (z.B. 2.000 Nutzer/Quartal) |
| Impact | Wie stark jede Person betroffen ist | 3 = massiv, 2 = hoch, 1 = mittel, 0,5 = niedrig, 0,25 = minimal |
| Confidence | Wie sicher Sie sich bei Ihren Schätzungen sind | 100% = datengestützt, 80% = einige Belege, 50% = hauptsächlich Vermutung |
| Effort | Gesamter benötigter Teamaufwand | Personenmonate (inkl. Design, Dev, QA, Doku) |
Ein kurzes Beispiel
- Reach: 2.000 Kunden pro Quartal
- Impact: 2 (hoch, beeinflusst direkt die Conversion)
- Confidence: 80% (Sie haben A/B-Testdaten von einem Mitbewerber)
- Effort: 3 Personenmonate
Jede Komponente gut bewerten
Reach: Verwenden Sie echte Zahlen, keine Prozentsätze
Impact: Erzwingen Sie eine Verteilung
Confidence: Starten Sie niedrig und arbeiten Sie sich hoch
Effort: Zählen Sie alles, nicht nur Engineering

RICE vs MoSCoW vs WSJF
| RICE | MoSCoW | WSJF | |
|---|---|---|---|
| Typ | Quantitativer Score | Kategorische Einteilung | Wirtschaftlicher Score |
| Am besten für | Feature-Level-Ranking | MVP-Scope-Definition | Entscheidungen auf Epic/Initiative-Ebene |
| Benötigte Daten | Nutzermetriken + Schätzungen | Stakeholder-Beurteilung | Wirtschaftsdaten + teamübergreifender Input |
| Komplexität | Mittel | Niedrig | Hoch |
| Output | Numerischer Prioritätsscore | Must / Should / Could / Won't | Cost-of-Delay-Priorität |
Häufige Fehler, die Ihre Scores verzerren
