z, ? | toggle help (this) |
space, → | next slide |
shift-space, ← | previous slide |
b | blank screen |
d | toggle debug mode |
## <ret> | go to slide # |
c, t | table of contents (vi) |
f | toggle footer |
g | toggle follow |
r | reload slides |
n | toggle notes |
p | run preshow |
P | toggle pause |
s | choose style |
Arbeiten in kleinen, iterativen Zyklen
Ziele:
SCRUM Board warnt vor Queueing
Nur done ist done
Kleine Tasks sind (meistens) effizienter
Große Tasks verhindern schnelles Feedback
Große Tasks zeigen oft hohes Risiko
Risikominimierung durch Aufsplittung
Zu implementieren: Suche auf Webseite
"Nice-to-have": Suche hat Auto-Complete
Gleiche Fehler tauchen immer wieder auf
Dinge gehen nur manchmal
5 Mal "Warum?" fragen
"Root Cause Analysis"
"Ich bin der festen Überzeugung, dass..."
"Meiner Meinung nach sollten wir..."
"Das liegt vermutlich an..."
Experimente bestätigen / wiederlegen These
Möglichst falisfizierbare Hypothesen
Nutzung von Daten zur Bestätigung / Widerlegung von Hypothesen
Wie finde ich die richtigen Metriken?
Wie interpretiere ich meine Metriken?
Wie messe ich Verbesserungen?
Welche Metriken helfen bei Entscheidungsfindung?
Metriken, aus denen sich Entscheidungen ableiten lassen: Actionable Metrics
Metriken, die uns nicht bei Entscheidungsfindung helfen: Vanity Metrics
Konversionsrate vs. Seitenaufrufe
Aktivierungen vs. Downloads
Durchlaufzeit vs. Story Points
Fakturierte Stunden vs. Arbeitszeit
Wie kann Innovation und Lernen "dokumentiert" werden?
Wie kann ich darüber buchhalten?
Methoden ausprobieren (als Team), z.B.
Methoden Evaluieren
Methoden anpassen