Wie ich lernte, die Unsicherheit zu lieben

entscheidungsfindung monte-carlo tools unsicherheit

Ich muss gestehen: Ich habe ein Monte-Carlo-Simulationstool gebaut, weil ich keine Lust mehr hatte, katastrophale Entscheidungen mit meinem eigenen Geld zu treffen. Nun ja, technisch gesehen mit dem Firmengeld, aber als Mitgründer verschwimmt diese Unterscheidung ohnehin.

Alles begann mit einer Frage, die mich um 2 Uhr morgens wachhielt: Sollen wir 15.000€* für eine Computer Vision-Konferenz ausgeben?

Ich hatte gerade “How to Measure Anything” verschlungen und war völlig besessen davon. Ich steckte mitten in meiner Quantifizierungsphase – diese Zeit, in der man alles messen will, inklusive der Frage, ob das Messen von allem überhaupt messbar wertvoll ist. (Auch das ist eine Schwäche, aber dazu später mehr.)

Das Buch pflanzte mir zwei Ideen ins Gehirn: Erstens ist jedes Bauchgefühl eigentlich eine Messung, nur eine furchtbar ungenaue. Zweitens bekommt man bessere Schätzungen, wenn man seine Annahmen mit der Fermi-Methode auseinandernimmt.

Statt also meinem Bauchgefühl von “fühlt sich teuer an, aber lohnt sich wahrscheinlich” zu vertrauen, beschloss ich, es tatsächlich zu messen.

Auf dem Papier sah es simpel aus: Frühere Konferenzen hatten 2-4 ernsthafte Leads gebracht, etwa 10% wurden zu Kunden, und neue Kunden waren normalerweise 100.000€ im ersten Jahr wert. Meine treue Tabellenkalkulation verkündete siegessicher: 3 Leads × 10% Conversion × 100k€ Wert = 30.000€ Rendite bei 15.000€ Investition. Saubere Mathematik. Ordentlicher ROI. Entscheidung gefällt.

Nur dass mir dabei trotzdem mulmig wurde.

Warum Excel lügt

Tabellenkalkulationen sind selbstbewusste Lügner. “3 Leads”, verkündete mein Excel mit unerschütterlicher Autorität, als hätte das Universum einen Vertrag unterschrieben, genau diese Zahl zu liefern.

Aber mein Hirn wusste es besser. Bei der letzten Konferenz: genau 1 Lead. Bei der davor: 6 Leads. Unsere Conversion-Rate springt zwischen 5% und 20% hin und her – so berechenbar wie eine Katze, die entscheidet, wo sie ihr Nickerchen macht.

Und der Kundenwert? Manche wollen ein winziges Proof-of-Concept. Andere beschließen plötzlich, ihre komplette Computer Vision-Pipeline neu aufzubauen, und schwupps reden wir über Großaufträge.

Die Fermi-Methode schrie mich förmlich an, das aufzudröseln:

  • Wie viele Leute laufen tatsächlich an unserem Stand vorbei?
  • Welcher Prozentsatz ist nicht nur wegen der Gratis-Aufkleber da?
  • Von denen – wie viele können wirklich Schecks ausstellen?
  • Was bestimmt, ob jemand ein 30k€- oder ein 200k€-Projekt will?

Aber Excel starrte mich nur mit seinen kleinen rechteckigen Zellen an und verlangte einzelne, selbstbewusste Zahlen. Von Unsicherheit will es nichts wissen.

Ich liebe Wahrscheinlichkeiten, weil sie Unsicherheit greifbar machen. Der Unterschied zwischen 60% und 90% Vertrauen ist nicht nur theoretisch – es ist der Unterschied zwischen “lass uns das mal probieren” und “das machen wir auf jeden Fall”.

Zeit, etwas zu bauen, das meine Sprache spricht.

Monte Carlo statt Bauchgefühl

Ich beschloss, ein Tool zu entwickeln, das sowohl mit der Fermi-Aufschlüsselung als auch mit Unsicherheit umgehen kann. Statt Excels Forderung nach “3 Leads” würde ich es aufdröseln:

  • Standbesucher: 200-400 Personen (basierend auf bisherigem Publikumsverkehr)
  • Ernsthafte Gespräche: 15-25% der Besucher (der Rest jagt USB-Sticks)
  • Qualifizierte Leads: 30-50% der ernsthaften Gespräche (Leute, die tatsächlich entscheiden können)
  • Gesamte Leads: irgendwo zwischen 1-8, wobei 3 meine beste Schätzung war

Für jede Variable würde ich die Unsicherheit basierend auf unserer echten Erfahrung modellieren. Die Deal-Größe wurde zu ihrer eigenen Aufschlüsselung:

  • Kleine Projekte: 30k€-60k€ (“Mal schauen, ob dieses KI-Zeug funktioniert”)
  • Mittlere Projekte: 80k€-120k€ (“OK, wir sind überzeugt, lass uns hochskalieren”)
  • Große Projekte: 150k€-250k€ (“Wir wollen ALLE Computer Vision”)

Die Monte-Carlo-Simulation würde tausende Szenarien durchspielen und dabei jedes Mal neu würfeln innerhalb dieser Bereiche. Aber hier der Clou: Nicht alle Ergebnisse sind gleich wahrscheinlich. Deal-Größe folgt vermutlich einer log-normalen Verteilung (die meisten Deals sind klein, aber ein paar sind riesig), während Conversion-Raten eher normal um unseren historischen Durchschnitt verteilt sind.

Manche Durchläufe wären Katastrophen (1 Lead, 5% Conversion, winziger Deal). Andere wären Traumszenarien (6 Leads, 20% Conversion, Großkunden). Die meisten würden sich in der Mitte sammeln.

Was ich dabei entdeckte, brachte alles ins Wanken, was ich über Konferenzen zu wissen glaubte.

Es ging nie um Leads

Nach 10.000 simulierten Konferenzen zeichneten die Ergebnisse ein faszinierendes Bild:

  • 35% Chance auf Geldverlust
  • 40% Chance auf 2-3x Rendite
  • 25% Chance auf 5x+ Rendite

Aber hier zahlte sich meine Quantifizierungs-Besessenheit aus. Ich hatte erwartet, dass Lead-Generierung der Hauptfaktor für Unsicherheit sein würde. Schließlich – wenn niemand unseren Stand besucht, zahlen wir nur 15.000€, um hoffnungsvoll herumzustehen.

Ich lag völlig daneben.

Deal-Größe dominierte alles andere komplett. Ob wir 2 oder 5 Leads generierten, bewegte kaum die Nadel im Vergleich dazu, ob diese Kunden 30.000€-Projekte oder 180.000€-Projekte wollten.

Plötzlich drehte sich mein komplettes mentales Modell um 180 Grad. Statt zu fragen “Sollen wir 15.000€ ausgeben?” fragte ich “Wie werden wir die Art von Firma, die größere Deals anzieht?”

Strategie statt Zahlenspielerei

Diese Erkenntnis revolutionierte unsere Konferenzstrategie. Statt auf Lead-Quantität zu setzen (größerer Stand, flashigere Demos), konzentrierten wir uns auf Lead-Qualität.

Wir begannen, Großkunden mit umfangreichen Computer Vision-Herausforderungen anzusprechen. Wir bereiteten Material vor, das unsere Arbeit mit Automotive-Tier-1-Zulieferern zeigte statt mit kleineren Technologieunternehmen.

Hat’s funktioniert? Wir generierten exakt 3 Leads, konvertierten 1 zu einem Kunden, aber landeten einen 180.000€-Deal statt unserer üblichen 60.000€. Das Tool half mir nicht nur bei einer besseren Entscheidung – es half mir zu erkennen, dass ich die völlig falsche Frage gestellt hatte.

Die eigentliche Superkraft

Entscheidungstools für sich selbst zu bauen macht süchtig. Die Fermi-Methode zwingt dich zur Ehrlichkeit darüber, was du tatsächlich weißt versus was du nur annimmst. Monte-Carlo-Simulationen zeigen dir dann, was passiert, wenn diese Annahmen variieren.

Statt von Unsicherheit gelähmt zu sein, lernst du, mit ihr zu tanzen. Du stellst Fragen, die wirklich etwas bewegen, statt nur dein Bedürfnis zu befriedigen, dich entscheidungsfreudig zu fühlen. Du hörst auf zu tun, als würdest du Dinge wissen, die du gar nicht weißt.

Manchmal sind die Antworten trotzdem herrlich ungewiss. Das ist das Leben, das sich weigert, gelöst zu werden. Aber wenigstens weißt du, welche Unsicherheiten wirklich zählen.

Mittlerweile nutze ich das Tool für jede Entscheidung jenseits der Mittagessen-Auswahl: Sollen wir einen Freelancer oder Festangestellten einstellen? Lohnt sich diese Marketing-Ausgabe? Wie realistisch ist unsere Runway bei verschiedenen Wachstumsszenarien? Jedes Mal überrascht mich, was am meisten ins Gewicht fällt.

Das Witzige: Ich dachte, ich baue ein Tool für bessere Entscheidungen. Heraus kam ein Tool, das mir hilft, systematisch meine Annahmen zu hinterfragen.

Und ehrlich? Das könnte das Wertvollste sein, was ich je programmiert habe.


Du kannst das Monte-Carlo-Entscheidungstool, das ich gebaut habe ausprobieren.

*Alle Zahlen in diesem Post sind komplett erfunden, um die Unschuldigen (und unsere Geschäftsgeheimnisse) zu schützen. Aber die Methodik? Die ist 100% echt und wirklich effektiv.