Modul 2
Grobe vs. scharfe Entscheidungen
Wo AI hilft — und wo sie schadet
Dieses Modul baut auf Modul 1 auf. Wenn du "Wie KI sich tatsächlich verhält" noch nicht gelesen hast, empfehlen wir, dort zu beginnen.
Was passiert, wenn das hier falsch ist?
Was du lernen wirst
- Du wirst aufhören, KI für riskante, unumkehrbare Entscheidungen einzusetzen — und anfangen, sie dort zu nutzen, wo sie wirklich sicher und nützlich ist.
- Nicht alle Entscheidungen sind gleich
- KI glänzt beim Erkunden, nicht bei Endentscheidungen
- Menschliche Verantwortung lässt sich nicht delegieren
- Kleine Fehler kumulieren sich in Workflows
Lektionsübersicht
Lektion 1
Einführung
Ein Teamleiter nutzt KI, um eine Leistungsbeurteilung zu entwerfen.
Lektion 2
Kernideen
Nicht alle Entscheidungen sind gleich · KI glänzt beim Erkunden, nicht bei Endentscheidungen · Menschliche Verantwortung lässt sich nicht delegieren · Kleine Fehler kumulieren sich in Workflows
Lektion 3
Visuelles Framework
Interaktives Diagramm: Rough Sharp Matrix
Lektion 4
Praxisbeispiele
Sieh, wie dies angewendet wird mit ChatGPT, Claude, Gemini
Lektion 5
Selbsteinschätzung
3 szenariobasierte Fragen, um dein Verständnis zu testen
Lektion 6
Mythos vs. Realität
3 häufige Missverständnisse untersucht
Lektion 7
Zentrale Erkenntnis
Die Frage ist nicht "Kann KI das?" — sondern "Was passiert, wenn das hier falsch ist?"
Lektion 8
Nächster Schritt
Entdecke das Entscheidungs-Klassifizierer
Häufig gestellte Fragen
Stimmt es, dass ki spart bei allem zeit?
KI spart Zeit bei Vorbereitung und Erkundung. Bei scharfen Entscheidungen kostet Eile mit KI später mehr Zeit — für Korrekturen, Vertrauensreparatur und Schadensbegrenzung. Die Zeit, die du am Anfang sparst, zahlst du mit Zinsen zurück, wenn etwas schiefgeht.
Stimmt es, dass wenn ich das ergebnis prüfe, ist es sicher?
Die Qualität der Prüfung hängt von deiner Expertise im Thema ab. KI kann Fehler erzeugen, die du nicht erkennen kannst. Eine gut formatierte Vertragsklausel mit einem Zuständigkeitsfehler sieht für einen Nicht-Juristen in Ordnung aus. Prüfen reicht nicht, wenn du nicht beurteilen kannst, was du liest.
Stimmt es, dass ki kann im arbeitsalltag keinen echten schaden anrichten?
Eine falsch klassifizierte Ausgabe, ein falsches Datum in einem Vertrag, eine übersehene Compliance-Bedingung, eine schlecht formulierte Leistungsbeurteilung — alltägliche KI-Fehler verursachen echte Konsequenzen für echte Menschen. Schaden erfordert kein dramatisches Versagen. Er akkumuliert sich durch kleine, ungeprüfte Fehler.
Wo liegt das Risiko?
Vorstandspräsentationen treiben echte Entscheidungen voran. Wenn die KI Wettbewerbsinformationen erfindet oder falsch darstellt — Umsatzzahlen, Marktanteile, Produktmerkmale — könnte der Vorstand strategische Entscheidungen auf Basis nicht existierender Daten treffen. Das ist eine scharfe Konsequenz. Formatierung und Länge sind behebbar. Nach halluzinierten Daten zu handeln ist es nicht.
Was ist der beste Ansatz?
KI anhand deines eigenen Urteils bei einer kleinen Stichprobe zu kalibrieren, deckt systematische Fehler auf, bevor sie skalieren. Wenn die KI bei der 20er-Stichprobe durchgehend anders klassifiziert als du — zum Beispiel Beschwerden herabstuft, die du als kritisch einstufen würdest — weißt du, dass der gesamte Datensatz mehr Aufmerksamkeit braucht. Dieser Ansatz balanciert Effizienz mit Qualitätskontrolle.
