Sie nutzen ChatGPT oder Claude für komplizierte Aufgaben und gehen davon aus, dass diese Systeme perfekt einschätzen können, wie Sie als Mensch ticken? Hier kommt die Überraschung, die viele gerade in Deutschland oder Österreich beim Online-Banking oder der Steuererklärung ignorieren: Die aktuellen Top-KIs glauben, wir seien viel rationaler, als wir es jemals sind.
Forscher haben jetzt den Beweis geliefert: Große Sprachmodelle wie GPT-4o und Claude-Sonnet-4 verrechnen sich systematisch, wenn es darum geht, unsere Entscheidungen in Stresssituationen vorherzusagen. Wir handeln im echten Leben viel impulsiver, als es die Algorithmen annehmen. Und genau dieser Denkfehler der KI ist brisant.
Der Schock-Test: Das Spiel, das unsere Logik entlarvt
Um diesen Bruch zwischen KI-Erwartung und menschlicher Realität zu messen, nutzten die Wissenschaftler etwas, das man den Keynes’schen Schönheitwettbewerb nennt – allerdings in einer simplen Variante: „Zahlenraten“. Vergessen Sie, was Sie persönlich mögen. Die einzige Regel: Jeder wählt eine Zahl zwischen 0 und 100. Gewinner ist, wer am nächsten an der Hälfte des Durchschnitts aller gewählten Zahlen liegt.
Theoretisch, wenn alle Spieler 100% rational wären, müssten alle die Null wählen. Aber hier kommt der Haken, den viele von uns, selbst in Diskussionen über die Energiepreise im Winter, verpassen: Wir hören nach ein oder zwei Gedankenschleifen auf.

- Stufe 1 Denken: Ich wähle 50.
- Stufe 2 Denken: Die anderen wissen Stufe 1, also wähle ich 25.
- Stufe 3 Denken (selten erreicht): Die anderen denken Stufe 2, also wähle ich 12,5.
Die meisten Menschen stoppen bei Stufe 1 oder 2. Die KI hingegen spielt auf Stufe 5 oder 6 – und liegt damit völlig daneben.
Die KI spielt zu schlau für uns
Die Tester fütterten die Modelle mit unterschiedlichen Profilen unserer Gesellschaft: Mal waren es angenommene Uni-Anfänger, mal knallharte Spieltheoretiker. Die KI passte ihre Zahl tatsächlich an den vermeintlichen Gegner an. Zeigt das strategisches Denken? Ja. Aber die falsche Art von Denken.
Die KI antizipiert eine Logik, die im echten Leben, etwa beim spontanen Kauf im Supermarkt oder der Reaktion auf eine unerwartete Rechnung, einfach fehlt. Sie überschätzt unsere Fähigkeit zur Multi-Level-Analyse gnadenlos.

Die Schwachstelle: Wo KI im Alltag versagt
Das Problem ist nicht nur Theorie. Dies zeigt eine fundamentale Schwäche bei der Kalibrierung für den Umgang mit echten Menschen, besonders hier bei uns, wenn es um komplexe Interaktionen geht, die Intuition erfordern.
Ich habe in meiner Beobachtung gemerkt: Überall dort, wo impulsive menschliche Fehler oder Gewohnheiten eine Rolle spielen, tappen die Modelle ins Leere. Sie können zwar Muster erkennen, aber sie verstehen nicht die Irrtümer hinter den Mustern.
- Die KI glaubt, Sie erinnern sich an alle Details Ihrer Kreditkarte. Sie tippen aber oft nur die letzten vier Ziffern.
- Die KI nimmt an, dass Sie den günstigsten Flug suchen. Sie buchen aber oft den mit der besseren Sitzplatzwahl, auch wenn er 50 Euro mehr kostet.
- Die KI plant, dass Sie sonntags um 16 Uhr keine E-Mails lesen. Tun Sie aber doch, wenn Sie gerade auf der Couch gelangweilt sind.
Ihr praktischer Hack: Wie Sie KI-Annahmen umgehen
Wenn Sie mit einer KI zusammenarbeiten (sei es zur Planung Ihrer nächsten Italienreise oder zur Analyse von Marktdaten), füttern Sie sie bewusst mit irrationalen Daten oder Annahmen. Sagen Sie nicht nur: „Der Kunde ist rational.“ Sagen Sie stattdessen: „Der Kunde handelt wie jemand, der seit drei Stunden im Stau steht und nur noch Schokolade will.“
Dadurch zwingen Sie die KI, ihre perfekte, logische Blase zu verlassen und sich dem menschlichen Chaos anzunähern.
Was denken Sie? Ist es beunruhigend, dass die Maschinen unsere Intelligenz überschätzen, oder gibt uns das heimlich einen kleinen Vorteil im Alltag?









