Stell dir vor, du arbeitest an einer komplexen Analyse. Du gibst deine Frage an ChatGPT ein, bekommst eine präzise Antwort und präsentierst das Ergebnis im nächsten Meeting. Applaus, Anerkennung. Du fühlst dich kompetent. Aber warst du es wirklich?
Diese Frage klingt unbequem. Und genau deshalb ist sie so wichtig. Eine aktuelle Studie der Aalto Universität in Helsinki hat untersucht, was mit unserer Selbstwahrnehmung passiert, wenn wir regelmässig mit KI arbeiten. Die Ergebnisse sind ernüchternd: Wir werden zwar objektiv besser, halten uns aber subjektiv für noch viel kompetenter, als wir tatsächlich sind. Die Forschenden nennen dieses Phänomen die «LLM Fallacy», die grosse Sprachmodell-Täuschung.
Für die Studie lösten 698 Teilnehmende logische Denkaufgaben aus dem amerikanischen Law School Admission Test (LSAT). Eine Gruppe arbeitete mit ChatGPT, eine Kontrollgruppe ohne KI-Unterstützung. Was folgte, war mehr als nur ein Leistungsvergleich. Es war ein Blick in die Psychologie der Mensch-Maschine-Zusammenarbeit.
698
Teilnehmende in der Aalto-Studie
+3 Pkt.
Tatsächliche Leistungssteigerung mit KI
+4 Pkt.
Selbstüberschätzung mit KI
3×
Höhere Selbstüberschätzung als ohne KI
Die Illusion der eigenen Leistung
Die Zahlen sind bemerkenswert klar. Die KI-Unterstützung steigerte die tatsächliche Leistung der Probanden um durchschnittlich 3 Punkte. Gleichzeitig schoss ihre Selbsteinschätzung um 4 Punkte in die Höhe, mit einer statistischen Effektstärke von d = 0.9. Das bedeutet: Die Probanden überschätzten sich nicht nur ein wenig. Sie taten es massiv und systematisch.
Zum Vergleich: Die Kontrollgruppe ohne KI (n = 3’543) überschätzte sich ebenfalls, allerdings mit einer Effektstärke von lediglich d = 0.29. Der Unterschied ist frappant. KI-Nutzung verdreifacht die Selbstüberschätzung praktisch.
Was die Forschenden besonders beschäftigt: 220 von 246 Teilnehmenden in der KI-Gruppe schnitten besser ab als der Durchschnitt der Kontrollgruppe. Doch nur knapp über die Hälfte übertraf die Leistung, die ChatGPT alleine erbracht hätte. Die KI hat die Leistung also nicht multipliziert. In vielen Fällen hat sie die Teilnehmenden nicht einmal über das Niveau der Maschine hinausgehoben. Trotzdem war das Gefühl, selbst brilliert zu haben, überwältigend.
Das Paradoxon der KI-Kompetenz
Wer sich mit KI gut auskennt, sollte eigentlich besser einschätzen können, was die Maschine beigetragen hat und was nicht. So die intuitive Annahme. Die Studie zeigt das Gegenteil.
Die Forschenden untersuchten drei Dimensionen der KI-Kompetenz: technisches Verständnis, kritische Bewertungsfähigkeit und praktische Anwendungskompetenz. Das Ergebnis war in allen drei Bereichen dasselbe: Höhere KI-Kompetenz korrelierte nicht mit besserer Selbsteinschätzung. Im Gegenteil. Wer sich technisch gut auskannte, war bei der Beurteilung der eigenen Leistung tendenziell am ungenausten.
Das widerspricht einer weit verbreiteten Hoffnung: dass KI-Literacy das Problem lösen könnte. Es ist ein wenig so, als würde ein erfahrener Autofahrer glauben, er sei ein besserer Fahrer geworden, nur weil sein neues Auto einen Spurhalteassistenten hat. Er verwechselt die Fähigkeit des Systems mit seiner eigenen. Und je besser er das System versteht, desto überzeugter ist er davon, dass die sichere Fahrt sein Verdienst war.
Das Ende des Dunning-Kruger-Effekts?
Der Dunning-Kruger-Effekt gehört zu den bekanntesten Erkenntnissen der Kognitionspsychologie: Menschen mit geringer Kompetenz überschätzen sich systematisch, während Experten ihre Fähigkeiten eher unterschätzen. Dieses Muster ist seit Jahrzehnten gut belegt.
Doch in der KI-Gruppe der Aalto-Studie verschwand dieses Muster vollständig. Sowohl leistungsstarke als auch leistungsschwache Teilnehmende überschätzten sich im gleichen Ausmass. Die KI hat die kognitive Landschaft eingeebnet, aber nicht nach oben, sondern in Richtung einer uniformen Selbsttäuschung.
Das hat weitreichende Konsequenzen. Bisher konnten Unternehmen darauf vertrauen, dass ihre erfahrensten Mitarbeitenden ein realistisches Bild ihrer Grenzen hatten. Diese natürliche Korrektur fällt mit KI-Unterstützung weg. Plötzlich glauben alle, gleich gut zu sein, unabhängig von der tatsächlichen Kompetenz.
89%
der KI-Nutzenden überschätzten ihre eigene Leistung
15%
lagen mit ihrer Selbsteinschätzung komplett daneben
2 Monate
dann verblasst der KI-Lerneffekt ohne Wiederholung
Warum wir der Täuschung erliegen
Die Forschenden identifizieren drei psychologische Mechanismen, die der metakognitiven Verzerrung (falls du den Begriff auch erst nachschlagen musstest: gemeint ist die systematische Fehleinschätzung der eigenen Denkleistung) zugrunde liegen. Sie helfen zu verstehen, warum wir nicht einfach «aufmerksamer sein» können, um das Problem zu lösen.
Fehlattribution (Source-Monitoring Error): Wenn wir mit KI arbeiten, verschwimmen die Grenzen zwischen eigenem und maschinellem Beitrag. Wir haben den Prompt formuliert, die Antwort gelesen, das Ergebnis weiterverarbeitet. Am Ende des Prozesses fühlt sich alles wie unsere eigene Leistung an. Die Psychologie nennt das einen Quellen-Monitoring-Fehler: Wir vergessen, woher eine Information stammt, und schreiben sie uns selbst zu.
Verarbeitungsflüssigkeit (Processing Fluency): KI-generierte Texte sind in der Regel gut strukturiert, flüssig formuliert und überzeugend präsentiert. Diese Qualität verleitet dazu, die Inhalte als korrekt zu akzeptieren, ohne sie kritisch zu hinterfragen. Das Phänomen ist aus der Forschung zu überzeugender Kommunikation bekannt: Was sich leicht lesen lässt, wird eher geglaubt. Die Kognitionsforscher Fisher und Oppenheimer (Carnegie Mellon / SMU) zeigten bereits 2021, dass flüssig formulierte Erklärungen das wahrgenommene Verständnis aufblähen, auch wenn das tatsächliche Verständnis gering bleibt.
Metakognitive Sensitivität: Die Studie mass auch, wie gut die Teilnehmenden zwischen richtigen und falschen Antworten unterscheiden konnten. Das Ergebnis: Die durchschnittliche Fähigkeit zur Unterscheidung lag bei einem AUC-Wert von 0.62 (vereinfacht gesagt: eine Skala von 0 bis 1, wobei 0.5 reines Raten ist und 1.0 perfektes Urteilsvermögen), signifikant über dem Zufall (0.5), aber deutlich unter dem Schwellenwert von 0.7, ab dem man von akzeptabler metakognitiver Sensitivität spricht. 36 von 246 Teilnehmenden waren bei falschen Antworten sogar zuversichtlicher als bei richtigen. Ihr Vertrauen in die eigene Urteilskraft war nicht nur ungenau, es war komplett fehlgeleitet.
Nachhaltiges Lernen im KI-Zeitalter
Eine Folgestudie von Corbett und Tangen (2026) an der University of Queensland liefert einen weiteren Puzzlestein: Selbst wenn KI-gestütztes Lernen kurzfristig überlegen ist, verblassen die Effekte innerhalb von zwei Monaten. In ihrem Experiment mit 375 Teilnehmenden zeigte personalisierter KI-Dialog zwar die grössten unmittelbaren Lerneffekte, doch nach 60 Tagen hatten sich die Ergebnisse zwischen KI-Dialog und klassischem Lernmaterial angeglichen. Die Botschaft: Ohne bewusste Verankerung und Wiederholung bleibt auch KI-gestütztes Lernen nur eine flüchtige Erfahrung.
Risiken für die Unternehmensführung
Diese metakognitive Verzerrung ist kein akademisches Randthema. Sie hat direkte Auswirkungen auf den Geschäftsalltag.
Schleichender Wissensverlust: Wer seine eigenen Wissenslücken nicht mehr wahrnimmt, hört auf, sich fortzubilden. Warum auch? Man fühlt sich ja kompetent. Das führt langfristig dazu, dass echtes Fachwissen in den Teams erodiert, ohne dass es jemand bemerkt. Die Leistung bleibt dank KI stabil, aber das zugrundeliegende Verständnis wird immer dünner.
Recruiting und Talentbewertung: Wenn alle Bewerbenden KI-gestützte Arbeitsproben einreichen, wird es erheblich schwieriger, echte Fachkompetenz von geschickter KI-Nutzung zu unterscheiden. Die Studie zeigt, dass selbst die Personen sich überschätzen, die besonders KI-kompetent sind. Für Personalverantwortliche bedeutet das: Die bisherigen Bewertungsmassstäbe greifen nicht mehr zuverlässig.
Entscheidungsqualität: Führungskräfte, die auf KI-gestützte Analysen vertrauen, könnten Risiken unterschätzen, weil sie die Grenzen der Analyse nicht mehr erkennen. Die 36 Teilnehmenden, die bei falschen Antworten zuversichtlicher waren als bei richtigen, sind keine statistischen Ausreisser. Sie sind ein Warnsignal für jedes Unternehmen, das KI-Outputs ungeprüft in Entscheidungen einfliessen lässt.
Strategien zur Prävention
Die gute Nachricht: Es gibt wirksame Gegenmassnahmen. Sie erfordern keine radikale Abkehr von KI, sondern ein bewusstes Korrektiv im Umgang mit ihr.
Explain-back-Verfahren: Bevor ein KI-generiertes Ergebnis weiterverwendet wird, sollte die verantwortliche Person es in eigenen Worten erklären können. Was ist die zentrale Aussage? Welche Annahmen liegen zugrunde? Wo sind die Schwachstellen? Wer diese Fragen nicht beantworten kann, hat die Materie nicht verstanden, egal wie überzeugend das Ergebnis klingt.
Kognitive Bremsen: Bewusste Pausen vor der Übernahme von KI-Vorschlägen. Nicht jede Antwort, die gut formuliert ist, ist auch inhaltlich richtig. Die Verarbeitungsflüssigkeit von KI-Texten macht es besonders schwer, innezuhalten. Genau deshalb braucht es institutionalisierte Haltepunkte: Review-Schleifen, Peer-Feedback, kritische Rückfragen.
Unsicherheits-Visualisierung: KI-Tools sollten nicht nur Antworten liefern, sondern auch ihre eigene Unsicherheit transparent machen. Wie sicher ist das Modell bei dieser Aussage? Gibt es widersprüchliche Quellen? Je sichtbarer die Grenzen der KI sind, desto leichter fällt es, die eigene Urteilskraft einzusetzen.
Regelmässige Selbst-Audits: Teams sollten in festen Intervallen prüfen, welche Kompetenzen sie tatsächlich besitzen und welche sie an die KI ausgelagert haben. Diese Übung schützt vor dem schleichenden Verlust von Kernwissen und macht blinde Flecken sichtbar, bevor sie zu Problemen werden.
Was heisst das für dein Team?
Die Ergebnisse dieser Studie betreffen jedes Unternehmen, das KI-Tools im Alltag einsetzt. Ob im Marketing, im Projektmanagement oder in der Softwareentwicklung: Wenn die Selbsteinschätzung der Teams nicht mit der Realität Schritt hält, entstehen blinde Flecken. Und blinde Flecken führen zu Fehlentscheidungen.
Genau deshalb stellen wir bei Swiss AI Experts den Menschen ins Zentrum unserer Arbeit. Unsere Trainings und Workshops gehen bewusst über reine Tool-Schulungen hinaus. Es geht darum, ein tiefes Verständnis dafür zu entwickeln, wo die eigene Urteilskraft aufhört und die der Maschine beginnt. Wir arbeiten mit Explain-back-Übungen, realen Praxisfällen und strukturiertem Feedback, damit dein Team KI nicht nur einsetzt, sondern auch versteht, was es dabei tut.
Im Swiss AI Bootcamp erleben Teams hautnah, wie schnell die Grenze zwischen eigenem Beitrag und KI-Output verschwimmt. Und im Swiss AI Impulse schaffen wir das Bewusstsein, das es braucht, um KI als Werkzeug zu nutzen, nicht als Ersatz für eigenes Denken.
Wenn du mit deinem Team an diesem Punkt arbeiten willst, melde dich bei uns.
