Halluzinationen erkennen: Der 3-Schritte-Test
Flüssig ≠ korrekt
Eine Antwort kann grammatikalisch sauber, rhetorisch elegant und trotzdem inhaltlich falsch sein. Sprachfluss ist kein Wahrheitssignal. Diese Erkenntnis ist der Kerngedanke hinter dem 3-Schritte-Test, den ich vor jeder KI-Antwort anwende, bevor sie in meinen Unterricht geht.
Hier ist der Test im Detail.
Frage 01 — Quelle: Woher kommt das?
Sprachmodelle erzeugen Wahrscheinlichkeiten, keine Zitate. Sie haben keine Bibliothek im Hintergrund — nur Muster aus Trainingstexten. Das bedeutet konkret: Wenn ich ChatGPT nach einer Studie frage, generiert das Modell etwas, das wie eine Studie aussieht. Mit plausiblen Autorennamen, plausiblem Titel, plausiblem Erscheinungsjahr. Nur — die Studie existiert vielleicht nicht.
Was hilft:
- Explizit nach Quelle fragen. «Welche Studie belegt das?» Wenn das Modell eine erfindet, fällt sie beim Gegencheck auf.
- Skepsis bei zu schönen Zitaten. Erfundene Zitate klingen oft besonders überzeugend, weil sie passgenau zum Argument formuliert sind.
- Keine Quelle = noch kein Wissen, nur Vorschlag. Diese Haltung übe ich auch mit den Schüler:innen.
Frage 02 — Domäne: Wie zuverlässig ist der Bereich?
Sprachmodelle halluzinieren nicht gleichmässig. Manche Themen sind heikler als andere.
Sehr vorsichtig: Tagesaktuelles, Recht, Zahlen mit Stichtag. Hier ist die Wahrscheinlichkeit für veraltete oder erfundene Angaben hoch. Aktuelle Stundentafeln, Gesetzesartikel, Statistiken — immer prüfen.
Gegencheck Pflicht: Nischen-Fachwissen. Sportgeschichte, lokale Schulgeschichte, regionale Brauchtümer. Wenn die Trainingsdaten dünn sind, füllt das Modell die Lücken — überzeugend, aber oft falsch.
Meist stabil: Breit dokumentiertes Grundwissen. Photosynthese, Pythagoras, die Französische Revolution. Hier kann ich Sprachmodellen weitgehend vertrauen, weil das Wissen tausendfach in den Trainingsdaten vorkommt.
Die Faustregel: Je spezifischer und aktueller die Frage, desto höher die Halluzinationswahrscheinlichkeit.
Frage 03 — Gegencheck: Kann ich das prüfen?
Die einzige verlässliche Kontrolle ist der Gegencheck. Was das im Schulalltag heisst:
- Primärquelle suchen. PDF, offizielle Seite, Original. Nicht «irgendein Treffer bei Google», sondern die Stelle, an der die Information ursprünglich publiziert wurde.
- Cross-Check mit zweitem Tool oder Recherche. Wenn ChatGPT etwas behauptet, frage ich Claude, oder ich suche selbst. Stimmt es überein, steigt das Vertrauen. Stimmt es nicht überein, beginnt die Detektivarbeit.
- Ungeprüft nie in den Unterricht übernehmen. Diese Regel mache ich nicht aus Übervorsicht. Eine falsche Information vor 24 Schüler:innen, die sich diese eingeprägt haben, ist ein didaktisches Eigentor — schwer zu reparieren.
Was die Schüler:innen mitbekommen
Wenn ich diesen Test öffentlich mache — am Beamer, mit der Klasse, an einem Beispiel — passiert etwas Wichtiges: Die Schüler:innen sehen, dass auch ich der KI nicht blind vertraue. Das gibt ihnen Erlaubnis, selbst zu prüfen. Und es nimmt der Frage «darf ich die KI fragen?» die moralische Schwere. Es geht nicht um Erlauben oder Verbieten. Es geht um Prüfen.
Merksatz
Eine KI-Antwort ist ein Vorschlag, kein Beweis. Prüfen ist Teil der Arbeit, nicht Option.
Die A4-Infografik mit den drei Fragen liegt bei mir auf dem Pult — sichtbar für die Schüler:innen, wenn ich am Gerät arbeite.