Sie fragen ChatGPT nach der Frist für eine Bauanzeige in Ihrer Gemeinde. Die Antwort kommt prompt: „Nach § 23 Abs. 3 der Niederösterreichischen Bauordnung beträgt die Frist 6 Wochen ab Einlangen.“ Klingt präzise. Klingt richtig. Ist aber frei erfunden – den Paragraphen gibt es so nicht, die Frist stimmt nicht, und Sie hätten beinahe einen Bürger falsch informiert. Das passiert häufiger, als Sie denken. Und genau darum geht es heute: Wie Sie erkennen, wann die KI erfindet – und wie Sie das verhindern können.
Das Problem: KI ist kein Nachschlagewerk
In den letzten Kolumnen haben wir gesehen, wie nützlich KI sein kann – für bessere Texte, schnellere Antworten, strukturierte Auswertungen. Aber jetzt kommt die andere Seite: KI macht Fehler. Und zwar nicht die Art von Fehlern, die man sofort erkennt. Sondern Fehler, die überzeugend klingen. Die Fachleute nennen das „Halluzinationen“ – ein etwas irreführender Begriff, weil er klingt, als würde die KI träumen. In Wirklichkeit ist es simpler: Auch wenn ChatGPT und Claude inzwischen das Internet durchsuchen können, sind sie im Kern keine Datenbanken. Das Sprachmodell selbst generiert Text Wort für Wort, basierend auf Wahrscheinlichkeiten. Was als nächstes Wort am plausibelsten klingt, wird geschrieben – und selbst mit Websuche kann die KI falsche Schlüsse ziehen oder Quellen falsch interpretieren.
OpenAI, die Firma hinter ChatGPT, hat das kürzlich so erklärt: „Wie Studierende bei schwierigen Prüfungsfragen raten große Sprachmodelle bei Unsicherheit, anstatt zuzugeben, dass sie die Antwort nicht wissen.“ Und hier wird es unangenehm: Studien zeigen, dass KI bei falschen Antworten genauso selbstsicher formuliert wie bei richtigen. Das Modell kann den Unterschied selbst nicht erkennen. Wenn ChatGPT schreibt „definitiv“ oder „ohne Zweifel“, sagt das also nichts über die Korrektheit aus – es klingt überzeugend, egal ob es stimmt oder nicht.
Wie schlimm ist es wirklich?
Die gute Nachricht zuerst: KI-Modelle sind in den letzten zwei Jahren dramatisch besser geworden. GPT-5.2, das neueste Modell von OpenAI (Dezember 2025), halluziniert laut Hersteller nur noch in etwa 6 Prozent der Fälle – mit aktivierter Websuche sogar weniger. Das klingt gut, bedeutet aber immer noch: Bei zwanzig Anfragen ist statistisch mindestens eine falsch. Das Problem: Die Fehler verteilen sich nicht gleichmäßig. Bei juristischen und medizinischen Fragen sind die Raten deutlich höher als bei Allgemeinwissen. Und die KI weiß nicht, wann sie falsch liegt. Im November 2025 wies der OGH eine Nichtigkeitsbeschwerde zurück, die offensichtlich mit KI erstellt worden war. Die KI hatte OGH-Entscheidungen erfunden, die es gar nicht gibt. Der OGH kritisierte das „offenbar ohne fachliche Kontrolle“ erstellte Vorbringen.
DER PROMPT DER FEHLER REDUZIERT
Der Prompt
Die wirksamste Technik ist überraschend einfach: Erlauben Sie der KI, Unsicherheit zuzugeben. Das klingt banal, wirkt aber, weil die KI während des Trainings gelernt hat, immer eine Antwort zu geben – auch wenn sie raten muss.
Copy-Paste-Prompt für kritische Anfragen:
Du bist ein Assistent für Gemeindeverwaltung. Beantworte meine Frage basierend auf deinem Wissen.
Wichtige Regeln:
- Wenn du dir nicht sicher bist, sage ehrlich „Das weiß ich nicht sicher“
- Wenn du nur Vermutungen hast, kennzeichne sie als solche
- Erkläre deine Antwort Schritt für Schritt
- Erfinde keine Paragraphen, Fristen oder Fördersätze
Meine Frage: [IHRE FRAGE HIER]
Dieser Prompt funktioniert nicht perfekt – nichts tut das. Aber er reduziert die Wahrscheinlichkeit, dass die KI selbstsicher Falsches behauptet. Eine aktuelle Studie zeigt: Einfache Prompt-Anpassungen können die Halluzinationsrate halbieren.
Fortgeschrittenen-Tipp: Nennen Sie eine Quelle im Prompt
Eine zusätzliche Technik: Geben Sie an, woher die Antwort kommen soll.
Statt: „Was regelt das Meldegesetz?“
Besser: „Was regelt das Meldegesetz, laut dem österreichischen Rechtsinformationssystem RIS?“
Die KI versucht dann, ihre Antwort an dieser Quelle auszurichten. Studien zeigen eine Verbesserung von 5–15% bei der Quellengenauigkeit. Wenn ChatGPT oder Claude die Websuche aktiviert haben, können sie tatsächlich im RIS nachschauen – dann ist diese Technik besonders wirksam. Ohne Websuche versucht die KI lediglich, sich an passende Inhalte aus dem Training zu erinnern. Das reduziert Fehler, ist aber weniger zuverlässig. Für verbindliche Auskünfte sollten Sie trotzdem selbst im RIS nachsehen.
Das richtige Mindset: Werkzeug, nicht Orakel
Lassen Sie sich von alldem nicht entmutigen. KI ist trotzdem nützlich – Sie müssen nur wissen, wofür.
KI ist gut als:
– Formulierungshelfer für Texte, deren Inhalt Sie kennen
– Strukturierungswerkzeug für komplexe Themen
– Brainstorming-Partner für Ideen
– Zusammenfasser von Dokumenten, die Sie danach prüfen
– Sparringspartner für Argumente
KI ist nicht gut als:
– Rechtsauskunft
– Förderdatenbank
– Faktenquelle für Zahlen und Statistiken
– Ersatz für offizielle Quellen
Die Faustregel: Nutzen Sie KI für das Denken, nicht für das Wissen. Lassen Sie sich beim Formulieren helfen, beim Strukturieren, beim Entwickeln von Ideen. Aber wenn es um Fakten geht – Fristen, Paragraphen, Fördersätze – prüfen Sie in den offiziellen Quellen.
Kleine Hausaufgabe für diese Woche
Testen Sie bewusst die Grenzen: Fragen Sie ChatGPT oder Claude nach einer konkreten rechtlichen Auskunft aus Ihrem Arbeitsbereich – einer Frist, einem Paragraphen, einer Zuständigkeit. Dann prüfen Sie im RIS, ob die Antwort stimmt. Sie werden wahrscheinlich überrascht sein – manchmal positiv, manchmal negativ. Aber Sie werden ein Gefühl dafür entwickeln, wo Sie der KI vertrauen können und wo nicht. Und genau dieses Gefühl ist das Wichtigste, was Sie aus dieser Kolumne mitnehmen können.
KI KOMPAKT:Â Grenzen und Fehlerquellen der KI: Das Wichtigste
Halluzinationen – was ist das?
KI erfindet manchmal Fakten, die überzeugend klingen, aber falsch sind. Paragraphen, Fristen, Urteile, Förderprogramme – alles kann frei erfunden sein. Das passiert, weil KI nicht nachschlägt, sondern Text generiert.
Wie oft passiert das?
Moderne Modelle (GPT-5.2, Claude 4.5): ca. 6% allgemein.
So reduzieren Sie Fehler:
– Erlauben Sie der KI explizit, Unsicherheit zuzugeben („Wenn du nicht sicher bist, sage es“)
– Fragen Sie nach Schritt-für-Schritt-Erklärungen
– Nennen Sie eine Quelle im Prompt („laut RIS“, „laut österreichischem Recht“)
– Vermeiden Sie Fragen nach konkreten Paragraphen oder Fristen
Immer prüfen bei:
– Rechtlichen Auskünften → im RIS (ris.bka.gv.at)
– Förderungen → direkt bei der Förderstelle
– Konkreten Zahlen und Statistiken → in Originalquellen
Das richtige Mindset: Werkzeug, nicht Orakel
Lassen Sie sich von alldem nicht entmutigen. KI ist trotzdem nützlich – Sie müssen nur wissen, wofür.
KI ist gut als:
– Formulierungshelfer für Texte, deren Inhalt Sie kennen
– Strukturierungswerkzeug für komplexe Themen
– Brainstorming-Partner für Ideen
– Zusammenfasser von Dokumenten, die Sie danach prüfen
– Sparringspartner für Argumente
KI ist nicht gut als:
– Rechtsauskunft
– Förderdatenbank
– Faktenquelle für Zahlen und Statistiken
– Ersatz für offizielle Quellen
Die Faustregel: Nutzen Sie KI für das Denken, nicht für das Wissen. Lassen Sie sich beim Formulieren helfen, beim Strukturieren, beim Entwickeln von Ideen. Aber wenn es um Fakten geht – Fristen, Paragraphen, Fördersätze – prüfen Sie in den offiziellen Quellen.
Kleine Hausaufgabe für diese Woche
Testen Sie bewusst die Grenzen: Fragen Sie ChatGPT oder Claude nach einer konkreten rechtlichen Auskunft aus Ihrem Arbeitsbereich – einer Frist, einem Paragraphen, einer Zuständigkeit. Dann prüfen Sie im RIS, ob die Antwort stimmt. Sie werden wahrscheinlich überrascht sein – manchmal positiv, manchmal negativ. Aber Sie werden ein Gefühl dafür entwickeln, wo Sie der KI vertrauen können und wo nicht. Und genau dieses Gefühl ist das Wichtigste, was Sie aus dieser Kolumne mitnehmen können.
– M.TREIBER (KIUMI – Die Agentur für Zusammenarbeit von KI und Mensch)
1
Der einfache und kostengünstige Einstieg für „Smart-Village“ Lösungen in Ihrer Gemeinde
2
Kommunalnet Service: Hameter Staudenshop & Beetplaner
3
kn-Vorteilsclub: Rauch Kühlsysteme
4
kn-Vorteilsclub: Gemeindefahnen
5
Gemeinde überwacht Wasserverbrauch von Haushalten und spart 100.000 Euro


