Wenn ein KI-System plausibel klingende, aber faktisch falsche Informationen generiert, spricht man von Halluzinationen. Für Verwaltungsmitarbeitende, die mit KI arbeiten, ist es wichtig, dieses Phänomen zu verstehen.
Was sind KI-Halluzinationen?
Grosse Sprachmodelle wie GPT oder Claude sind darauf trainiert, wahrscheinliche Textfortsetzungen zu generieren. Sie haben kein echtes Verständnis von Wahrheit oder Fakten. Wenn sie eine Antwort nicht wissen, generieren sie trotzdem eine – und diese kann falsch sein.
Das Problem dabei: Halluzinierte Inhalte klingen oft genauso überzeugend wie korrekte Antworten. Es gibt keine automatische Warnung, wenn ein System etwas erfindet.
Warum passiert das?
Die Ursachen sind vielfältig. Manchmal fehlen dem Modell relevante Informationen in seinen Trainingsdaten. Manchmal sind Fragen mehrdeutig formuliert. Und manchmal generiert das System schlicht Unsinn, weil es statistisch plausibel erscheint.
Bei juristischen Anfragen ist das besonders heikel. Ein erfundenes Urteil oder eine falsch zitierte Gesetzespassage kann zu gravierenden Fehlern führen.
Wie IUS das Problem adressiert
Bei IUS setzen wir auf einen anderen Ansatz als reine Chatbots. Unsere Antworten basieren auf tatsächlich existierenden Dokumenten aus unserer Datenbank. Jede Aussage ist mit einer Quelle verknüpft, die Nutzende direkt überprüfen können.
Das eliminiert Halluzinationen nicht vollständig, aber es macht sie erkennbar. Wenn keine passende Quelle gefunden wird, sagt das System das auch.
Empfehlungen für die Praxis
Vertrauen, aber verifizieren. Jede KI-Ausgabe sollte kritisch geprüft werden, besonders bei rechtlich relevanten Fragen.
Quellen einfordern. Arbeiten Sie nur mit Systemen, die ihre Aussagen mit überprüfbaren Quellen belegen können.
Schulungen durchführen. Mitarbeitende müssen verstehen, wie KI-Systeme funktionieren und wo ihre Grenzen liegen.
Wir bieten Schulungen zu diesem Thema an. Sprechen Sie uns an, wenn Sie Interesse haben.