Ihr kennt das: Da stellt man der KI eine Fachfrage und merkt beim Überfliegen der Antwort, dass sie nicht stimmt. Die Informationen klingen plausibel, sind bei genauerem Hinsehen aber falsch. Das ist doch eher stupide als intelligent, oder?
Weil sie auf Daten und statistischen Wahrscheinlichkeiten beruht. Sie „weiß“ nicht selbst, was wahr ist, sondern sucht in Unmengen von Daten nach relevanten Fakten. Die Lücken, die dabei unweigerlich entstehen, füllt sie kontextgemäß mit Informationen. In etwa so, wie wir Menschen konfabulieren, wenn wir uns nur halb an Details einer Situation in der Vergangenheit erinnern und etwas erfinden, um die Geschichte rund zu machen.
Halluzinieren reicht von kurzweilig bis fragwürdig. Das wurde am Beispiel Nordkoreas untersucht (Studie der ETH Zürich / University of Seoul) und reichte von der Meldung, das Land habe die Fußballweltmeisterschaft 2014 für sich reklamiert (was nicht stimmt) bis zum sich hartnäckig haltenden Gerücht, der Staatsführer Kim-Jong-Un sei verstorben. Das bereichert vielleicht private Diskussionen, doch im Business ist Halluzinieren kontraproduktiv bis gefährlich.
Denn werden falsche Annahmen nicht korrigiert, sondern im Unternehmen weitergetragen, birgt dies Risiken – wie zum Beispiel:
Die gute Nachricht: Der KI das Halluzinieren abzugewöhnen, geht relativ schnell.
Unsere drei Top-Tipps zur Vermeidung von Halluzinationen bei KI:
Das alte Prinzip „Garbage in – Garbage out“ ist auch bei KI-Anwendungen wahr: unpräzise Fragen – unpräzise Antworten. Je genauer und spezifischer die Abfrage, desto geringer das Risiko, dass die KI falsche Informationen generiert. Gib zum Beispiel immer Informationen über den Kontext mit: Welcher Absender, welcher Empfänger, was ist der Hintergrund der Frage? Oder das gute alte „journalistische Prinzip“: Jede Aussage muss von zwei unabhängigen Quellen belegt sein. Allein das verbessert die Antworten signifikant. Du kannst ihr auch die explizite Anweisung geben, nichts zu erfinden, sondern zu sagen, wenn eine Information nicht verfügbar ist. Das mag anfangs ungewohnt und mühsam sein, wird aber mit besseren Antworten belohnt. insbesondere, wenn du „deine KI“ immer wieder verwendest, sie also trainierst, wird sie klüger.
Mit Retrieval-Augmented Generation – also der Anbindung als verlässlich befundener, verifizierter Quellen, Datenbanken und Dokumente (Studien renommierter Forschungsinstitute, eigene Wissensdatenbanken, selbst oder von Partnern gesammelte Echtdaten etc.) – kann die KI die Fakten nachschlagen, statt sie zu erfinden. Die Halluzinationsraten sinken signifikant: Liegen normale LLM-Sprachmodellen generell bei rund 50%, landen regelmäßig trainierte und weiter entwickelte, hybride RAG-Modelle zwischen 20 und nur 5%. Und speziell auf meine speziellen Aufgaben trainierte Anwendungen tendieren sogar gegen Null. Brauchst du also für deinen Geschäftsbetrieb verlässliche und optimale Ergebnisse, musst du dich von „quick & dirty“-Tools verabschieden und für ein besseres RAG-Modell entscheiden, das für dein Unternehmen und meine spezifischen Anwendungsfälle im Alltag funktioniert.
Vielleicht ist das am wichtigsten: Eine menschliche Intelligenz, die KI-Antworten überprüft und mit unabhängigen Quellen abgleicht. Ein interner Faktencheck für KI-Ergebnisse, eine menschliche Kontrolle geht immer noch schneller, als alles selbst zu recherchieren und alle Dokumente selbst zu durchforsten. Insbesondere bei wichtigen Meilensteinen oder an kritischen Punkten ist die Zuverlässigkeit aller Aussagen und Annahmen essenziell und muss eine menschliche Korrekturschleife eingebaut werden. Zum Beispiel, wenn andere Personen mit den Ergebnissen weiterarbeiten sollen oder eine Kundenfreigabe ansteht. Mit dem "Human in the Loop" machen wir in unseren Projekten sehr gute Erfahrungen.
Und wo wir gerade bei Menschen sind: Eine offene Feedback-Kultur ist ungemein wichtig: Fehler erkennen und zu eliminieren, gehört zum Job. Man könnte sogar sagen, die KI fördert das Lernen aus Fehlern. Und so wird auch die menschliche Intelligenz wie die KI täglich schlauer und besser.
Welche Fälle von Halluzination hast du schon erlebt? Wie gehst du bei deinem Lieblings-Tool mit Halluzinationen um?
Damit die KI im INNO-VERSE nicht halluziniert, haben wir eigene Prompt Engineers, die sehr viel Zeit in das Prompten und Testen stecken. Um zu verlässlichen Ergebnissen zu kommen, musst du dann nur noch Stichwörter eingeben – und schon spuckt die KI deine gewünschten Informationen aus. Du willst sehen, wie das funktioniert? Dann vereinbare einen Termin mit uns und lass dich verblüffen:
Wie Europa mit KI wieder wettbewerbsfähig werden kann – und warum jetzt der Moment ist, um nicht den Anschluss zu verlieren. Whitepaper jetzt lesen!
KI transformiert das Datenmanagement: von Wettervorhersagen bis Medizin. Erfahre, wie sie riesige Datenmengen analysiert – und wie du davon profitieren kannst!
KI ist spannend, keine Frage. Doch der Weg zu erfolgreichen, sinnvollen Anwendungen ist oft unklar, unsicher und mit vielen Herausforderungen verbunden. In diesem Beitrag möchte ich dir offen erzählen, wie wir es geschafft haben, aus anfänglichen Zweifeln einen echten KI-Erfolg zu machen – und was du daraus für dein Unternehmen mitnehmen kannst.