Ihr kennt das: Da stellt man der KI eine Fachfrage und merkt beim Überfliegen der Antwort, dass sie nicht stimmt. Die Informationen klingen plausibel, sind bei genauerem Hinsehen aber falsch. Das ist doch eher stupide als intelligent, oder?
Weil sie auf Daten und statistischen Wahrscheinlichkeiten beruht. Sie „weiß“ nicht selbst, was wahr ist, sondern sucht in Unmengen von Daten nach relevanten Fakten. Die Lücken, die dabei unweigerlich entstehen, füllt sie kontextgemäß mit Informationen. In etwa so, wie wir Menschen konfabulieren, wenn wir uns nur halb an Details einer Situation in der Vergangenheit erinnern und etwas erfinden, um die Geschichte rund zu machen.
Halluzinieren reicht von kurzweilig bis fragwürdig. Das wurde am Beispiel Nordkoreas untersucht (Studie der ETH Zürich / University of Seoul) und reichte von der Meldung, das Land habe die Fußballweltmeisterschaft 2014 für sich reklamiert (was nicht stimmt) bis zum sich hartnäckig haltenden Gerücht, der Staatsführer Kim-Jong-Un sei verstorben. Das bereichert vielleicht private Diskussionen, doch im Business ist Halluzinieren kontraproduktiv bis gefährlich.
Denn werden falsche Annahmen nicht korrigiert, sondern im Unternehmen weitergetragen, birgt dies Risiken – wie zum Beispiel:
Die gute Nachricht: Der KI das Halluzinieren abzugewöhnen, geht relativ schnell.
Unsere drei Top-Tipps zur Vermeidung von Halluzinationen bei KI:
Das alte Prinzip „Garbage in – Garbage out“ ist auch bei KI-Anwendungen wahr: unpräzise Fragen – unpräzise Antworten. Je genauer und spezifischer die Abfrage, desto geringer das Risiko, dass die KI falsche Informationen generiert. Gib zum Beispiel immer Informationen über den Kontext mit: Welcher Absender, welcher Empfänger, was ist der Hintergrund der Frage? Oder das gute alte „journalistische Prinzip“: Jede Aussage muss von zwei unabhängigen Quellen belegt sein. Allein das verbessert die Antworten signifikant. Du kannst ihr auch die explizite Anweisung geben, nichts zu erfinden, sondern zu sagen, wenn eine Information nicht verfügbar ist. Das mag anfangs ungewohnt und mühsam sein, wird aber mit besseren Antworten belohnt. insbesondere, wenn du „deine KI“ immer wieder verwendest, sie also trainierst, wird sie klüger.
Mit Retrieval-Augmented Generation – also der Anbindung als verlässlich befundener, verifizierter Quellen, Datenbanken und Dokumente (Studien renommierter Forschungsinstitute, eigene Wissensdatenbanken, selbst oder von Partnern gesammelte Echtdaten etc.) – kann die KI die Fakten nachschlagen, statt sie zu erfinden. Die Halluzinationsraten sinken signifikant: Liegen normale LLM-Sprachmodellen generell bei rund 50%, landen regelmäßig trainierte und weiter entwickelte, hybride RAG-Modelle zwischen 20 und nur 5%. Und speziell auf meine speziellen Aufgaben trainierte Anwendungen tendieren sogar gegen Null. Brauchst du also für deinen Geschäftsbetrieb verlässliche und optimale Ergebnisse, musst du dich von „quick & dirty“-Tools verabschieden und für ein besseres RAG-Modell entscheiden, das für dein Unternehmen und meine spezifischen Anwendungsfälle im Alltag funktioniert.
Vielleicht ist das am wichtigsten: Eine menschliche Intelligenz, die KI-Antworten überprüft und mit unabhängigen Quellen abgleicht. Ein interner Faktencheck für KI-Ergebnisse, eine menschliche Kontrolle geht immer noch schneller, als alles selbst zu recherchieren und alle Dokumente selbst zu durchforsten. Insbesondere bei wichtigen Meilensteinen oder an kritischen Punkten ist die Zuverlässigkeit aller Aussagen und Annahmen essenziell und muss eine menschliche Korrekturschleife eingebaut werden. Zum Beispiel, wenn andere Personen mit den Ergebnissen weiterarbeiten sollen oder eine Kundenfreigabe ansteht. Mit dem "Human in the Loop" machen wir in unseren Projekten sehr gute Erfahrungen.
Und wo wir gerade bei Menschen sind: Eine offene Feedback-Kultur ist ungemein wichtig: Fehler erkennen und zu eliminieren, gehört zum Job. Man könnte sogar sagen, die KI fördert das Lernen aus Fehlern. Und so wird auch die menschliche Intelligenz wie die KI täglich schlauer und besser.
Welche Fälle von Halluzination hast du schon erlebt? Wie gehst du bei deinem Lieblings-Tool mit Halluzinationen um?
Damit die KI im INNO-VERSE nicht halluziniert, haben wir eigene Prompt Engineers, die sehr viel Zeit in das Prompten und Testen stecken. Um zu verlässlichen Ergebnissen zu kommen, musst du dann nur noch Stichwörter eingeben – und schon spuckt die KI deine gewünschten Informationen aus. Du willst sehen, wie das funktioniert? Dann vereinbare einen Termin mit uns und lass dich verblüffen:
There is no question that AI is exciting. But the path to successful, meaningful applications is often unclear, uncertain and fraught with challenges. In this article, I want to share with you how we turned initial doubts into real AI success - and what you can take away for your business.
How Europe can become competitive again with AI - and why now is the time not to lose touch. Read the white paper now!
AI is transforming data management: from weather forecasts to medicine. Learn how she analyses huge amounts of data - and how you can benefit from it!