---
author: B. A. Sylla
category: Comment
date: 2025-05-27
language: de
tags: Langauge Models
---
Kommentar - RAG am Arsch!
=========================
## Das nich-flabulielende RAG-Sistem in der Verfalt-dung
Ich bin über die RAG-Gläubigkeit mancher meiner Zeitgenossen nur erstaunt. Die Abkürzung RAG steht für [Retrieval-Augmented Generation](https://de.wikipedia.org/wiki/Retrieval-Augmented_Generation). Damit ist gemeint, dass Sprachmodelle (LMs) dazu verwendet werden sollen Dokumente wie PDFs, Websites, Videos und Bilder als Quelle zum Chatten zu benutzen. Heute dann habe ich teils (weil bekloppt) einen Artikel bei Golem.de über so ein RAG in der Verwaltung angefangen zu lesen. Der Titel lautet [Ein Chatbot, der nicht fabuliert](https://www.golem.de/news/open-source-beim-forschungsministerium-ein-chatbot-der-nicht-fabuliert-2505-196328.html). Da wurde ernsthaft behauptet eine Deutsche Firma hätte es geschafft ein **zuverlässiges RAG-System** für die Verwaltung zu entwickeln. Was nun wirklich totaler Bullshit ist. Das ist der heilige Gral der Chatbot-Forschung. Dafür müsste es den Nobelpreis geben.
## Der Bloggende "Student"
Das ist aber schon der zweite blinde Chatbot-Jünger den ich in den letzten Tagen erlebt habe. Der vorher war noch fehlgeleiteter. Ein KI-Blogger und Student, der nicht verraten hat was er studiert, hat neulich in einem Artikel behauptet dass er erst mal skeptisch gewesen wäre über Googles NotebookLM, aber nach Benutzung wäre er zur Erkenntnis gekommen, dass Googles RAG-System ein echter Game-Changer wäre. Der Titel des Artikels lautet [Until NotebookLM, I never believed AI could be this game-changing for productivity](https://www.xda-developers.com/notebooklm-changed-view-of-ai/). Dieser "Student" meint, dass er das zum Lernen für Klausuren benutzen kann.
Als ich Informatik in Wiesbaden studiert habe (Dipl-Inform. FH, 2003-2009, Durchschnitt 2,0 und Diplomarbeit 1-), habe ich für jedes Fach fünf Tage je zwei mal drei Stunden für Klausuren gelernt. Das waren also sechs Stunden täglich an fünf aufeinander folgenden Tagen, macht zusammen 30 Stunden Lernen für eine einzige Klausur. Das waren drei Tage Lesen und zwei Tage um alte Übungen und Klausuren durchzugehen. Dabei habe ich jedes Kapitel der PDFs für ein Fach einseitig auf ein DINA5-Blatt zusammengefasst. Beispielsweise nach 10 Kapiteln hatte ich dann auf dem Bett 10 solcher DINA5-Seiten vor mir liegen. Die fasste ich dann nochmal immer zu ein oder zwei DINA4-Seiten auf einem Blatt zusammen. Wir durften dass meistens in die Klausur mitnehmen obwohl da keine Zeit war drauf zu schauen. Weil man üblicherweise auch nicht alle Aufgaben einer Klausur lösen konnte wegen der knappen Zeit (als PL/Prüfungsleistung 90 Min., als SL/Studienleistung 120 Min.). Der Sinn war nicht der, dass den Studenten ermöglicht wurde die Klausuren besser zu bestehen, sondern dass sie dann intensiv gelernt haben um so ein Blatt mit Infos anzufertigen. Ich habe im Studium immer gesagt: "Lernen heißt Schreiben und nicht nur Lesen!"
Doch zurück zu dem Artikel des "studierenden" Bloggers. Er will wie er meint für Klausuren mit NotebookLM den Stoff für Klausuren zusammenfassen lassen und so lernen. Das Problem dabei ist, dass das fundamental anders, eigentlich umgekehrt ist als das was wir als Studenten gemacht haben. Wir haben geschrieben um zu Lernen, er will aber nur Lesen um zu Lernen. Zudem wird ihm das Sprachmodell beim Zusammenfassen natürlich Infos vorenthalten, selbst wenn es nicht falsche Schlussfolgerungen und Erfindungen anstellt. Der Stoff eines Professors in seinen PDFs das ist schon Zusammenfassung von mehreren Büchern die der teils oder ganz gelesen hat. Und genau das ist der Stoff den man nutzen muss fürs Lernen und nicht eine Verküzung eines Chatbots. Es ist totaler Irrsinn eine KI-Zusammenfassung einer menschengemachten Zusammenfassung als Lernen zu bezeichnen.
## Ich mach' den Nostradamus für RAG
Ich wage mal eine Vorhersage für die kommenden 10 bis 20 Jahre. Ich habe den Eindruck, dass RAG nichts mit Lernen sondern mit Lernvermeidung zu tun hat, und damit mit Faulheit. Wenn das stimmt, wird es sich rächen. Wenn für die kommenden 10 bis 20 Jahre keine nennenswerten Verbesserungen in Sachen Zuverlässigkeit bei RAG-Systemen erzielt werden. Und wenn immer mehr Geldgeier-Firmen anderen Firmen und Verwaltungen RAG-Systeme andrehen. Wird öffentlich die Erkenntnis einkehren, dass RAG zu mehr Fehlern und Folgeaktionen geführt hat. Was zur Folge hat, dass jede Menge Firmen und Verwaltungen nur Zeit, Geld und Nerven vergeudet haben. Von allen haben dann am ehesten die Geier-Firmen profitiert.
Aber diese Gefahr, dass man die Dinge verschlimmert als zu verbessern besteht eigentlich überall da wo Sprachmodelle eingesetzt werden könnten in den kommenden Jahren. Ein blindes Einführen von Chatbots, wird zu bösem Erwachen für viele bedeuten. Es gibt das so genannte _Gesetz des Werkezugs_. Wenn man ein Werkzeug baut, wird es jemand früher oder später einsetzen. Daher sollten manche Werkzeuge besser gar nicht erst gebaut werden. Kaputtes RAG ist so ein Fall.