Technik RAG
Retrieval Augmented Generation
Technik die ein LLM mit aktuellen externen Daten anreichert bevor es antwortet
Retrieval Augmented Generation (RAG) löst eines der größten Probleme von LLMs: veraltetes oder fehlendes Wissen. Statt das Modell neu zu trainieren, wird es vor der Antwort mit relevantem Kontext aus einer externen Wissensquelle versorgt.
Der RAG-Ablauf
- Nutzer stellt eine Frage
- System sucht passende Dokumente (z.B. per Vektorsuche in einer Datenbank)
- Die gefundenen Textabschnitte werden als Kontext dem Prompt beigefügt
- Das LLM antwortet auf Basis dieser aktuellen Informationen
Warum RAG wichtig ist
Ohne RAG kennt ein LLM nur, was beim Training enthalten war. Mit RAG kann es auf interne Firmendokumente, aktuelle Nachrichten, oder eigene Wissensdatenbanken zugreifen — ohne Retraining.
Typische Anwendungen
- Unternehmens-Chatbots die auf eigenen Dokumenten antworten
- KI-Assistenten mit Zugriff auf aktuelle Daten
- Rechtliche oder medizinische Assistenten mit geprüften Quellen