Zum Inhalt springen
Fallstudien

Wissensmanagement mit RAG, wenn Kontext nicht mehr suchbar ist.

Große Teams verlieren Zeit, weil Wissen über zu viele Orte verteilt ist. RAG-Systeme lösen das nur dann, wenn Quellen, Rechte und Nutzbarkeit sauber gedacht werden.

Signal
13.000h

eingesparte Engineering-Zeit im Uber-Genie-Beispiel

Signal
95%

schnellere Recherche in dokumentierten Setups

Signal
70.000+

verarbeitete Fragen in einem großen internen Wissenssystem

Signal
6-10 Wo.

typischer Weg bis zu echter Teamnutzung

Fallstudie 01

Uber Genie: Internes Wissen nutzbar machen statt Senior-Zeit zu verbrennen.

Wichtige Antworten lagen in Slack, Wikis und Dokumentation, aber nicht in einem abrufbaren System mit verlässlichem Kontext.

Problem

Ausgangslage

Wissen war über viele Kanäle und Tools verstreut.
Neue Mitarbeitende fanden kritische Informationen zu langsam.
Senior Engineers beantworteten immer wieder ähnliche Fragen.
Umsetzung

Was umgesetzt wurde

Ein RAG-System über Slack, Dokumentation und interne Quellen.
Konversationelle Suche mit Verweisen auf Originalquellen.
Kontinuierliche Nutzung im Alltag statt isolierter Suchoberfläche.
Ergebnis

Wirkung

70.000+

verarbeitete Fragen

154

abgedeckte Kanäle

13.000h

gesparte Zeit

Fallstudie 02

JPMorgan: Recherchezeit drücken und Beratungszeit erhöhen.

Berater verbrachten zu viel Zeit damit, Informationen aus verteilten Quellen zusammenzutragen, statt sie in Kundengespräche zu übersetzen.

Problem

Ausgangslage

Markt- und Kundendaten lagen in mehreren Systemen.
Schnelle Recherche war trotz großer Wissensbasis zu langsam.
Personalisierung erforderte unnötig viel manuelle Sammlung.
Umsetzung

Was umgesetzt wurde

KI-gestützte Retrieval-Logik für Research und Kundenkontext.
Schnellere Suche mit stärkerer Relevanz auf den ersten Zugriff.
Bessere Nutzung interner Informationen im Beratungsgespräch.
Ergebnis

Wirkung

95%

schnellere Recherche

+20%

Brutto-Sales-Steigerung

+50%

Wachstum der Kundenbasis über mehrere Jahre

Liefermodell

Wie wir Wissenssysteme bei RakenAI operationalisieren.

Wir bauen nicht nur Vektorsuche, sondern eine nutzbare Schicht aus Retrieval, Quellenbezug, Zugriffsrechten und klarer Teamnutzung.

Source Integration

Dokumente, Wikis, Tickets und Chatverläufe werden gezielt angebunden.

Citations

Antworten zeigen Ursprung und Nachvollziehbarkeit statt bloßer Behauptungen.

Access Control

Bestehende Berechtigungen bleiben Teil des Systems und werden nicht umgangen.

Everyday Use

Das System landet dort, wo Teams arbeiten, nicht in einer isolierten Lab-UI.

Fragen

Was Teams als Nächstes fragen.

Wann wird ein RAG-System wirklich benutzt?

Dann, wenn es in bestehende Arbeitsorte integriert ist, Quellen transparent zeigt und spürbar schneller als die bisherige Suche funktioniert.

Ist das eher ein internes oder externes Projekt?

Primär intern. Es stärkt Teamgeschwindigkeit und Antwortqualität. Externe Sichtbarkeitsthemen deckt dagegen eher das Audit ab.

Wie verhindert man Halluzinationen?

Durch saubere Retrieval-Logik, Quellenpflicht, Rechtekontrolle und klare Grenzen, welche Antworten das System überhaupt geben darf.

Naechster Schritt

Wissensmanagement so bauen, dass Teams es täglich nutzen statt umgehen.

Wir prüfen Quellenlage, Rechte und Nutzungsorte, bevor ein RAG-System in produktive Teamarbeit geht.