Ausgangslage
Der Kunde betreibt einen klassischen Kundenservice mit acht Vollzeitstellen. Probleme:
- Hohe Anteile wiederkehrender Standardfragen (Lieferzeit, Konditionen, Bedienung)
- Antwortzeiten in Stoßzeiten über 24 Stunden
- Wissens-Silos: Erfahrenes Wissen liegt in Köpfen weniger Mitarbeiter
- Onboarding neuer Servicekräfte dauerte 6-8 Wochen
Lösung
RAG-Chatbot über die zentrale Wissensbasis (Produkthandbücher, FAQ, historische Tickets, AGB):
- Foundation Model: GPT-4o (Azure OpenAI, EU-Region)
- Vector Store: pgvector + BM25 hybrid
- Quellenangabe pflichtmäßig pro Antwort
- Confidence-Schwellwert < 70 % → automatische Eskalation an Mensch
- Eingebettet in Web-Frontend, Microsoft Teams und Telefon-Hotline (Sprache)
Vorgehen
- Datenaufbereitung der Wissensbasis (Wochen 1-3) – mit Abstand der zeitintensivste Schritt
- Bot-Build und Evaluation gegen 200 Test-Fragen (Wochen 4-5)
- Soft-Launch mit interner Mitarbeiter-Nutzung (Wochen 6-7)
- Externer Launch (Woche 8)
- Optimierungs-Iteration nach jeweils 4 Wochen Produktion
Ergebnisse nach 6 Monaten
~60 %der Standardanfragen vom Bot gelöst
< 5 mindurchschnittliche Antwortzeit (vs. vorher 24 h)
+8 NPSPunkte Kundenzufriedenheit
~3 Wochenkürzeres Onboarding für neue Servicekräfte (Bot als Wissensreferenz)
Was kritisch war
- Datenqualität schlägt Modell-Power. Drei Wochen Datenaufbereitung haben mehr gebracht als jedes Modell-Upgrade.
- Quellenangabe ist nicht verhandelbar. Ohne sie hätte das interne Compliance-Team nie freigegeben.
- Eskalation muss elegant sein. Wenn der Bot das Gefühl gibt, "abzuwürgen", verliert man Vertrauen sofort.
- Mitarbeiter-Buy-in zuerst. Servicekräfte bekommen den Bot als Werkzeug, nicht als Bedrohung positioniert.
Ähnliche Anfragen-Last bei Ihnen?
30 Minuten Sparring zu Ihrem Kundenservice-Setup. Wir prüfen, ob ein RAG-Bot rechtfertigt – oder ob ein einfacher FAQ-Auto-Beantworter ausreicht.