KI, die Ihr Unternehmen kennt.
Wenn die Architektur stimmt.
RAG-Workshop: In einem Tag von der Anforderung zur dokumentierten Architekturentscheidung — für Ihre Dokumente, Ihre Infrastruktur, Ihr Betriebsmodell.
Was ist RAG?
Retrieval-Augmented Generation verbindet Ihre Unternehmensdaten mit der Sprachfähigkeit eines Large Language Models — damit KI nicht halluziniert, sondern auf Ihrem Wissen antwortet.
Dokumente aufbereiten
Ihre internen Dokumente — Verträge, Handbücher, Berichte, Wikis — werden in durchsuchbare Einheiten zerlegt und als Vektoren gespeichert.
Relevante Stellen finden
Bei jeder Nutzeranfrage wird semantisch nach den passendsten Textabschnitten gesucht — nicht per Stichwort, sondern nach Bedeutung.
Fundiert antworten
Das Sprachmodell erhält die gefundenen Stellen als Kontext und generiert eine Antwort, die auf Ihren Daten basiert — nachvollziehbar und quellengestützt.
Konkrete Einsatzfelder
Wissensplattform
Mitarbeitende fragen in natürlicher Sprache — das System antwortet aus internen Dokumenten.
Kunden-Support
Automatisierte Antworten auf Basis von Produkt-Dokumentation, FAQs und Tickethistorie.
Vertragsanalyse
Klauseln vergleichen, Risiken identifizieren und Fragen zu Vertragswerken beantworten.
Regulatorik & Compliance
Relevante Vorschriften und interne Richtlinien schnell finden und kontextualisieren.
Zwischen einem RAG-Prototyp und einem Produktionssystem liegt ein Feld technischer Entscheidungen, die sich gegenseitig beeinflussen — Chunking-Strategien, Retrieval-Architektur, Reranking, Modellauswahl, Betriebsmodell. Generische Standardwerte funktionieren nicht optimal. Dieser Workshop liefert eine massgeschneiderte Architekturentscheidung, kein Foliendeck.
Workshop-Module
Sechs strukturierte Module für Ihre Enterprise RAG Pipeline — von der Dokumentenanalyse bis zur dokumentierten Architekturentscheidung.
Analyse Ihrer Dokumenttypen. Bewertung von Fixed-Token-, semantischem, strukturbasiertem und hybridem Chunking. Konfiguration statt Default.
Vektorsuche, Hybrid Search (BM25 + Vektor), Knowledge-Graph-Expansion, adaptive Kontextbudgets. Technologiewahl: pgvector, Vespa oder dedizierte Lösung.
Reciprocal Rank Fusion, Cross-Encoder-Modelle, self-hosted Inference-Endpoints. Konfigurierbare Kandidatenmengen und Top-N-Auswahl.
Large Language Model, Text Embedding, Reranker. Abwägung proprietär vs. Open Source nach Qualität, Latenz und Kosten.
Cloud, On-Premise, hybrid. GPU-Bedarf, Container-Orchestrierung, Skalierung. DSGVO- und Compliance-Bewertung.
Dokumentiertes Ergebnis: Chunking-Konfiguration, Retrieval-Strategie, Reranking-Setup, Modellwahl, Infrastruktur-Anforderungen, nächste Schritte.
Ihr Ergebnis
Konkrete Lieferobjekte statt abstrakter Empfehlungen — alles dokumentiert und umsetzbar für Ihre KI-Wissensplattform.
- Chunking-Konfiguration pro Dokumenttyp
- Konkrete Technologiewahl
- Modellempfehlungen
- Infrastruktur-Anforderungen
- Offene Punkte und nächste Schritte
Für wen ist der Workshop?
Der Workshop richtet sich an Teams, die RAG-Systeme nicht nur verstehen, sondern produktionsreif implementieren wollen.
RAG-Pipelines planen oder produktionsreif machen
Verstehen, welche Stellschrauben die Antwortqualität beeinflussen
Cloud-vs-On-Prem-Abwägungen fundiert treffen
Workshop-Format
Dauer
1 Tag (halbtägig bei fokussiertem Scope möglich)
Teilnehmende
Maximal 10 Personen für optimale Interaktion
Vorbereitung
Beispieldokumente und kurze Beschreibung der geplanten Anwendungsfälle