Betriebswissen auf Abruf – für Instandhaltung und Produktion.
Wartungshandbücher, Störungshistorien und interne Dokumentationen enthalten wertvolles Wissen – das im Ernstfall kaum jemand schnell genug findet. Wir erforschen, wie Retrieval-Augmented Generation und Large Language Models dieses Wissen konversationell und quellenbasiert zugänglich machen.
Das Problem: Wissen liegt brach
In jedem produzierenden Unternehmen gibt es Experten, die wissen, wie eine bestimmte Anlage reagiert, wie ein Fehlercode zu interpretieren ist oder welche Einstellungen bei welchem Material funktionieren. Dieses implizite Wissen ist weder dokumentiert noch skalierbar – und droht, mit dem Ausscheiden von Schlüsselpersonen verloren zu gehen.
Gleichzeitig wächst die Dokumentenlast: Wartungshandbücher in mehreren Sprachen, hunderte Seiten Schaltpläne, Excel-Tabellen mit Fehlerhistorien. Selbst wenn Informationen vorhanden sind, ist der Abruf im Fehlerfall viel zu langsam.
Unser Ansatz: RAG + LLM als Wissensassistent
Retrieval-Augmented Generation kombiniert die Stärken von Vektordatenbanken und Large Language Models zu einem kontextgenauen Wissenssystem.
- Dokumentenindexierung: Wartungshandbücher, Schaltpläne, Fehlerberichte und Tickethistorien werden semantisch vektoriell indiziert
- Semantische Suche: Anfragen werden inhaltlich – nicht nur schlüsselwortbasiert – mit relevantem Quellmaterial abgeglichen
- LLM-gestützte Antwortgenerierung: Ein Sprachmodell formuliert eine verständliche, quellenbasierte Antwort für den Techniker vor Ort
- Quellenangaben: Jede Antwort verlinkt auf die zugrunde liegenden Dokumente – für Transparenz und Nachvollziehbarkeit
- On-Premise-Betrieb: Alle Modelle laufen in der eigenen Infrastruktur; keine Produktionsdaten verlassen das Unternehmen
Anwendungsfälle
- Instandhaltungssupport: Techniker stellen Fragen wie die Ursachen eines bestimmten Fehlercodes und erhalten sofort eine quellenbasierte Antwort aus Handbüchern und Störungshistorien
- Einarbeitung neuer Mitarbeiter: Dokumentiertes Wissen wird interaktiv zugänglich – ohne Einarbeitungszeiten im Mehrschichtbetrieb
- Wissenstransfer: Implizites Expertenwissen wird durch strukturierte Interviews und automatische Dokumentation formalisiert
- Änderungsmanagement: Bei Anlagenänderungen wird automatisch geprüft, welche Dokumente und Prüfpläne aktualisiert werden müssen
Datensouveränität als Prämisse
Besonders für produzierende Unternehmen ist die Frage der Datensouveränität zentral. Unsere Systeme sind so konzipiert, dass alle KI-Modelle und Vektordatenbanken vollständig on-premise betrieben werden können. Die optionale Nutzung von Cloud-LLM-APIs ist nur für Anwendungsfälle vorgesehen, bei denen keine sensitiven Betriebsdaten verarbeitet werden.