Klarstand

KI-Assistent für Kfz-Werkstätten

Fragen. Antworten. Weiterarbeiten.

Technische Infos in Sekunden – egal ob per Sprache, Text oder Foto.

Frage
P0340 – Nockenwellensensor defekt?
Antwort

Nockenwellensensor prüfen:

Widerstand messen: 1.2–1.6 kΩ

Mit Quellenangabe
Teil nicht auf Lager? Direkt bestellen
🎤 Sprache ⌨️ Text 📷 Bild 🌐 Multilingual

Architektur

Query → Klarstand Core → Externe Quellen → Final Generation → Output

Anfrage eingehend...
Query
KLARSTAND CORE
Context Manager
Logisches Herz
Beobachtet das LLM, reichert automatisch an, verhindert Endlos-Loops.
Agentic LLM
denkt mit, gräbt tief
Versteht die Anfrage, welche Daten wir haben und welche noch fehlen.
Fzg
DMS
Fahrzeugkontext
Dok
RAG
Handbücher
API
APIs
TecAlliance
KG
Knowledge Graph
Fehlercode-Relationen
Kontext
Final Generation
Antwort-LLM
präzise, quellenbasiert
Kein Training nötig – Kontext wird zur Laufzeit geliefert. Quellenbasierte Antwort.
Antwort
Output
Chat Text
Nockenwellensensor prüfen: Widerstand 1.2-1.6kΩ...
Natürlichsprachige Antwort mit Quellenangaben
Generative UI
Schaltplan, Teile-Liste
Schaltplan-Auszug, Teileliste, interaktive Elemente

Von der Frage zur Entscheidung

Jede technische Frage führt zu einer Handlung. Klarstand verbindet Information mit Aktion.

💬
Frage
P0340 — was tun?
Klarstand
Klarstand
Versteht, recherchiert, antwortet
Antwort
Sensor prüfen: 1.2–1.6 kΩ
🛠
Handlung
Teil bestellen, reparieren
💡 Wer die Frage beantwortet, begleitet die Entscheidung.
🔧
Für Werkstätten
Schnellere Antworten, weniger Suchen, mehr Zeit für die eigentliche Arbeit.
📊
Für Datenlieferanten
Neue Reichweite für bestehende Inhalte. Faire Vergütung pro Nutzung.
📦
Für Teile-Anbieter
Präsenz im Moment der Entscheidung. Direkte Verbindung zur Werkstatt.

Gemeinsam den Workflow verbinden

Sie haben Daten, Teile oder Systeme, die Werkstätten nutzen? Lassen Sie uns sprechen — wir verbinden, nicht ersetzen.

Flexibel deployen

Unser Tech Stack macht's möglich: Cloud, On-Prem, oder beides.

☁️ Cloud
Skalierbar & global
🏢 On-Prem
Volle Kontrolle
Backend
Frontend
KI-Modelle
Open Source Stack — kein Vendor Lock-in
Jede Kombination möglich
Ihre Daten, Ihre Regeln

Was uns unterscheidet

Wir glauben, dass gute KI-Lösungen auf soliden Schnittstellen, Branchenwissen und Transparenz basieren – nicht auf Magie.

Klarstand

  • Fertige Schnittstellen zu TecAlliance, AutoData, HaynesPro & mehr
  • Branchen-Team mit Werkstatt- und Automotive-Erfahrung
  • Quellenverankerung – jede Aussage referenziert Originaldaten
  • Flexible Deployment: Cloud, On-Premise oder Docker
  • Generative UI statt reiner Textausgabe

Selbst bauen

Vorteile

  • Volle Kontrolle über Architektur
  • Maßgeschneidert auf eigene Prozesse

Zu bedenken

  • Eigenes Team für LLM-Ops & Schnittstellen
  • Schnittstellenpflege bei Datenlieferant-Updates
  • Compliance und Haftung selbst lösen

ChatGPT / Gemini

Vorteile

  • Sofort verfügbar, kein Setup
  • Gut für allgemeine Fragen

Zu bedenken

  • Black Box – keine Nachvollziehbarkeit
  • Kein Zugriff auf Branchen-Datenquellen
  • Haftungsfragen bei falschen Teile-Infos

Häufige Fragen

Antworten auf die wichtigsten Fragen

Automotive-Daten ändern sich täglich: Teilenummern, Verfügbarkeiten, Preise. Ein trainiertes Modell ist ab Tag 1 veraltet.

Unser Live-RAG-Ansatz ruft Daten immer aktuell ab – keine Trainingszyklen, keine veralteten Informationen.

Dazu: Viele Datenlieferanten erlauben kein Training auf ihren Daten aus Compliance-Gründen.

Exakt so aktuell wie beim Lieferanten. Live-Abruf, keine Kopie.
Kein Training auf Lieferanten-Daten. Einbindung über offizielle Schnittstellen. Lieferanten werden kompensiert.

Kein einzelner Anbieter deckt alles ab: Teile-Kataloge ≠ Reparaturanleitungen ≠ Diagnose-Daten.

Werkstätten haben Präferenzen: Manche vertrauen TecAlliance für Teile, AutoData für Prozeduren.

Die Integration ist die eigentliche Arbeit – nicht das LLM. Wir verbinden auch Werkstattsysteme und Arbeitsabläufe.

Agentisches LLM: Schnell und kreativ – orchestriert Datenabrufe, wählt Quellen, plant Schritte.

Finales LLM: Zuverlässig und geerdet – generiert die Antwort nur aus abgerufenen Daten.

Ergebnis: Kostenoptimierung (teures Modell nur wo es zählt) und Qualitätsoptimierung (Halluzinationen reduziert durch Grounding).

Beide LLMs sind frei wählbar: Gemini, OpenAI, Anthropic oder Open-Source – kein Vendor Lock-in.

Quellenverankerung: RAG-basiert – jede Aussage referenziert Originaldaten.

Haftung: Im Automotive-Bereich kostet falsche Information Geld – falsche Teile, Reklamationen, Zeitverlust.

Compliance: Rückverfolgbarkeit gegenüber Kunden und Herstellern ist oft Pflicht. Keine „das hat die KI gesagt“-Ausreden – stattdessen Vertrauen durch Transparenz.

Eingabe: Alle relevanten Sprachen inkl. Dialekte + Spracheingabe. Ausgabe: Was der Lieferant anbietet (meist 10+).

Wir arbeiten seit 2 Jahren fokussiert an genau diesem Problem – Werkstatt-Workflows verstehen, echte Mechaniker-Fragen analysieren, Integrationen bauen, die in der Praxis funktionieren.

Könnte das jemand nachbauen? Theoretisch ja. Aber dafür bräuchte man:

  • Monate, um unsere Integrationen nachzubauen – plus Chat-Interface, Multi-Modalität, Deployment-Infrastruktur und all die domänenspezifischen Feinheiten in unserem Context Manager
  • Ein Team, das Automotive-Erfahrung mit KI-Engineering verbindet (selten)
  • Zeit, um das Daten-Flywheel aufzubauen, das wir bereits haben – jede Anfrage verbessert unser System

Währenddessen bauen wir weitere Integrationen, lernen aus echtem Einsatz und festigen Kundenbeziehungen. Unser Vorsprung wächst – er schrumpft nicht.

Teile-Katalog-Anbindung: 8–15 Personentage.

Das beinhaltet: API-Integration, Mapping auf euer DMS, Testphase mit echten Daten, und Feinabstimmung der Antwortqualität.

Weitere Datenquellen (Reparaturanleitungen, Diagnose-Daten) können parallel oder schrittweise hinzugefügt werden.

Klarstand arbeitet mit verschiedenen Teilenummerierungen – je nachdem, was die angebundene Datenquelle liefert. Ob generische Artikelnummer, OE-Nummer oder Freitext-Beschreibung: Das System erkennt automatisch, welche Informationen vorliegen, und gleicht sie ab.

Wo strukturierte Nummern fehlen, überbrückt das LLM die Lücke durch intelligentes Matching von Textbeschreibungen – basierend auf vorhandenen Daten, nicht auf Vermutungen.

Ja – Spracheingabe ist bereits verfügbar. Mechaniker können ihre Fragen einfach sprechen, ideal wenn die Hände nicht frei sind. Die Spracherkennung unterstützt alle gängigen Sprachen und Dialekte.

Aktuell liegt der Fokus auf dem Reparaturprozess – von der Fehlerdiagnose über Reparaturanleitungen bis zu technischen Daten und Ersatzteilen. Das ist ein klar definierter, wertvoller Anwendungsfall.

Aber Klarstand ist nicht auf Reparaturdaten beschränkt. Überall dort, wo viele Daten aus verschiedenen Systemen zusammenkommen, kann Klarstand unterstützen: Fahrzeugannahme, Teilebestellung, Abrechnung. Das Ziel: Suche beschleunigen und Reibung zwischen Systemen reduzieren.

Ja. Klarstand kann als White-Label-Lösung bereitgestellt werden – in der Cloud oder On-Premise, zugeschnitten auf die Anforderungen des Kunden. Die Plattform ist dabei nicht auf Kfz-Reparaturdaten beschränkt, sondern kann auf beliebige Fachbereiche spezialisiert werden.

Datenminimierung: Es werden nur betriebsnotwendige Daten erhoben.

Verschlüsselung: Bei Übertragung und Speicherung.

Keine Weitergabe an Dritte (Ausnahme: LLM-Verarbeitung). Nutzer-initiierte Löschung jederzeit möglich. Keine IP-Adressen für Analysezwecke.

EU-Datenresidenz und On-Premise-Optionen werden für den Produktivbetrieb aktiv evaluiert.

Unser Modell setzt sich transparent zusammen aus:

  • Einmalige Setup-Fee (basierend auf Integrationsaufwand)
  • Laufende Lizenzgebühr (gestaffelt nach Nutzern oder Werkstätten)
  • Maintenance-Pauschale
  • Optionale Service-Fee

Als Startup sind wir flexibel und offen für kreative Partnerschaftsmodelle. Die konkrete Preisgestaltung hängt von der gewünschten Integrationstiefe ab.

Domänenspezifische Systemanweisungen beschränken den Chatbot auf den fachlichen Kontext.

Für kritische Fakten (Drehmomente, Intervalle, Teileinformationen) muss das System verifizierte Datenquellen nutzen – Raten ist explizit nicht erlaubt.

Quellenverweise sind in der Oberfläche sichtbar.

Geplant: Automatische Validierung kritischer Antworten gegen die zugrunde liegenden Dokumente – unbelegte Antworten werden verworfen.

Ja, unsere Architektur unterstützt das – kein Vendor Lock-in. Open-Source- und lokale Modelle liefern brauchbare Ergebnisse, liegen aber in der Leistungsfähigkeit hinter Cloud-Modellen.

Für maximale Qualität: Cloud-Modelle (Gemini, OpenAI, Anthropic).

Für maximale Datensouveränität: On-Premise-Betrieb mit lokalen Modellen.

Die Qualität im Open-Source-Bereich nimmt stetig zu.

REST-API ist bereits vorhanden. Bidirektionale Integration möglich: Daten in Klarstand einbinden und Klarstand-Funktionen in Partnersysteme integrieren (Chat, Diagnose-Workflows, RMI-Abruf).

Unterstützt werden Fahrzeugdatenbanken, Wartungs- und Diagnosedaten, Teilekataloge und Dokumenten-Retrieval. Weitere Protokolle auf Anfrage.

Bereit für Klarstand?

Erleben Sie live, wie KI Ihre Werkstatt unterstützt.

© Klarstand. Alle Rechte vorbehalten.