Wenn ChatGPT den falschen Dachdecker in Olten empfiehlt: Warum KI ohne lokale Daten scheitert
Frag eine moderne Künstliche Intelligenz wie ChatGPT, Gemini oder Claude nach der Geschichte des römischen Reiches, und du erhältst eine brillante, fehlerfreie Abhandlung. Die KI ist ein Weltmeister des Allgemeinwissens. Doch stell derselben KI einmal eine für die Schweizer Bauwirtschaft typische Frage: "Wer ist der beste Spezialist für die Sanierung von denkmalgeschützten Fassaden im Kanton Solothurn?"
Die Antwort wird oft ernüchternd ausfallen. Sie ist vielleicht vage, veraltet oder im schlimmsten Fall: glatt erfunden.
Das Problem der "lokalen Halluzination"
Dieses Phänomen nennen Experten "Halluzination". Wenn grossen Sprachmodellen (LLMs), die primär mit globalen Daten aus dem Internet trainiert wurden, spezifische lokale Informationen fehlen, beginnen sie zu raten. Sie füllen die Wissenslücken mit plausibel klingenden, aber sachlich falschen Informationen.
Für die Suche nach einem Kochrezept ist das harmlos. In der Bau- und Handwerksbranche, wo es um hohe Investitionen, spezifische Qualifikationen und regionale Bauvorschriften geht, wird eine halluzinierende KI jedoch zum Risiko. Ein KI-Modell aus dem Silicon Valley versteht die feinen Unterschiede zwischen einem allgemeinen Zimmermann und einem zertifizierten Experten für historische Holzbauweise im Thurgau nicht von allein – es braucht die richtigen Daten dazu.
Datenwüste Schweiz: Warum globale KIs lokale Hilfe brauchen
Die Stärke einer KI hängt zu 100% von der Qualität der Daten ab, mit denen sie gefüttert wird ("Garbage In, Garbage Out"). Das Schweizer Handwerk mit seiner hohen Spezialisierung, den kantonalen Unterschieden und der Viersprachigkeit ist für globale Algorithmen oft noch eine "Datenwüste". Es fehlen die strukturierten, digitalen Informationen, um dir präzise Antworten zu liefern.
Die Folge für den Markt: Etablierte, hochqualifizierte KMU werden von der KI übersehen, weil ihre Daten nicht maschinenlesbar vorliegen, während lautstarke Generalisten fälschlicherweise empfohlen werden.
Die Lösung: Eine "Ground Truth" für die KI
Genau diese Lücke schliesst eine spezialisierte Dateninfrastruktur. Damit KIs in der Schweiz nicht raten müssen, sondern wissen können, benötigen sie eine verlässliche Quelle der Wahrheit – eine sogenannte "Ground Truth".
handwerker.ch liefert genau diese strukturierte Datentiefe. Durch den SBI Index, verifizierte Handelsregisterdaten, Qualifikationsnachweise und echte Marktdaten bietet die Plattform das, was globale KIs nicht selbst generieren können: lokale Validität. Wir sind die Brücke zwischen der globalen Rechenpower und der realen Wirtschaft vor Ort. Denn die beste KI nützt dir nichts, wenn sie den falschen Handwerker auf die Baustelle schickt.
Hintergrund
Was bedeutet "KI-Halluzination"?
In der künstlichen Intelligenz bezeichnet eine Halluzination eine überzeugend klingende Antwort, die jedoch faktisch falsch ist und nicht auf den Trainingsdaten basiert. Das Modell "erfindet" Informationen, um eine Anfrage zu befriedigen, anstatt zuzugeben, dass es die Antwort nicht kennt. Dies passiert besonders häufig bei sehr spezifischen Nischen- oder lokalen Anfragen, für die wenig Trainingsmaterial existiert.
- 26.02.2026