Menschliches vs. LLM- vs. Agentisches Wissen
Drei grundlegend verschiedene Wissenstypen, die zusammenarbeiten müssen
Menschliches vs. LLM- vs. Agentisches Wissen
Ihr Senior-Experte, ChatGPT und ein KI-Agent gehen in ein Meeting. Jeder ist brilliant — und jeder ist blind für das, was die anderen wissen.
Das Drei-Wissens-Problem
Wenn Organisationen über „KI und Wissen” nachdenken, stellen sie sich meist einen einfachen Transfer vor: Nimm, was Menschen wissen, gib es der KI, fertig.
Das verkennt grundlegend sowohl menschliches Wissen als auch die tatsächliche Funktionsweise von KI-Systemen.
Es gibt drei verschiedene Wissenstypen im Spiel — jeder mit anderen Eigenschaften, anderen Stärken und anderen Fehlermodi. Knowledge Engineering richtig zu machen bedeutet, alle drei zu verstehen.
Menschliches Wissen: Tief, Kontextbezogen, Fragil
Menschliche Experten tragen Wissen, das Jahrzehnte brauchte, um sich anzusammeln. Es ist in Erfahrung eingebettet, durch Kontext geformt und oft unmöglich vollständig zu artikulieren.
Was menschliches Wissen gut kann:
- Bewältigt wirklich neuartige Situationen
- Integriert emotionale und soziale Intelligenz
- Passt sich sofort an wechselnden Kontext an
- Weiß, wenn etwas sich „falsch anfühlt”
Wo menschliches Wissen scheitert:
- Kann nicht kopiert oder skaliert werden
- Geht zur Tür hinaus, wenn Menschen gehen
- Inkonsistent unter Druck oder bei Ermüdung
- Schwer zu auditieren oder zu erklären
Das wertvollste menschliche Wissen ist oft implizit — Maria weiß nicht nur was zu tun ist, sie weiß, was zu tun ist in dieser spezifischen Situation mit diesem spezifischen Kunden angesichts dessen, was letztes Quartal passiert ist. Bitten Sie sie, es aufzuschreiben, und Sie bekommen einen Bruchteil dessen, was sie tatsächlich weiß.
graph TB TITLE["MENSCHLICHES WISSEN"] TITLE --> EXPLICIT["<b>EXPLIZIT ~15%</b><br/>Dokumentiert"] TITLE --> TACIT["<b>IMPLIZIT ~85%</b><br/>Undokumentiert"] EXPLICIT --> E1["Verfahren"] EXPLICIT --> E2["Richtlinien"] EXPLICIT --> E3["Schulungsmaterialien"] EXPLICIT --> E4["Prozessdokumente"] TACIT --> T1["Intuition"] TACIT --> T2["Urteilsentscheidungen"] TACIT --> T3["Ausnahmebehandlung"] TACIT --> T4["Beziehungswissen"] TACIT --> T5["Gespür für Situationen"] style TITLE fill:#fef2f2,stroke:#dc2626,stroke-width:4px,color:#991b1b,font-size:18px style EXPLICIT fill:#fff7ed,stroke:#f97316,stroke-width:3px,color:#c2410c,min-width:150px style TACIT fill:#fef2f2,stroke:#dc2626,stroke-width:4px,color:#991b1b,min-width:250px style E1 fill:#fff7ed,stroke:#f97316 style E2 fill:#fff7ed,stroke:#f97316 style E3 fill:#fff7ed,stroke:#f97316 style E4 fill:#fff7ed,stroke:#f97316 style T1 fill:#fef2f2,stroke:#dc2626 style T2 fill:#fef2f2,stroke:#dc2626 style T3 fill:#fef2f2,stroke:#dc2626 style T4 fill:#fef2f2,stroke:#dc2626 style T5 fill:#fef2f2,stroke:#dc2626
Das unbequeme Verhältnis: Die meisten Wissensmanagement-Initiativen erfassen vielleicht 15% dessen, was Experten tatsächlich wissen — den expliziten, dokumentierbaren Teil. Die 85%, die echte Leistung antreiben, bleiben in ihren Köpfen verschlossen.
LLM-Wissen: Breit, Probabilistisch, Zustandslos
Large Language Models wie GPT-4 oder Claude haben riesige Mengen menschlichen Wissens aufgenommen — im Wesentlichen den dokumentierten Output der Zivilisation. Sie können mit bemerkenswerter Flüssigkeit denken, synthetisieren und generieren.
Was LLM-Wissen gut kann:
- Breites Allgemeinwissen über Domänen hinweg
- Mustererkennung im großen Maßstab
- Sprachverständnis und -erzeugung
- 24/7 verfügbar, unendlich skalierbar
Wo LLM-Wissen scheitert:
- Kein Wissen über Ihren spezifischen Kontext
- Kann nicht aus Ihren proprietären Daten lernen (ohne Fine-Tuning)
- Selbstbewusst falsch, wenn Wissen fehlt
- Kein Gedächtnis zwischen Gesprächen (zustandslos)
Ein LLM weiß, wie „guter Kundenservice” im Allgemeinen aussieht. Es weiß nicht, dass Ihr Top-Kunde, Acme AG, eine stehende Vereinbarung hat, alle Bestellungen zu beschleunigen, dass ihr CFO es hasst, „Robert” genannt zu werden, oder dass der Abrechnungsfehler letzten Monat bedeutet, dass Sie jetzt besonders entgegenkommend sein sollten.
Die Kontext-Lücke: LLMs haben Weltwissen, aber nicht Ihr Wissen. Jede Organisation hat proprietären Kontext, der formt, wie allgemeines Wissen angewendet werden sollte. Ohne diesen Kontext geben LLMs Ihnen generische — oft falsche — Antworten.
Agentisches Wissen: Operativ, Integriert, Evolutionär
KI-Agenten unterscheiden sich sowohl von Menschen als auch von eigenständigen LLMs. Sie operieren innerhalb von Systemen, führen Aktionen aus und behalten Zustand über Interaktionen hinweg. Ihre Wissensbedürfnisse sind grundlegend operativ.
Was agentisches Wissen erfordert:
- Verständnis Ihrer spezifischen Geschäftsregeln
- Zugriff auf Echtzeit-Daten aus Ihren Systemen
- Gedächtnis vergangener Interaktionen und Entscheidungen
- Fähigkeit zu wissen, wann zu eskalieren ist
Worin sich agentisches Wissen unterscheidet:
- Muss explizit genug sein, um kodiert zu werden
- Braucht klare Grenzen und Leitplanken
- Erfordert kontinuierliche Aktualisierung bei Kontextänderungen
- Muss mit menschlicher Aufsicht integriert werden
graph TB TITLE["ANFORDERUNGEN AN AGENTISCHES WISSEN"] TITLE --> WHAT["<b>WISSEN WAS</b>"] TITLE --> WHEN["<b>WISSEN WANN</b>"] WHAT --> W1["Geschäftsregeln"] WHAT --> W2["Entscheidungslogik"] WHAT --> W3["Prozessschritte"] WHEN --> WH1["Handeln"] WHEN --> WH2["Eskalieren"] WHEN --> WH3["Warten"] W1 --> HOW["<b>WISSEN WIE</b>"] W2 --> HOW W3 --> HOW WH1 --> HOW WH2 --> HOW WH3 --> HOW HOW --> H1["Auf Daten zugreifen"] HOW --> H2["Tools nutzen"] HOW --> H3["Ergebnisse verifizieren"] style TITLE fill:#fef2f2,stroke:#dc2626,stroke-width:4px,color:#991b1b,font-size:18px style WHAT fill:#fff7ed,stroke:#f97316,stroke-width:3px,color:#c2410c,min-width:150px style WHEN fill:#fff7ed,stroke:#f97316,stroke-width:3px,color:#c2410c,min-width:150px style HOW fill:#fef2f2,stroke:#dc2626,stroke-width:3px,color:#991b1b,min-width:150px style W1 fill:#fef2f2,stroke:#dc2626 style W2 fill:#fef2f2,stroke:#dc2626 style W3 fill:#fef2f2,stroke:#dc2626 style WH1 fill:#fef2f2,stroke:#dc2626 style WH2 fill:#fef2f2,stroke:#dc2626 style WH3 fill:#fef2f2,stroke:#dc2626 style H1 fill:#fff7ed,stroke:#f97316 style H2 fill:#fff7ed,stroke:#f97316 style H3 fill:#fff7ed,stroke:#f97316
Ein Agent, der Kundenanfragen bearbeitet, muss wissen, was Ihre Richtlinien sind, wann Ausnahmen anzuwenden sind versus zu eskalieren, und wie die relevanten Daten aus Ihren Systemen zu holen sind. Das ist operatives Wissen — weniger über Verstehen und mehr über Handeln.
Die Integrations-Herausforderung
Hier wird es interessant: Effektives Knowledge Engineering erfordert, dass alle drei Typen zusammenarbeiten.
| Wissenstyp | Beitrag | Einschränkung |
|---|---|---|
| Menschlich | Liefert Urteil, behandelt Ausnahmen, trainiert das System | Skaliert nicht, geht irgendwann |
| LLM | Liefert Argumentation, Sprache, Allgemeinwissen | Fehlt Ihr spezifischer Kontext |
| Agentisch | Führt konsistent aus, skaliert unendlich, vergisst nie | Nur so gut wie das, was es bekommt |
Die Knowledge-Engineering-Aufgabe ist:
- Implizites menschliches Wissen extrahieren und explizit machen
- LLM-Fähigkeiten mit Ihren proprietären Informationen kontextualisieren
- Kodieren, was Agenten brauchen, um autonom zu operieren
- Feedback-Schleifen designen, damit alle drei sich gemeinsam verbessern
Was das für Ihre Organisation bedeutet
Sie können nicht einfach „die KI auf unseren Dokumenten trainieren.” Dokumente erfassen nur den expliziten Bruchteil menschlichen Wissens. Das implizite Wissen — das Urteil, die Ausnahmen, das „Gespür” — erfordert gezielte Extraktionsmethoden.
Sie können nicht einfach „ein LLM anschließen.” Ohne Ihren Kontext gibt Ihnen ein LLM generische Antworten, die als Expertise verkleidet sind. Retrieval-Augmented Generation (RAG) hilft, aber nur wenn Sie die richtigen Wissens-Assets zum Abrufen haben.
Sie können nicht einfach „einen Agenten deployen.” Agenten ohne ordentliche Wissensfundamente sind Automatisierung von Unwissenheit. Sie werden das Falsche konsistent tun, im großen Maßstab, mit Überzeugung.
Der Weg nach vorn
Die Organisationen, die hier gewinnen, erkennen, dass Knowledge Engineering eine Disziplin ist, kein einmaliges Projekt. Sie bauen systematische Fähigkeiten auf, um:
- Implizites menschliches Wissen aufzudecken, bevor es zur Tür hinausgeht
- Dieses Wissen so zu strukturieren, dass LLMs es effektiv nutzen können
- Es zu operationalisieren, damit Agenten autonom darauf handeln können
- Es weiterzuentwickeln, wenn sich Geschäft und Kontext ändern
Es geht nicht darum, Menschen durch KI zu ersetzen. Es geht darum, eine Wissensarchitektur zu schaffen, in der Menschen, LLMs und Agenten jeweils das beitragen, was sie am besten können.
Tiefer einsteigen?
Diese drei Wissenstypen zu verstehen ist der erste Schritt. Der nächste ist, zu kartieren, welche Typen Ihre spezifischen Anwendungsfälle erfordern — und den Extraktions- und Integrationsansatz zu designen.
Genau das macht unser Use-Case-Assessment. In 10 Minuten sehen Sie, wie Ihre Situation zu diesem Framework passt.
Bereit loszulegen?
Machen Sie unser Assessment, um den richtigen Knowledge-Engineering-Ansatz für Ihre Organisation zu finden.
Assessment starten