Gedanken zu "LLM Wikis"
Hallo Subscriber,
dieser Newsletter ist ein wenig anders. Anstatt Neuigkeiten aus der Welt von DokuWiki zu präsentieren, soll er eher als Denkanstoß dienen. Welche Bedeutung hat das Aufkommen von KI‑Agenten für die Zukunft von Wikis und das Wissensmanagement?
Wir würden uns sehr über Ihre Gedanken zu diesem Thema freuen.
Mit freundlichen Grüßen
Andreas Gohr
P.S.: Falls Sie noch nicht gesehen haben, wie eine Wiki-Integration mit einem KI‑Agenten aussehen kann, werfen Sie doch einen Blick auf unser Video zum AI‑Agent Plugin in Aktion.
Gedanken zu LLM‑Wikis
Die Idee eines LLM‑Wikis, wie sie kürzlich von Andrej Karpathy vorgestellt wurde, macht derzeit auf LinkedIn und in anderen Kreisen die Runde.
Das Konzept ist einfach: Anstatt das Wiki manuell zu pflegen, Seiten zu erstellen, sie zu verlinken und darauf zu achten, dass alles aktuell und konsistent bleibt, überlässt man diese Aufgaben einem KI‑Agenten. Das “Wiki” besteht aus einer Vielzahl miteinander verknüpfter Dateien, die hauptsächlich vom Agenten gelesen und geschrieben werden. Die eigentliche Schnittstelle zur Information ist somit der Agent selbst.
Zum Hinzufügen von Informationen wirft man Dokumente, E‑Mails oder Textschnipsel in einen sogenannten “Ingest‑Agenten”. Ein regelmäßig arbeitender “Lint‑Agent” übernimmt die Rolle des Wiki‑Gärtners, und um Informationen aus dem System abzurufen, kommuniziert man mit dem “Query‑Agenten”.
Das klingt nach Magie. Endlich ist das größte Hindernis bei der Wiki‑Einführung gelöst: Niemand muss mehr etwas aufschreiben.
Als ich meinen Kolleginnen und Kollegen das DokuWiki AIAgent Plugin vorstellte (siehe letzter Newsletter), gingen ihre Gedanken in dieselbe Richtung. Doch meiner Meinung nach beruht diese Vorstellung auf einem Missverständnis: Information zu sammeln ist nicht dasselbe wie Wissen zu schaffen. Ein nützliches Wiki ist keine reine Datenablage, die ein Agent beliebig lesen und beschreiben kann, sondern eine gemeinsame, kollaborativ gestaltete Struktur, die Menschen verstehen, navigieren und der sie vertrauen können.
Information ist nicht Wissen
Das Ziel eines Wikis besteht darin, Wissen aus Informationen zu bündeln und zu synthetisieren. Karpathy deutet das Problem bereits an, wenn er beschreibt, wie er die “Ingest”-Phase durchführt:
Ich persönlich ziehe es vor, Quellen nacheinander aufzunehmen und aktiv beteiligt zu bleiben – ich lese die Zusammenfassungen, überprüfe die Aktualisierungen und leite das LLM an, worauf es den Schwerpunkt legen soll.
Ohne diese enge Aufsicht und Führung betreibt man im Grunde “Vibe Coding” seiner Wissensbasis. Falls Ihnen der Begriff nicht vertraut ist: “Vibe Coding” bezeichnet den Prozess, Software mit Hilfe eines KI‑Programmierassistenten zu erstellen, ohne den erzeugten Code jemals anzusehen (mitunter, ohne überhaupt programmieren zu können). Die Ergebnisse können kurzfristig beeindruckend sein, doch je größer der Umfang und je länger die Entwicklungszeit eines Projektes, desto stärker verwandelt sich solch „vibe‑kodierte“ Software in unwartbaren Spaghetti‑Code mit zahlreichen Duplikaten, unerwarteten Fehlern und Nebenwirkungen.
Beim Wissensmanagement gilt dasselbe Prinzip: Wenn man die Projekt‑E‑Mails aus zehn Jahren in eine Ingest‑Pipeline kippt, erhält man am Ende Zusammenfassungen von Gesprächen, aber kein institutionelles Know‑how. Wissen entsteht erst durch menschliche Synthese und Perspektive. Das kann ein LLM allein nicht leisten.
Was Karpathy tatsächlich beschreibt, ist nicht eine Automatisierung ohne Kontrolle, sondern eher das, was man als „Vibe Engineering“ bezeichnen könnte: eine enge Zusammenarbeit mit einem KI‑Agenten, bei der jedes Ergebnis überprüft, verfeinert und von einem erfahrenen Menschen freigegeben wird. Das ist zwar eine andere Arbeitsweise, aber nicht unbedingt einfacher oder schneller als traditionelle Entwicklung. Die menschliche Rolle verschiebt sich vom reinen Entwickler zum Architekten und Qualitätsprüfer.
Übertragen auf ein “LLM‑Wiki” bedeutet das: Wenn man vermeiden will, dass die Wissensbasis zu einer undurchsichtigen Blackbox wird, muss man genau beobachten, wie der Agent Informationen organisiert und welches Wissen daraus abgeleitet wird und diesen Prozess kontinuierlich steuern und korrigieren.
Ein Datenspeicher ist noch kein Wegweiser
Wie oben erläutert, sollte man genau im Blick behalten, was die Agenten mit den gelieferten Informationen tun. Das System, das Karpathy beschreibt, macht dies allerdings schwierig. Sein “Wiki” besteht aus hunderten Markdown‑Dateien, die alle in einem einzigen Verzeichnis liegen, ergänzt durch eine index.md mit kurzen Beschreibungen und optionalen Kategorien. Dabei betont er ausdrücklich: “Das LLM kontrolliert diese [Speicherebene] vollständig.”
Das Ergebnis ist eine Art digitale Datenhalde: technisch durchsuchbar, aber kognitiv kaum erfassbar. Selbst mit Werkzeugen wie Obsidian, die eine graphische Ansicht oder Backlink‑Visualisierung bieten, fehlt eine echte Übersicht. Es gibt keine kuratierten Einstiegspunkte, keine gezielte Hierarchie. Ab einer gewissen Anzahl an Dateien verliert man die Orientierung: man erkennt nicht mehr, was fehlt, was doppelt ist oder wo man anfangen soll.
Das klassische Wiki‑Gärtnern löst dieses Problem durch menschliche Navigationsgestaltung: sorgfältig gewählte Seitentitel, strukturierte Verlinkungen, klar definierte Namensräume und Zusammenfassungen, die Leserinnen und Leser leiten. Dabei geht es weniger um Speicherung als um Orientierung. Ohne diese redaktionelle Gestaltungsebene verkommt das “Wiki” zu einer Sammlung lose verbundener Textfragmente – vielleicht für ein LLM lesbar, aber für Menschen schwer überschaubar und wenig vertrauenswürdig.
Persönliche Systeme sind keine kollaborativen Wikis
Was viele in ihrer Begeisterung übersehen, steckt bereits im ersten Satz von Karpathys Text: „Ein Muster zum Aufbau persönlicher Wissensdatenbanken mithilfe von LLMs.“ (Hervorhebung durch mich).
Ich bezweifle nicht, dass dieses System für ihn persönlich hervorragend funktioniert. Karpathy investiert offensichtlich viel Zeit in Pflege und Verbesserung seiner Daten. Wahrscheinlich wäre er auch mit einem klassischen Wiki ein sehr effizienter Nutzer.
Was seinem “Muster” jedoch fehlt, ist ein Konzept für Mehrbenutzerbetrieb. Wie würde sich das System entwickeln, wenn verschiedene Personen mit unterschiedlichen Perspektiven und Bedürfnissen gleichzeitig damit arbeiten? Wie lässt sich die Zuverlässigkeit der Informationen sicherstellen? Wem werden Änderungen zugeordnet, wenn Agenten jederzeit ganze Abschnitte umschreiben? Halluzinationen moderner Modelle sind seltener geworden, aber keineswegs verschwunden.
In einem Unternehmenskontext ist der Einsatz noch fragwürdiger: Es gibt weder Eigentums‑ noch Berechtigungskonzepte oder Freigabeprozesse. Ich persönlich würde eine „Wiki‑Kultur“, in der jede und jeder alles sehen und bearbeiten darf, sehr begrüßen – doch in der Praxis ist das in den meisten Organisationen unrealistisch.
KI kann unterstützen, aber keine Verantwortung ersetzen
Der jüngste Hype um “OpenClaw” macht eine ähnliche Dynamik deutlich. OpenClaw verspricht einen persönlichen Assistenten, der E‑Mails, Dateien und Arbeitsabläufe über alle genutzten Kommunikationsplattformen hinweg verwaltet. Für technisch versierte Nutzer, die Zeit investieren, um den Agenten abzusichern, Berechtigungen zu beschränken und Fremdmodule zu prüfen, funktioniert das gut. Die meisten Anwender tun dies jedoch nicht. Das Ergebnis: Zehntausende falsch konfigurierte Instanzen, die dem Internet schutzlos ausgesetzt waren, ein mit bösartigen Plugins überfluteter Marktplatz für Erweiterungen und schwerwiegende Sicherheitslücken, die vollständige Übernahmen ganzer Agenten durch den Besuch einer einzigen Website ermöglichten.
Ich befürchte, bei LLM‑Wikis könnte sich ein ähnliches Muster zeigen: Solche Systeme versprechen, die mühsamen Aspekte einer Aufgabe zu beseitigen, doch genau diese Mühe ist es, die das Ergebnis erst nützlich macht. Fehlt die fachkundige Aufsicht, entsteht kein Zauber, sondern Chaos. Schwieriger aufzuräumen als der ursprüngliche Zustand.
Ich denke, es gibt viele interessante Aspekte in Karpathys Konzept, und ich bin überzeugt, dass wir viele davon in zukünftigen Wikis wiederfinden werden. Dennoch glaube ich nicht, dass es auf magische Weise das “Problem” lösen wird, dass Wissensmanagement Arbeit bedeutet. Wikis gedeihen oder scheitern mit den Menschen, die sich beteiligen und die darin gespeicherten Informationen zu Wissen formen. KI‑Agenten können dabei sehr hilfreich sein, aber sie können und sollten nicht für Sie denken.
Abonnieren Sie unseren Newsletter
Bleiben Sie auf dem Laufenden und erhalten Sie regelmäßig Neuigkeiten zu unseren Projekten und Leistungen.