DokuWiki AI Chat

Verwenden Sie Large Language Models, um mit Ihrem Wiki-Inhalt zu interagieren.

Chatten Sie mit Ihrem Wiki!

Unser DokuWiki AI Chat-Plugin ist ein revolutionäres Tool, das Large Language Models (LLM) verwendet, um Ihr Wiki interaktiver zu gestalten. Stellen Sie Fragen, wie Sie es einem Kollegen gegenüber tun würden, und erhalten Sie sofort die Informationen, die Sie benötigen! Das Plugin verwendet eine vektorbasierte Ähnlichkeitssuche, um die richtigen Wiki-Seiten zu finden und relevante Kontextinformationen bei der Beantwortung von Nutzerfragen an das LLM weiterzugeben.

Das Plugin ist ein fantastisches Werkzeug, um die Nützlichkeit Ihres Wikis in Ihrer Organisation zu verbessern.

Machen Sie einfach den ersten Schritt in die neue Welt der Künstlichen Intelligenz.

AI Chat Plugin Dokumentation

Was sind Large Language Models?

Ein Large Language Model (LLM) ist eine Art von künstlicher Intelligenz, welche auf einer großen Menge von Textdaten trainiert wurde. Diese Modelle sind darauf ausgelegt, menschenähnlichen Text basierend auf den Eingaben zu generieren. Sie sind zu einer Vielzahl von Aufgaben fähig, wie das Beantworten von Fragen, das Schreiben von Essays, das Zusammenfassen von Texten, das Übersetzen von Sprachen und sogar das Generieren von Code.

Unser Plugin unterstützt Modelle von OpenAI, Anthropic, Mistral und Voyage und bietet eine breite Auswahl an Chatmodellen. Die Integration neuer Modellanbieter und Modelle ist dabei trivial und stellt sicher, dass das Plugin mit der sich entwickelnden KI-Landschaft auf dem neuesten Stand bleibt. Wir untersuchen auch die Verwendung von lokalen oder selbst gehosteten Modellen für Szenarien, in denen der Datenaustausch mit externen Anbietern nicht erwünscht ist.

OpenAI Mistral Anthropic VoyageAI Reka

Retrieval-Augmented Generation (RAG)

Um dem Sprachmodell den richtigen Kontext zu geben, also um sicherzustellen, dass es über Ihren spezifischen Wiki-Inhalt Bescheid weiß, muss das Plugin die relevantesten Wiki-Seiten für die jeweilige Abfrage auswählen. Dies geschieht mithilfe einer semantischen Vektorsuche.

Das Plugin verwaltet einen Index Ihres Wiki-Kontexts in Form von Vektoren. Durch den Vergleich der Distanz zwischen dem Abfragevektor und den Vektoren der Wiki-Seiten kann das Plugin die relevantesten Seiten identifizieren. Das Plugin ruft dann den Inhalt dieser Seiten ab und gibt ihn an das large Language Model weiter, um die Antwort zu generieren.

Das Plugin unterstützt verschiedene Vektorspeicher, darunter eine lokale SQLite-Datenbank, Pinecone, Chroma und Qdrant.

Wie können wir helfen?

Die Auswahl des richtigen Modells hängt von verschiedenen Faktoren ab, wie z.B. Geschwindigkeit, Argumentationsfähigkeiten, unterstützte Sprachen, Preisgestaltung und die Art Ihres Inhalts. Wir empfehlen, den Inhalt Ihres spezifischen Wikis und die typischen Fragen, die Benutzer stellen, zu testen, um die beste Modellmischung für Ihre Bedürfnisse zu ermitteln.

Wir helfen Ihnen gerne bei der Einrichtung und Konfiguration des Plugins. Wir können Sie auch bei der Auswahl des richtigen Modells und des Vektorspeichers für Ihr Wiki unterstützen und Tests gegen verschiedene Konfigurationen durchführen. Kontaktieren Sie uns, um loszulegen!

Andreas Gohr

Über CosmoCode haben Sie direkten Kontakt mit dem "Erfinder" von DokuWiki. Mehr geballtes DokuWiki-Wissen finden Sie nirgendwo sonst!

Nehmen Sie unverbindlich mit uns Kontakt auf. Wir beraten Sie gerne.