Problem
Entwickler verlassen sich zunehmend auf KI-Coding-Assistenten (wie Cursor, GitHub Copilot und ChatGPT), um Dokumentationen für sie zu lesen und zu interpretieren. Wenn Ihre Dokumentation nur über einen Webbrowser zugänglich ist und mit Navigationselementen, Trackern und komplexem HTML überladen ist, verbrauchen KI-Agenten unnötig viele Token für irrelevante Daten, was ihre Kontextfenster schnell erschöpft.
Warum es wichtig ist
Die Bereitstellung einer sauberen, Token-optimierten Textversion Ihrer Dokumentation ist das moderne Äquivalent zur Bereitstellung einer hochwertigen REST-API. Sie stellt sicher, dass KI-Agenten Ihren gesamten Dokumentationssatz schnell aufnehmen können, was zu genaueren Code-Vorschlägen und einem besseren Support für Entwickler führt, die Ihr Produkt nutzen.
Ansatz
Nutzen Sie das integrierte LLMs-Plugin von docmd. Dieses Plugin implementiert nativ den aufkommenden llms.txt-Standard und generiert bei jedem Build-Prozess automatisch Token-optimierte Zusammenfassungen und Vollkontext-Dateien.
Implementierung
Das llms-Plugin ist in docmd >= 0.7.0 verfügbar und kann in Ihrer Plugin-Konfiguration konfiguriert werden.
1. Konfiguration der Website-URL
Stellen Sie sicher, dass die Eigenschaft url in Ihrer docmd.config.js korrekt gesetzt ist. Dies ermöglicht es dem Plugin, absolute URLs für alle Seiten in der Datei llms.txt zu generieren.
// docmd.config.js
export default {
title: 'Mein Projekt Docs',
url: 'https://docs.example.com',
plugins: ['llms']
};
2. Ausgabedateien
Während des Build-Prozesses generiert docmd zwei wichtige Dateien im Root-Verzeichnis Ihrer Website:
llms.txt: Eine prägnante, strukturierte Markdown-Zusammenfassung aller Ihrer Seiten, einschließlich ihrer Titel, Beschreibungen und vollständigen URLs.llms-full.txt: Eine umfassende Datei, die den rohen Markdown-Inhalt Ihrer gesamten Website enthält, zusammengeführt durch Standard-Trenner (---). Dies bietet die ultimative “Source of Truth” für KI-Modelle.
3. Steuerung der Verarbeitung
Sie können bestimmte Seiten von der KI-bereiten Ausgabe ausschließen, indem Sie die Eigenschaft llms im Seiten-Frontmatter verwenden.
---
title: "Interner Debugging-Leitfaden"
llms: false
---
Abwägungen
Die Generierung von llms-full.txt erzeugt eine einzige, sehr große Datei. Bei außergewöhnlich umfangreichen Dokumentations-Websites kann diese Datei mehrere Megabyte groß werden. Während dies ideal für moderne LLMs mit großen Kontextfenstern (wie Gemini 1.5 Pro oder Claude 3.5 Sonnet) ist, kann sie für kleinere Modelle zu groß sein. Stellen Sie sicher, dass Sie Ihre Navigation logisch strukturieren, damit die KI die wichtigsten Abschnitte priorisieren kann.