/llms.txt lub /llms-full.txt dla dowolnej domeny.sitemap.xml i najważniejsze podstrony.
Prywatne lub dynamiczne treści mogą nie zostać uwzględnione.
llms.txt to prosty plik w formacie Markdown umieszczany w katalogu głównym witryny (np. /llms.txt). Zawiera skondensowany przewodnik po najważniejszych zasobach: dokumentacji, cennikach, artykułach pomocy, API, wersjach językowych czy linkach kanonicznych. Zamiast pozwalać modelom błądzić po całym serwisie, dajesz im skrót do najbardziej wiarygodnych treści.
Nasz generator automatyzuje ten proces: skanuje witrynę, proponuje strukturę zgodną ze specyfikacją, pisze zwięzłe opisy i dba o aktualność. W kilka minut tworzysz czytelną mapę treści dla asystentów AI, bez kodowania i ręcznego porządkowania linków.
Zamiast przypadkowego scrapingu dostarczasz kuratorowaną mapę treści, która skłania narzędzia do korzystania z wersji „źródłowych". Dla Ciebie to: mniej rozbieżności w odpowiedziach AI, krótsza ścieżka dla użytkowników i lepsza kontrola nad tym, jak opisywana jest oferta. Dla modeli – mniejszy koszt „odkrywania" i jasne wskazówki, gdzie szukać.
Nasz generator działa z samymi stronami i rozbudowanymi portalami — od landingów po wielojęzyczne centra pomocy. Zadbaliśmy o detale: automatyczne wykrywanie języków i regionów, grupowanie linków w logiczne bloki, walidację linków i ostrzeganie o duplikatach. Dzięki temu llms.txt staje się praktycznym „przewodnikiem dla modeli", a nie kolejnym plikiem konfiguracyjnym, o którym szybko się zapomina.
To proponowany standard: krótki plik Markdown w katalogu głównym (np. example.com/llms.txt), który podaje modelom AI kuratorowaną listę najważniejszych zasobów Twojej witryny wraz z krótkimi opisami. Ułatwia to modelom „zrozumienie" struktury i odnalezienie treści referencyjnych
Nie. robots.txt steruje dostępem do strony dla botów internetowych, a sitemap.xml jest mapą wszystkich adresów. llms.txt pełni inną rolę: to skrót do najważniejszych stron, które mają być używane jako źródła. Nie służy do blokowania dostępu.
Specyfikacja sugeruje:
llms.txt to indeks z linkami + opisy; llms-full.txt może zawierać szersze streszczenia lub pełne treści w jednym pliku, co bywa wygodne, ale może być cięższe kontekstowo.
W katalogu głównym domeny (root), najlepiej jako czyste text/plain dostępne pod /llms.txt. Wiele narzędzi i dokumentacji zakłada właśnie tę lokalizację.
To wciąż propozycja/emerging standard, rosnąca w adopcji (m.in. narzędzia doc-as-code i platformy hostingowe zaczęły wspierać automatyczną generację), ale nie gwarantuje „pozycji w AI-odpowiedziach". Traktuj to jako niskokosztową praktykę, która ułatwia modelom znalezienie „oficjalnych" źródeł.
Pobiera mapę strony/kluczowe ścieżki, tworzy sekcje wg specyfikacji, generuje zwięzłe opisy, waliduje linki i sprawdza duplikaty. Na końcu zapisuje poprawny Markdown gotowy do publikacji.
Tak. Dodasz strony ręcznie, oznaczysz priorytety i podasz krótkie opisy. To dobry tryb dla serwisów zamkniętych lub z ograniczonym crawlem.
W pliku warto dodać osobne sekcje dla języków/regionów i linkować do wersji kanonicznych (np. /pl/…, /en/…). Część narzędzi (np. generatory dokumentacji) automatyzuje aktualizację llms.txt przy każdej publikacji.
Bezpośrednio – nie ma takiego oficjalnego sygnału. Pośrednio – lepiej kuratorowane treści mogą zmniejszyć liczbę błędnych cytatów w odpowiedziach narzędzi AI i ułatwić użytkownikom dotarcie do właściwych stron.
Zawsze po większej zmianie w strukturze lub publikacji kluczowych stron. W wersji Pro ustawisz harmonogram i webhook do CI/CD, aby aktualizacja była automatyczna.