Uptime: 99.981%
Strony WWW:
Nowe strony WWW dzisiaj:
100 000 Użytkowników w SEOHOST. To dzięki Wam! Czytaj więcej W SEOHOST Użytkownik jest zawsze na pierwszym miejscu! Czytaj więcej Z SEOHOST korzysta już ponad 90 000 Użytkowników! Czytaj więcej Pełna transparencja: uptime naszej infrastruktury Czytaj więcej Wywiad z naszym CEO na bezprawnik.pl Czytaj więcej SEOHOST.pl zdobywa 2 miejsce w rankingu NASK. Czytaj więcej Uwaga: kolejna próba phishingu! Czytaj więcej Dlaczego warto migrować do SEOHOST? Czytaj więcej
Redakcja SEOHOST.pl
Redakcja SEOHOST.pl
17 Stycznia 2026
3 minuty

Konfiguracja robots.txt w WordPress – jak uniknąć błędów SEO?

W systemie WordPress plik robots.txt jest generowany dynamicznie (wirtualnie). Kluczowa zasada konfiguracji: nie należy blokować katalogów /wp-content/ oraz /wp-includes/. Nowoczesne roboty indeksujące (Googlebot) wymagają dostępu do plików CSS i JS, aby poprawnie renderować witrynę. Błędna konfiguracja może skutkować wyindeksowaniem strony lub drastycznym spadkiem widoczności.

Znaczenie pliku robots.txt dla pozycjonowania w CMS WordPress

Plik robots.txt jest pierwszym dokumentem, o który pyta każdy bot (Googlebot, Bingbot, GPTBot) przy próbie dostępu do witryny. W ekosystemie WordPress pełni on rolę regulatora ruchu, decydując, które zasoby serwera są udostępniane do indeksowania.

Jego poprawna konfiguracja jest krytyczna dla dwóch aspektów technicznego SEO:

  1. Crawl Budget (Budżet indeksowania): Optymalizacja zasobów serwera poprzez blokowanie dostępu botów do sekcji nieistotnych (np. panele administracyjne, duplikaty treści).
  2. Rendering strony: Umożliwienie botom pełnego "zobaczenia" witryny w sposób tożsamy z przeglądarką użytkownika.

Dlaczego nie blokować wp-content i wp-includes? 

W starszych poradnikach SEO często sugerowano blokadę katalogów systemowych w celu oszczędności zasobów. W 2026 roku jest to błąd krytyczny.

1. Katalog /wp-content/ a Mobile First Indexing

Katalog ten zawiera zasoby odpowiedzialne za warstwę wizualną i funkcjonalną: motywy (themes), wtyczki (plugins) oraz media (uploads).

  • Problem techniczny: Zablokowanie dostępu (dyrektywa Disallow: /wp-content/) uniemożliwia robotom pobranie arkuszy stylów (CSS) i skryptów JavaScript.
  • Konsekwencje SEO: Googlebot renderuje stronę jako "czysty" HTML bez stylów. Algorytmy klasyfikują taką witrynę jako nieprzyjazną dla urządzeń mobilnych (brak responsywności), co bezpośrednio obniża ranking w wynikach wyszukiwania (SERP).

2. Katalog /wp-includes/ a stabilność renderowania

Ten katalog zawiera rdzenne biblioteki WordPressa (np. jQuery). Ich zablokowanie może powodować błędy w konsoli renderowania Google Search Console, interpretowane przez algorytm jako uszkodzenie witryny.

Rekomendacja: Należy bezwzględnie dopuścić indeksowanie tych zasobów lub stosować precyzyjne wykluczenia tylko dla konkretnych, niepublicznych podkatalogów.

Automatyzacja vs edycja ręczna – jak działa robots.txt w WordPress?

W zgłoszeniach serwisowych często powraca pytanie: "Czy muszę tworzyć ten plik ręcznie?". Odpowiedź brzmi: Nie, WordPress generuje go automatycznie.

Domyślnie CMS tworzy wirtualny plik robots.txt, który nie istnieje fizycznie w strukturze plików na serwerze (nie jest widoczny przez klienta FTP w katalogu public_html). Jest on generowany dynamicznie w momencie wywołania adresu URL (np. domena.pl/robots.txt).

Kiedy należy nadpisać domyślny plik? Edycja jest zalecana w przypadkach zaawansowanej optymalizacji, gdy chcemy:

  • Zablokować boty AI (np. GPTBot, CCBot) przed trenowaniem modeli na naszych treściach.
  • Wykluczyć parametryczne adresy URL (np. wyniki wyszukiwania wewnętrznego), które generują tzw. Thin Content.
  • Wskazać niestandardową lokalizację mapy witryny (Sitemap XML).

Rekomendowana konfiguracja robots.txt

Poniższa konfiguracja uwzględnia blokadę sekcji administracyjnych przy jednoczesnym zachowaniu dostępu do skryptów niezbędnych dla front-endu (AJAX).

User-agent: *
# Blokada panelu administracyjnego
Disallow: /wp-admin/
# Wyjątek dla mechanizmów AJAX (niezbędne dla wielu wtyczek)
Allow: /wp-admin/admin-ajax.php

# Blokada stron technicznych i duplikatów
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php

# Blokada wewnętrznych wyników wyszukiwania (ochrona Crawl Budget)
Disallow: /?s=
Disallow: /search/

# Jawne wskazanie mapy witryny
Sitemap: https://twojadomena.pl/sitemap_index.xml

Konfiguracja robots.txt w WordPress: podsumowanie

Plik robots.txt w WordPress nie wymaga ręcznego tworzenia na start, ale jego świadoma edycja jest elementem zaawansowanej optymalizacji technicznej. Najważniejszym wnioskiem dla administratorów jest zachowanie pełnej dostępności katalogów /wp-content/ i /wp-includes/. Ograniczenie dostępu do tych zasobów jest w obecnych standardach Google błędem uniemożliwiającym poprawne pozycjonowanie witryny.

W kolejnym artykule omówimy techniczną implementację powyższych reguł z wykorzystaniem wtyczki Yoast SEO oraz metody bezpośredniej edycji plików na serwerze.

Czy udało Ci się rozwiązać problem?
Nie znalazłeś odpowiedzi na swoje pytanie?