Файл robots.txt — это один из важнейших элементов настройки сайта для поисковых систем. Он управляет индексацией страниц и помогает избежать попадания в индекс нежелательных разделов сайта. В WordPress по умолчанию файл robots.txt обычно виртуальный, то есть генерируется динамически, что накладывает ограничения на его кастомизацию. В этой статье разберемся, как создать уникальный, кастомный файл robots.txt в WordPress, учитывая особенности CMS, и рассмотрим примеры кода и практические советы.
Зачем нужен уникальный файл robots.txt в WordPress
Стандартный виртуальный файл robots.txt WordPress задает базовые правила для поисковых систем, но он не учитывает особенности конкретного сайта, например, наличие закрытых разделов, страниц с параметрами, мультиязычность и прочее. Поэтому создавая уникальный файл, вы сможете:
- Четко ограничить индексацию страниц, которые не должны попадать в поисковую выдачу.
- Оптимизировать бюджет сканирования, чтобы поисковики тратили время на важный контент.
- Управлять индексацией мультиязычных версий или пользовательских директорий.
- Улучшить SEO сайта, избегая дублированного контента.
Для сайтов на WordPress с темой Hueman, где часто используются сложные кастомные посты и таксономии, важно контролировать, что именно индексируется.
Как WordPress обрабатывает файл robots.txt
По умолчанию при обращении к https://example.com/robots.txt запрос обрабатывается динамически через rewrite в WordPress, а не через физический файл. Это значит, что редактировать файл напрямую на сервере неэффективно, если у вас нет доступа к корню сайта или вы хотите динамически менять правила.
Чтобы создать собственный физический файл robots.txt, достаточно положить его в корень сайта. При этом WordPress отдаст именно его, игнорируя виртуальный.
Но если нужна динамическая генерация, например, учитывающая настройки из админки, придется использовать фильтр robots_txt.
Создание физического файла robots.txt на сервере
Самый простой путь — создать файл robots.txt в корневой папке сайта с нужным содержимым. Пример базового файла:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Allow: /wp-admin/admin-ajax.php
Sitemap: https://hueman.ru/sitemap_index.xml
Пояснения:
Disallow: /wp-admin/— запрещаем индексировать административные страницы.Allow: /wp-admin/admin-ajax.php— разрешаем AJAX запросы.Sitemap— указываем путь к карте сайта, чтобы ускорить индексацию.
После создания файла проверьте его доступность в браузере по адресу https://hueman.ru/robots.txt.
Динамическая генерация robots.txt через фильтр WordPress
Если нужен более гибкий и программный подход, например, для изменения правил в зависимости от настроек или условий, можно использовать фильтр robots_txt. Вот пример функции для темы Hueman:
function hueman_generate_robots_txt( $output, $public ) {
$output = "User-agent: *\n";
$output .= "Disallow: /wp-admin/\n";
$output .= "Disallow: /wp-login.php\n";
$output .= "Allow: /wp-admin/admin-ajax.php\n";
// Дополнительные запреты
$output .= "Disallow: /private-section/\n";
// Динамическое добавление карты сайта
$output .= "Sitemap: " . home_url( '/sitemap_index.xml' ) . "\n";
return $output;
}
add_filter( 'robots_txt', 'hueman_generate_robots_txt', 10, 2 );Здесь мы полностью переопределяем содержимое файла robots.txt и можем добавить любые правила, включая закрытие пользовательских директорий, например, /private-section/.
Пример с условием для мобильных ботов
Иногда нужно по-разному настраивать правила для разных user-agent. Например, разрешить индексировать для Googlebot Mobile, но закрыть для других.
function hueman_robots_txt_mobile( $output, $public ) {
$output = "User-agent: Googlebot-Mobile\n";
$output .= "Disallow:\n"; // Разрешаем все
$output .= "\nUser-agent: *\n";
$output .= "Disallow: /private/\n";
return $output;
}
add_filter( 'robots_txt', 'hueman_robots_txt_mobile', 10, 2 );Использование плагинов для удобного управления robots.txt
Если не хочется писать код, можно использовать плагины, которые облегчают создание и управление файлом robots.txt прямо из админки WordPress:
- Virtual Robots.txt — позволяет редактировать виртуальный файл, не трогая сервер.
- Yoast SEO — в настройках плагина можно менять файл
robots.txt. - Clearfy Pro — расширенный плагин оптимизации, который также имеет опции для управления
robots.txtи другими SEO-настройками.
Использование плагинов особенно удобно, если у вас нет доступа к корневым файлам сайта.
Советы по созданию эффективного robots.txt для сайта на WordPress
При создании файла robots.txt учитывайте следующие рекомендации:
- Не блокируйте CSS и JS — поисковики должны видеть стили и скрипты, иначе оценка сайта ухудшится.
- Закрывайте админку и страницы входа —
/wp-admin/,/wp-login.phpне нужно индексировать. - Добавляйте ссылку на sitemap — это ускорит индексацию.
- Проверяйте файл через Google Search Console — там есть инструмент тестирования
robots.txt. - Не блокируйте важные страницы, чтобы не потерять трафик.
Для сайтов с темой Hueman, где дизайн и структура гибко настраиваются, контроль за индексируемыми разделами особенно важен.
Заключение
Создание уникального файла robots.txt в WordPress — важный шаг к эффективному SEO и управлению видимостью сайта. Можно выбрать простой путь с физическим файлом или использовать динамическую генерацию через фильтры WordPress. Плагины помогут упростить задачу, если хотите управлять настройками через админку.
Для более глубокого SEO и оптимизации рекомендуем ознакомиться с плагином Clearfy Pro, который предлагает множество инструментов для тонкой настройки сайта, включая управление robots.txt.