DB Robots.txt

Описание

Вы столкнулись с проблемой при создании и редактировании файла robots.txt на вашем сайте?

DB Robots.txt — это простой в использовании плагин для создания и настройки файла robots.txt, необходимого для SEO (поисковой оптимизации). Файл должен содержать правила для роботов-кроллеров поисковых систем, таких как Google, Bing, Yahoo!, Яндекс и т.д.

Плагин прекрасно работает как в том случае, если файл robots.txt никогда не создавался, так и в том случае, если он уже существует. После установки плагин создает оптимизированный файл robots.txt, который включает специальные правила, общие для веб-сайтов на WordPress. После этого вы можете продолжить дальнейшую настройку с учетом особенностей вашего веб-сайта, если это необходимо.

Если плагин обнаружит один или несколько файлов Sitemap XML, он добавит их в файл robots.txt.

FTP-доступы не требуются, не нужно писать код или редактировать файл, это делает управление настройками простым и удобным!

Скриншоты

  • Страница настроек.

  • Сообщение об ошибке, если невиртуальный файл robots.txt существует, и функционал, чтобы это исправить.

  • Сообщение, когда проблема решена.

Установка

  1. Загрузите папку bisteinoff-robots-txt в каталог /wp-content/plugins/
  2. Активируйте плагин через меню «Плагины» в WordPress
  3. Готово

Часто задаваемые вопросы

Будет ли конфликт с существующим файлом robots.txt?

Нет, не будет. Если файл robots.txt находится в корневой папке, он не будет заменен. На странице настроек появится соответствующее уведомление и вы найдете две опции: удалить или переименовать существующий файл robots.txt. Плагин обеспечивает такой функционал.

Могу ли я случайно заблокировать всех поисковых роботов?

После установки плагин будет отлично работать для всех поисковых роботов. Если вы не знаете, как делать более точные настройки для файла robots.txt, лучше оставить файл как есть или сначала прочитать соответствующее руководство, чтобы узнать больше о директивах, используемых в файле robots.txt.

Примечание: следующие директивы заблокируют соответствующих поисковых роботов:

Disallow:
Disallow: /
Disallow: *
Disallow: /*
Disallow: */

Вам следует использовать одну из этих директив только в том случае, если вы хотите, чтобы все страницы вашего сайта не были доступны для индексирования.

Где я могу прочитать актуальное руководство по robots.txt?

Отзывы

17.09.2023
As a SEO specialist, I can say that this plugin is indispensable in everyday work. with it, I can quickly generate the desired file without unnecessary labor.it is convenient that there are different blocks for entering information for different search engines, since often different indexing rules may be relevant for different search engines.
Посмотреть все 3 отзыва

Участники и разработчики

«DB Robots.txt» — проект с открытым исходным кодом. В развитие плагина внесли свой вклад следующие участники:

Участники

«DB Robots.txt» переведён на 3 языка. Благодарим переводчиков за их работу.

Перевести «DB Robots.txt» на ваш язык.

Заинтересованы в разработке?

Посмотрите код, проверьте SVN репозиторий, или подпишитесь на журнал разработки по RSS.

Журнал изменений

3.12

  • Совместим с WordPress 6.7
  • Переписан код с устаревшими и нерекомендуемыми функциями
  • Вопросы безопасности

3.11

  • Дизайн страницы настроек в админ панели

3.10

  • Пользовательские правила для WooCommerce, если этот плагин установлен и активирован
  • Исправление проблемы с амперсандом

3.9

  • Вопросы безопасности

3.8

  • Совместим с WordPress 6.5

3.7

  • Вопросы безопасности

3.6

  • Совместим с WordPress 6.3
  • Вопросы безопасности

3.5

  • Совместим с мультисайтами

3.4.2

  • Исправлены ошибки в функциях перевода плагина

3.4.1

  • Теперь переводы автоматически загружаются с https://translate.wordpress.org/projects/wp-plugins/db-robotstxt/ Если перевода на ваш язык нет, пожалуйста, помогите его сделать!

3.4

  • Совместим с GlotPress

3.3

  • Новые возможности для переименования или удаления существующего файла robots.txt

3.2

  • Новая возможность отключить правила для Yandex
  • Дизайн страницы настроек в админ панели

3.1

  • Новые базовые регулярные правила для Googlebot и Yandex
  • Теперь больше возможностей для управления файлом robots.txt: вы можете добавлять собственные правила для Googlebot, Yandex и других User-agent
  • Дополнительная информация о вашем robots.txt на странице настроек

3.0

  • Добавлена страница настроек в админ панели для пользовательских правил

2.3

  • Протестировано с WordPress 6.2.
  • Оптимизирован код
  • Добавлены директивы для новых типов изображений WebP, Avif

2.2

  • Скорректирована опция Sitemap

2.1

  • Протестировано с WordPress 5.5.
  • Добавлен wp-sitemap.xml

2.0

  • Протестировано с WordPress 5.0.
  • Устаревшая директива Host удалена, так как больше не поддерживается Яндексом.
  • Директивы robots.txt улучшены и актуализированы.
  • Добавлены директивы robots.txt, запрещающие индексирование дублирующихся страниц с метками UTM, Openstat, From, GCLID, YCLID, YMCLID

1.0

  • Первый релиз