Описание
Virtual Robots.txt is an easy (i.e. automated) solution to creating and managing a robots.txt file for your site. Instead of mucking about with FTP, files, permissions ..etc, just upload and activate the plugin and you’re done.
По умолчанию, плагин Virtual Robots разрешает доступ только к тем частям WP, к которым нужны хорошие боты, такие как Google или Яндекс. Всё остальное заблокировано.
Если плагин находит существующую карту сайта в формате XML, ссылка на него автоматически добавиться в ваш robots.txt.
Установка
- Загрузите папку pc-robotstxt в папку
/wp-content/plugins/
- Активируйте плагин через меню «Плагины» в WordPress.
- После того, как вы установили и активировали плагин, вы увидите новую ссылку Robots.txt под меню настроек WP. Нажмите эту ссылку, чтобы увидеть настройки плагина. Оттуда вы можете редактировать содержимое вашего robots.txt.
Часто задаваемые вопросы
-
Будет ли он конфликтовать с существующим robots.txt?
-
Если на сайте есть реально существующий robots.txt, WP не будет обрабатывать в нём что-либо, поэтому конфликта не будет 🙂
-
Будет ли работать это в инсталляциях WP, которые установлены в подпапках?
-
Из коробки? Нет. Поскольку WP находится в подпапке, он не «узнает», когда кто-то запрашивает файл robots.txt, который должен находиться в корне сайта.
-
Изменяет ли этот плагин отдельные посты, страницы или категории?
-
Нет, это не так!
-
Почему плагин по умолчанию блокирует определённые файлы и папки?
-
По умолчанию, виртуальный robots.txt настроен на блокировку содержимого движка WordPress, к которым не требуется доступ поисковым системам. Конечно, если вам не подходят значения по умолчанию или вы хотите добавить свои, вы можете легко их поменять.
Отзывы
Участники и разработчики
«Virtual Robots.txt» — проект с открытым исходным кодом. В развитие плагина внесли свой вклад следующие участники:
Участники«Virtual Robots.txt» переведён на 1 язык. Благодарим переводчиков за их работу.
Перевести «Virtual Robots.txt» на ваш язык.
Заинтересованы в разработке?
Посмотрите код, проверьте SVN репозиторий, или подпишитесь на журнал разработки по RSS.
Журнал изменений
1.10
- Fix to prevent the saving of HTML tags within the robots.txt form field. Thanks to TrustWave for identifying this issue.
1.9
- Fix for PHP 7. Thanks to SharmPRO.
1.8
- Undoing last fixes as they had unintended side-effects.
1.7
- Further fixes to issue with newlines being removed. Thanks to FAMC for reporting and for providing the code fix.
- After upgrading, visit and re-save your settings and confirm they look correct.
1.6
- Fixed bug where newlines were being removed. Thanks to FAMC for reporting.
1.5
- Fixed bug where plugin assumed robots.txt would be at http when it may reside at https. Thanks to jeffmcneill for reporting.
1.4
- Fixed bug for link to robots.txt that didn’t adjust for sub-folder installations of WordPress.
- Updated default robots.txt directives to match latest practices for WordPress.
- Plugin development and support transferred to Marios Alexandrou.
1.3
- Now uses do_robots hook and checks for is_robots() in plugin action.
1.2
- Added support for existing sitemap.xml.gz file.
1.1
- Added link to settings page, option to delete settings.
1.0
- Первая версия.