Ответы в темах

Просмотр 15 ответов — с 256 по 270 (всего 306)
  • Юрий,
    К сожалению, сообщения «хост … заблокирован … из-заслишком много попыток входа» продолжают поступать, правда в последнее время (возможно после вставки рекомендованного вами кода) были и сообщения «хост … заблокирован … из-заслишком много попыток не существующий открыть файл«. Сейчас код выглядит следующим образом:
    ваш код

    Order deny,allow
    Deny from all
    Allow from #мой IP#
    <files admin-ajax.php>
    Allow from all
    </files>

    прежний код, который я не стал удалять (как я понимаю, он вашему не противоречит)

    <files .htaccess>
    Order allow,deny
    Deny from all
    </files>
    
    <files readme.html>
    Order allow,deny
    Deny from all
    </files>
    
    <files readme.txt>
    Order allow,deny
    Deny from all
    </files>
    
    <files install.php>
    Order allow,deny
    Deny from all
    </files>
    
    <files wp-config.php>
    Order allow,deny
    Deny from all
    </files>

    Что-нибудь еще можно сделать без ущерба работе и индексации сайта, чтобы при попытке обращения к административным файлам выдавалась ошибка и нагрузка на сайт была минимальна?

    Yui, Юрий, спасибо. Рискну прописать предложенный Юрием код.

    Затрудняюсь сказать. Системные файлы — это мое выражение, возможно он говорил именно об админке. А этот код не нарушит работу поисковых роботов, сбор статистики и т.д.? Меня смущает то соображение, что будь это безусловно полезно, то скорее всего соответствующую настройку предусмотрели бы в плагинах безопасности.

    Нашел — надо отключить Filter Non-English Characters. Причем он блокирует неадминам поиск любых символов, в том числе латинских.

    Ясно, спасибо. Yui, не посмотрите заодно эту тему, если нетрудно?

    Дело в том, что я не менял тему, а только запустил обновление. Мне и в голову не приходило, что это приводит к удалению моих скриптов.

    Спасибо за пояснение.

    Yui, как думаете — новые ошибки могут возникать если все исправлено? Уже как неделю назад:
    1. при помощи плагина сделал транслит меток (две недели назад)
    2. при помощи плагина сделал ЧПУ
    3. создал карту сайта xml
    4. создал robots.txt

    Но свежие ошибки в виде URL с запросами по меткам все равно появляются, при этом очередное, 3-е по счету сообщение об ошибке (Increase in authorization permission errors) появилось вчера. Это нормально, надо ждать, или что-то в моем WP настроено не так?

    Я только сегодня и только по одному сайту получил (и продолжаю получать) несколько сотен Site Lockout Notification. Сейчас приходят каждые несколько секунд.

    Еще раз большое спасибо, Yui. Прошу прощения за оффтоп.

    Чем больше узнаешь, тем больше вопросов ((

    Yui, не подскажете еще:
    1) Почему мои ftp-клиенты и даже панель адинистратора на сайте хостера не видят robots.txt (хотя в настройках включен показ скрытых файлов)? Ссылка «сайт/robots.txt» его открывает без проблем.

    2) В robots.txt после установки и настройки плагина Google XML Sitemaps отображается только один линк на Sitemap:
    Sitemap: http://сайт/sitemap.xml.gz

    При этом через ftp-клиент я вижу и sitemap.xml тоже. Если я доберусь до robots.txt, мне надо будет добавить
    Sitemap: http://сайт/sitemap.xml ?

    Спасибо!

    Большое спасибо за все Ваши пояснения, Yui.

    Большое спасибо за пояснения, Yui. Если можно еще 3 вопроса:

    1) Где эта база данных хранится, почему я не вижу никаких (кроме папки со статистикой) файлов/папок с датой добавления последней записи?

    2) Насколько для WordPress полезен sitemap? Меня смутило в описании одного плагина, что там надо прописывать рекомендуемую частоту индексации (насколько я понял, чаще чем «ежедневно» выбрать нельзя), а кроме того я не знаю, что включать в содержание карты сайта (чем, например, архивы отличаются от статей). Можно ли там напортачить с настройками так, что станет только хуже?

    3) Какой плагин порекомендуете по sitemap, особенно для Яндекса (понимаю, что sitemap для всех, но может некоторые настройки особо дружат с Яндексом)? У меня один сайт забанен Яндексом (почему платоны не знают), при этом Google его индексирует иногда уже спустя несколько минут. Хочу попробовать оптимизировать его при помощи robots.txt и sitemap, но не хотел бы навредить индексации гуглом. Кстати, может лучше, во избежание такого риска, и в robots.txt ваши настройки прописать только для Яндекса?

    Понял, спасибо. А по поводу тех URL с ошибками (запросы по кириллическим меткам), которым посвящена тема, больше ничего предпринимать не надо? Под реиндексацией вы подразумевали автоматическую реиндексацию поисковика, или надо самому предпринять какие-то действия?

    Еще вопрос: почему после перевода ссылок в ЧПУ, продолжают действовать старые ссылки (в прежнем формате, по номерам страниц) на других ресурсах? Я читал на сайтах, посвященных ЧПУ, что это одна из проблем, с которой сталкиваются сайты — вся прежняя индексация в поисковиках нарушается. Не то чтобы я этим недоволен — просто непонятно. Или в поисковиках это будет как-то иначе?

Просмотр 15 ответов — с 256 по 270 (всего 306)