• Решено KeicH2O

    (@alexkeich)


    Добрый день! В интернете все советуют в robots закрывать Disallow: /wp-content/cache.
    Заменил плагин Wp Super cache на Fastest Cache. далее обнаружил что гугол бот не может получить доступ к кешированным JS и CSS по ссылкам вида site ru/wp-content/cache/wpfc-minified/9htoifjx/e88jo.css, что логично.

    Вопрос, если я удалю Disallow: /wp-content/cache и открою доступ, не будут ли наблюдаться проблемы с ранжированием или дублями в поиске? Почему советую закрывать кеш?

Просмотр 2 ответов — с 1 по 2 (всего 2)
  • Модератор Yui

    (@fierevere)

    永子

    потому что там могут быть не только файлы минифицированных стилей,
    но и кеш, который отдается через mod_rewrite или средствами PHP,
    если он вдруг проиндексируется, у вас получится куча дублей страниц.

    Можете

    Allow: /wp-content/cache/wpfc-minified

    добавить

    Автор KeicH2O

    (@alexkeich)

    Спасибо большое.

Просмотр 2 ответов — с 1 по 2 (всего 2)
  • Тема «robots и cache» закрыта для новых ответов.