Поддержка Проблемы и решения Синтаксическая ошибка функции Как исправить?

  • Решено shevanvk7

    (@shevanvk7)


    Доброго времени суток, друзья! Столкнулся с такой проблемой в консоли гугл: «Проиндексировано, несмотря на блокировку в файле robots.txt»
    Не много покопавшись, в инете, понял, что нужно изменить роботс и как-то добавить мета тег robots (noindex).
    Нашел вот такую статью
    Обрадовался! Есть решение!))) НО фунция с синтаксической ошибкой оказалась(( Капец(

    Как ее вылечить?) Функции никогда не писал, мой уровень — скопировать и вставить.
    Эх, беда…

    • Тема изменена 3 нед., 4 дн. назад пользователем  shevanvk7.
    • Тема изменена 3 нед., 3 дн. назад пользователем  Yui.
Просмотр 15 ответов — с 16 по 30 (всего 33)
  • Спасибо. Тогда еще разок спрошу. Что нам делать?)))))) Ок, что мне делать?

    вот такая функция поможет:

    
    function noindex_rss() {
        if ( is_feed() ) {
            header( 'X-Robots-Tag: noindex, follow', true );
            header( 'HTTP/1.1 200 OK', true );
        }
    }
    add_action( 'template_redirect', 'noindex_rss', 999999 );
    

    Спасибо, преблагороднейший!) А можно тогда под шумок как-то впилить еще и /?s={search_term_string}
    Этот адрес тоже был в списке.

    для поиска:

    
    function set_noindex_meta_tag() {
        if( is_search() ) {
            echo '<meta name="robots" content="noindex,follow" />' . "\n";
        }
    }
    add_action('wp_head', 'set_noindex_meta_tag');
    

    но это только для поиска, а не для всех левых урлов со знаком ‘?’.

    Модератор Юрий

    (@yube)

    а теперь авторы ее под шумок из плагина выпилили — и гугл начал шерстить фиды, так как больше в заголовках нет noindex.

    Нет, коллега, боюсь, всё гораздо хуже. Заголовок Гуглю теперь тоже до фени, как и роботс. Вот ссылка из свежего письма «Проіндексовано, хоча заблоковано файлом robots.txt» http://blog.portal.kharkov.ua/2011/11/04/utc4/feed и по ней отдается заголовк X-Robots-Tag: noindex, follow

    А, просто две отдельные функции. Понял. Что бы я без вас делал?!))

    Да, забыл. Мне именно для поиска. В списке урлов были только Фиды и один это поиск и все. Спасибо.

    • Ответ изменён 3 нед., 3 дн. назад пользователем  shevanvk7.
    Модератор Sergey Biryukov

    (@sergeybiryukov)

    Live and Learn

    а теперь авторы ее под шумок из плагина выпилили

    https://github.com/Yoast/wordpress-seo/pull/13143

    «Под шумок» — это про недокументированные изменения, а тут даже в новостях написали 🙂

    Google now indexes podcasts through the RSS feeds and displays these in the search results. Previously this was not yet the case, so the feeds in Yoast SEO were set to noindex. This caused podcasts and other feeds to be no indexed. As podcasts are getting more and more popular, you do want to be able to be found on Google as well and not just through mouth to mouth and through the podcast apps.

    «Yoast SEO 11.7: Are podcasts the new blogs?» [yoast.com]

    «Под шумок» — это про недокументированные изменения, а тут даже в новостях написали 🙂

    да у них каждую неделю новая версия плагина, не уследишь за новостями 🙁

    Флектор, забыл спросить. Очень похожая проблема зависла и прошлый раз… В этой же гугл консоли в разделе «Покрытие»(говорили, что не критично), постоянно висит ошибка сервера 5хх, а именно типа гугл не может получить доступ к ссылке. Например эта: https://myshar.com.ua/product/шарики-оскорбительные/?customize_changeset_uuid=a800a2c2-63e2-4a1d-ba0d-5b30cc0674b4&customize_autosaved=on

    Все дело в том, что это ссылка работает только для авторизированного на сайте пользователя, как он нашел эту ссылку — непонятно. Но он их находит постоянно. Капец просто. Как ему запретить «обнаруживать» ссылки такого типа?

    Модератор Юрий

    (@yube)

    как он нашел эту ссылку — непонятно.

    Очень даже понятно. gtag есть — гугль видит url. Впрочем, и без этого у него стопиццот способов узнать о существовании страницы, даже закрытой от всех, а не только от гостей.

    Ок. Как ему запретить «обнаруживать» ссылки такого типа?

    Очень похожая проблема зависла и прошлый раз…

    запретите в robots.txt ему туда ходить.
    запрет аля */?* — послушается гугл или нет я не знаю, но иначе никак.

    Нет.Пробовал. Где читал, что бот сначала обнаруживает ссылку (как например именно ту, что я писал), переходит на нее и только потом смотрит роботс

    Модератор Юрий

    (@yube)

    что бот сначала обнаруживает ссылку (как например именно ту, что я писал), переходит на нее и только потом смотрит роботс

    Там не один бот, а целя шобла 🙂 И robots.txt Гуглю уже не указ. Они сами признались.

    Запретить краулеру ходить можно только одним способом — забанить все IP Гугля. Вот только есть одна маленькая проблемка: никто снаружи Корпорации Добра таким списком не владеет.

Просмотр 15 ответов — с 16 по 30 (всего 33)