Поддержка Проблемы и решения Синтаксическая ошибка функции Как исправить?

  • Решено Anonymous User 16679948

    (@anonymized-16679948)


    Доброго времени суток, друзья! Столкнулся с такой проблемой в консоли гугл: «Проиндексировано, несмотря на блокировку в файле robots.txt»
    Не много покопавшись, в инете, понял, что нужно изменить роботс и как-то добавить мета тег robots (noindex).
    Нашел вот такую статью
    Обрадовался! Есть решение!))) НО фунция с синтаксической ошибкой оказалась(( Капец(

    Как ее вылечить?) Функции никогда не писал, мой уровень — скопировать и вставить.
    Эх, беда…

    • Тема изменена 4 года, 9 месяцев назад пользователем Anonymous User 16679948.
    • Тема изменена 4 года, 9 месяцев назад пользователем Yui.
Просмотр 15 ответов — с 16 по 30 (всего 33)
  • Автор Anonymous User 16679948

    (@anonymized-16679948)

    Спасибо. Тогда еще разок спрошу. Что нам делать?)))))) Ок, что мне делать?

    вот такая функция поможет:

    
    function noindex_rss() {
        if ( is_feed() ) {
            header( 'X-Robots-Tag: noindex, follow', true );
            header( 'HTTP/1.1 200 OK', true );
        }
    }
    add_action( 'template_redirect', 'noindex_rss', 999999 );
    
    Автор Anonymous User 16679948

    (@anonymized-16679948)

    Спасибо, преблагороднейший!) А можно тогда под шумок как-то впилить еще и /?s={search_term_string}
    Этот адрес тоже был в списке.

    для поиска:

    
    function set_noindex_meta_tag() {
        if( is_search() ) {
            echo '<meta name="robots" content="noindex,follow" />' . "\n";
        }
    }
    add_action('wp_head', 'set_noindex_meta_tag');
    

    но это только для поиска, а не для всех левых урлов со знаком ‘?’.

    Модератор Yuri

    (@yube)

    а теперь авторы ее под шумок из плагина выпилили — и гугл начал шерстить фиды, так как больше в заголовках нет noindex.

    Нет, коллега, боюсь, всё гораздо хуже. Заголовок Гуглю теперь тоже до фени, как и роботс. Вот ссылка из свежего письма «Проіндексовано, хоча заблоковано файлом robots.txt» http://blog.portal.kharkov.ua/2011/11/04/utc4/feed и по ней отдается заголовк X-Robots-Tag: noindex, follow

    Автор Anonymous User 16679948

    (@anonymized-16679948)

    А, просто две отдельные функции. Понял. Что бы я без вас делал?!))

    Автор Anonymous User 16679948

    (@anonymized-16679948)

    Да, забыл. Мне именно для поиска. В списке урлов были только Фиды и один это поиск и все. Спасибо.

    • Ответ изменён 4 года, 8 месяцев назад пользователем Anonymous User 16679948.
    Модератор Sergey Biryukov

    (@sergeybiryukov)

    Live and Learn

    а теперь авторы ее под шумок из плагина выпилили

    https://github.com/Yoast/wordpress-seo/pull/13143

    «Под шумок» — это про недокументированные изменения, а тут даже в новостях написали 🙂

    Google now indexes podcasts through the RSS feeds and displays these in the search results. Previously this was not yet the case, so the feeds in Yoast SEO were set to noindex. This caused podcasts and other feeds to be no indexed. As podcasts are getting more and more popular, you do want to be able to be found on Google as well and not just through mouth to mouth and through the podcast apps.

    «Yoast SEO 11.7: Are podcasts the new blogs?» [yoast.com]

    «Под шумок» — это про недокументированные изменения, а тут даже в новостях написали 🙂

    да у них каждую неделю новая версия плагина, не уследишь за новостями 🙁

    Автор Anonymous User 16679948

    (@anonymized-16679948)

    Флектор, забыл спросить. Очень похожая проблема зависла и прошлый раз… В этой же гугл консоли в разделе «Покрытие»(говорили, что не критично), постоянно висит ошибка сервера 5хх, а именно типа гугл не может получить доступ к ссылке. Например эта: https://myshar.com.ua/product/шарики-оскорбительные/?customize_changeset_uuid=a800a2c2-63e2-4a1d-ba0d-5b30cc0674b4&customize_autosaved=on

    Все дело в том, что это ссылка работает только для авторизированного на сайте пользователя, как он нашел эту ссылку — непонятно. Но он их находит постоянно. Капец просто. Как ему запретить «обнаруживать» ссылки такого типа?

    Модератор Yuri

    (@yube)

    как он нашел эту ссылку — непонятно.

    Очень даже понятно. gtag есть — гугль видит url. Впрочем, и без этого у него стопиццот способов узнать о существовании страницы, даже закрытой от всех, а не только от гостей.

    Автор Anonymous User 16679948

    (@anonymized-16679948)

    Ок. Как ему запретить «обнаруживать» ссылки такого типа?

    Очень похожая проблема зависла и прошлый раз…

    запретите в robots.txt ему туда ходить.
    запрет аля */?* — послушается гугл или нет я не знаю, но иначе никак.

    Автор Anonymous User 16679948

    (@anonymized-16679948)

    Нет.Пробовал. Где читал, что бот сначала обнаруживает ссылку (как например именно ту, что я писал), переходит на нее и только потом смотрит роботс

    Модератор Yuri

    (@yube)

    что бот сначала обнаруживает ссылку (как например именно ту, что я писал), переходит на нее и только потом смотрит роботс

    Там не один бот, а целя шобла 🙂 И robots.txt Гуглю уже не указ. Они сами признались.

    Запретить краулеру ходить можно только одним способом — забанить все IP Гугля. Вот только есть одна маленькая проблемка: никто снаружи Корпорации Добра таким списком не владеет.

Просмотр 15 ответов — с 16 по 30 (всего 33)
  • Тема «Синтаксическая ошибка функции Как исправить?» закрыта для новых ответов.