• Сайт заблокирован по IP для России. Но вписывая в поисковик гугл, он его находит и предлогает перевести. И тогда открывается полностью весь контент с сайта. Как запретить, исправить это, чтобы гугл не находил сайт и не предлогал его перевести?

Просмотр 10 ответов — с 1 по 10 (всего 10)
  • вы хотите выкинуть свой сайт из индекса гугла?
    я правильно понял?

    Да, правильно.
    Вообще не только из гугла, так же и из других поисковых систем. Но в приоритете гугл.

    ну и закройте в robots.txt доступ.
    еще в wordpress можно галочку поставить «Попросить поисковые системы не индексировать сайт» в настройках\чтение.

    Это всё уже сделано, поисковики всё равно находят.
    Код написан так:

    User-agent: *
    Disallow: /

    robots.txt находятся в корневом каталоге и домашней директории ( надеюсь я правильно их понимаю и не путаю) То есть, куда делаются бэкапы сайта, где я через www или public_html перехожу в домашнюю папку сайта. И второй файл robots.txt там где папки wp-content wp-admin где файл index.php .htacess.

    Галочка тоже стоит.

    Не помогает

    переводить сайт гугл будет в любом случае — если пользователь ему ссылку даст. это с индексацией не связано никак.

    А как гугл переводчик может переводить закрытый контент ? Человек если с IP, который заблокирован, может видить через переводчик закрытый сайт.
    И в поисковке ввожу адрес своего сайта и он его находят — это является индексацией ?
    Есть возможность с помощью мета кодов заблокировать ? Читала про мета коды, но не знаю в правильный ли я в файл(general-template.php) вставила.
    Но нашла в том файле строку :

    echo «<meta name=’robots’ content=’noindex,follow’ />\n»;

    Исправила вместо follow написала nofollow

    Но опять без результатно.

    во-первых, индексация не моментальная — ваши запреты гугл будет постепенно понимать. то есть не ждите, что гугл сразу же выплюнет из индекса ваш сайт.

    а во-вторых, переводчик гугла многие используют для обхода блокировки по ip — тут вы ничего сделать не можете, с индексацией это не связано.

    ну и закройте в robots.txt доступ.

    Доступ в робосте не закрывается. Совсем не закрывается ;). Роботс — это рекомендация ПСам не индексировать. На деле же — это их дело. И тот же гугл индексит. Только не всегда в выдачу выдаёт. Др. роботы тоже шастают по всем страницам сайтов. См логи.

    Наиболее надёжно — отдавать 404, 503 и тп.

    mila900, объясните, для чего Вам сайт, которого не должно быть в ПС. И для кого?

    SeVlad, для себя.

    Да, я читала, что ПС не реагируют на robots, а особенно гугл.

    Расскажите подробнее о 404, 503 и тп.

    Расскажите подробнее о 404, 503 и тп.

    http://www.bertal.ru/help.php?ex=1

    для себя.

    Тогда всё просто.
    Закрываете доступ с пом ПУ хостера или хтацесса. Гуглите «базовая авторизация» и/или «доступ только со своего IP». Это что бы понять что к чему.
    Или же просто ставите и включаете любой (но актуальный!) maintenance-плагин.
    После чего на главной странице вышеуказанного сервиса проверяете ответ сервера. Должен быть 503. Ну во всяком случае не 200. Неск. внутренних страниц тоже проверяйте.

    Или же вообще шикарный вариант — сайт заводите на несуществующем домене (и платить за него не нужно :)) и прописываете его в хостс.

Просмотр 10 ответов — с 1 по 10 (всего 10)
  • Тема «индексация, защита сайта» закрыта для новых ответов.