Помогите разобраться с robots.txt
-
Всем добрый день.
Вопрос в следующем, никак не могу разобраться, все говорят, что хорошо бы закрыть дублирующийся контент и предлагают варианты файла robots.txt. У меня настроены ЧПУ вида сайт/год/месяц/название, со всех «дублирующих» страниц идет обычная ЧПУ ссылка, без добавок т.е. откуда бы я не хотел попасть в статью адрес один и тот же, значит дублируется только анонс до тэга more, а не сами статьи? Или нет? Предложенные варианты robots закрывают страницы (page), категории, архивы, тэги. Вопрос, если поисковик не успел проиндексировать статью с главной страницы, то как он ее найдет тогда, все-таки что должно быть открыто? Что лучше? Я склоняюсь к архивам, но так, чтобы там только названия статей оставались без анонсов.
- Тема «Помогите разобраться с robots.txt» закрыта для новых ответов.