Свой вопрос, я не туда написал ? Или это нормально, что так долго здесь отвечают ?
Модератор
Yui
(@fierevere)
永子
возможно, что просто никому не интересно
у каждой записи и страницы (товара итд) устанавливается мета-тег
link rel canonical, благодаря которому поисковики знают, какой адрес страницы является оригиналом, если она доступна по разным вариантам URL (а это нормально), в индекс попадают только канонические адреса.
Это абсолютно не нормально!!! Когда на версии всё работало стабильно, выпускают новую и к 5000 страницам индексируются ещё 5000 страниц со Знаком «?» у каждого поста. А потом поисковик начинает Выплёвывать страницы из индекса путая какая каноническая… и rel canonical не помогает… Просто понимаю вы мало проектов ведёте и с таким не сталкивались чтобы утверждать обратное.
Модератор
Yui
(@fierevere)
永子
если есть canonical, то поисковик их просто обходит, но не индексирует, вы не правы. Впрочем, если это у вас не так — то спрашивайте с поисковика. И не нужно переходить на личности, особенно в чужой теме (правила п2)
куда катиться интернет…уже пытаются найти грубость в свою сторону в каждом слове. Увы тут этого нет. И если вы на что то обиделись, то прошу прощения!
Посмотрел другие сайты в интернете, которые на WordPress, у них тоже самое. Если к их постам добавить знак вопроса, то данная страница также существует. YUi вы предлагаете на это не обращать внимание ? И никак эти дубли не закрывать от роботов ? И зачем вообще нужны эти дубли, очень бы хотелось узнать ?
Сейчас у меня создалось ощущение, что роботы яндекса несколько дней по находили эти дубли, которые раньше никогда не видели и резко снизили обход сайта.
Что-то видимо изменилось после обновления WordPress на версию 5.9.
Раньше новый пост яндексом добавлялся в течении 3-х дней в поиск. А сейчас идёт уже 11-ый день и ничего в поиск не добавляется.
Единственным логическим решением вижу в robots.txt прописать Disallow: *? или Disallow: /*?
Кто ещё так же считает господа?
Модератор
Yui
(@fierevere)
永子
так пропишите, кто ж вам не дает,
тут уже был подобный совет, правда автор комментария предлагал посмотреть не свой robots.txt а свой сайт, за что и был отправлен в спам
Yui подскажите пожалуйста как лучше сделать, какое действие будет самым правильным ? Как я уже говорил, что посмотрел другие сайты на WP, но в robots.txt почти никто не закрывает дубли со знаком «?». И если уж закрывать в robots.txt, то наверное правильным будет Disallow: /*?*, как думаете ?