StellaStan
Ответы в темах
-
Форум: Проблемы и решения
Тема: Принудительное изменение url категорийА впрочем, кажется, разобрался с плагином этим.)
Да, хороший плагин! Нужно только УРЛы менять в редакторе рубрик — там есть поле этого плагина.)
А ярлык, конечно, остается прежним — ну и ладно)- Ответ изменён 5 лет, 2 месяца назад пользователем StellaStan. Причина: Решено!
Форум: Плагины
Тема: Плагин соцсетей к форме входа/регистрацииAlexander
скорее всего вы их не видите из-за того, что не включили не одну социальную сеть
А да, совершенно верно! ))
А не планируете привинтить к BuddyPress?Форум: Плагины
Тема: Плагин соцсетей к форме входа/регистрацииAlexander
Да, Ваш плагин AnyComment привинчивает авторизацию через соцсети к стандартной форме входа. Но прошу прощения, что не уточнил сразу — такое дело мне нужно привинтить к виджету BuddyPress Авторизация.Кстати, почему-то на моем тестовом локальном сайте я не вижу соцкнопок от Вашего плагина в стандартной форме авторизации ВП. Вижу только надпись «или используйте социальную сеть:». Смотрю через Хром.
Spectrum
Поведение адаптивных тем еще очень во многом зависит от параметров монитора — настроек его разрешения и физических пропорций экрана. Например я делал сайт на экране 16:9 с разрешением 1920х1080. Все смотрится идеально. У коллеги рядом комп с монитором 4:3 (еще много таких) и более низким разрешением — так вот у него сайт смотрится совсем по другому — виджеты съехали. Меню перестроилось в 2 ряда….
Ну вот… У меня старенький монитор 4:3 1024х768 17» .
Спасибо огромное! — успокоили! А то я уж подумал, что сайдбары «уходят в прошлое».)))tuxfighter
Но Опера на его же движке.
Скажу еще раз — в ней все нормально сразу.Странно.. Настройки моей Оперы что ли какие?..
…Ну и Яндексбраузер тоже на движке Blink — но в нем то у меня все нормально…tuxfighter
в Опере и Огнелисе — все нормально
Да, в Фаефоксе все нормально всегда, и в ЯндексБраузере тоже. Не знаю как у вас, но в Опере изначально я вижу сайдбар внизу — и только после перехода в полноэкранный режим (по клику на F11) сайдбар вижу на месте.
Но главный то браузер, №1 в мире — это Хром. Вот в нем вся проблема.Форум: Проблемы и решения
Тема: Перекидывает на другой сайтSpectrum
В целом неплохой плагин был. Он до сих пор установлен на одном из моих сайтов.
Да уж, согласен — красивый и удобный плагин… был!(( Какая печаль, потому что недавно только с ним познакомился — и так это он играл-сверкал и привлекал внимание юзеров))) Допривлекался, короче(((
Форум: Проблемы и решения
Тема: Перекидывает на другой сайтЭтит-раскудрит коромысло! Я уже поседел окончательно за последние 2 суток! Вот оно в чем дело! ))))
Уже из 2 бекапов хостер сайт откатывал — а вирус спустя время снова возвращается!((( Я ж им говорю — это шелл (а это шелл?!), и откат не поможет. Но где собака была зарыта!
NetessovЯ решил проблему.
https://www.wordfence.com/blog/2019/04/yuzo-related-posts-zero-day-vulnerability-exploited-in-the-wild/
Был как раз установлен этот плагин, который выдавал ошибку. Его деактивировали и все заработало.уточните пожалуйста, — достаточно было только деактивировать плагин, и больше ничего не нужно делать? Этого достаточно?!
Еще вот увидел в Вебмастере пару ошибок связанных с этим /?attempt=1 в этих критичных урлах
Индексирование страницы запрещено в файле robots.txt.
По причине директивы Disallow: /*?*
Вот уж не думал, не гадал.
Но ведь большинство все же по причине (Документ не содержит текст) выпадает — так что роботс тут вроде не при чем?Вчера отключил iThemes Security совсем. Сегодня фатал ошибка — главная выпала, не содержит текст! Случилось наконец! )))(((
Юрий
На большинстве хостингов VPS/VDS/DS выдается без технического администрирования, всё можно/нужно настраивать самостоятельно.
Это понимаю. Не о том немного речь. А вопрос в том, что «Наверное на другой тариф этого же хостера бессмысленно переходить? — потому что и там эта блокировка будет активна?». Не один ли, который редьки не слаще, потому что хостер один и вытворяет на всех тарифах одинаково — или нет?
Вот это тоже кстати в Янвебмастере частенько «Долгий ответ сервера. При обращении к страницам сайта среднее время ответа сервера превышает 3 секунды.» А ведь по тарифу подключен гугловский Pagespeed — а толку, выходит, никакого!
ren334
Скорее всего они устанавливают js-редирект для защиты от DDOS, при этом, ботов яндекса защита благополучно определяет как дудосеров.
То есть это модуль testcookie вообще по определению такой, или все же его умелыми руками можно грамотно настроить?
скорее всего проблема в хостере…
Наверное на другой тариф этого же хостера бессмысленно переходить? (например на базовый VPS) — потому что и там эта блокировка будет активна?
Надо линки поменять. Делал с помощью этого плагина:
https://ru.wordpress.org/plugins/really-simple-ssl/
И потом поработать с БД вот этим плагином, чтобы линки в статьях и прочих местах были заменены:
https://ru.wordpress.org/plugins/better-search-replace/Именно в такой последовательности плагины применять?
Я менял протокол через Notepad++ методом замены — но что то криво вышло: главная, страницы разделов и тегов нормально открывались в https, а вот посты и статич.страницы выдавали циклический редирект.
Я потом возращал бэкап базы обратно и затем уже менял через sql-запросы — нет, все равно эта циклическая переадресация выходила.((Yui
https://webmaster.yandex.ru/tools/server-response/
проверяли через это?Да, я все время. Чаще всего 200. Но бывает, что выдает «Не удалось скачать содержимое страницы» — но если через сек-другую перепроверить, то все ОК. Спросил об этом Платона, он сказал
Что же касается проверки ответа сервера, если периодически появляется статус «Не удалось скачать содержимое страницы», как правило, это может быть связано с тем, что при запросах данного инструмента страница отвечает с задержками, из-за чего соединение прерывается по тайм-ауту. Возможно также, что запросы с некоторых IP-адресов инструмента блокируются при попытке посетить страницу.
И да
также см. https://yandex.ru/support/webmaster/robot-workings/check-yandex-robots.html
в том же тикете Платон сослася на это тоже
Замечу, что наши роботы используют очень большое число IP-адресов, и они могут меняться. К тому же разные сервисы Яндекса могут использовать разные IP. В связи с этим мы рекомендуем определять роботов не по IP-адресу, а по User-Agent и/или обратному DNS-запросу. Подробнее о том, как проверить, что робот принадлежит Яндексу, вы можете узнать в нашем разделе Помощи: https://yandex.ru/support/webmaster/robot-workings/check-yandex-robots.html .
В общем, это что выходит: хостер просто тупо юзает тесткуки — или же не тупо, но что то там не донастраивает?
- Ответ изменён 5 лет, 5 месяцев назад пользователем StellaStan.
так вот значит еще стал я гуглить, что это
<html><body><script>document.cookie=»bpc=b2d2efec1bb89dc4bb3a5a77d31eb1c6;Path=/»;document.location.href=»https://estellemoda.ru/novosty-mody/modnye-trendy/modnye-tendencii-osen-zima-2016-2017/?attempt=1″;</script></body></html>
означает, что на сервере для защиты от ДОС используются testcookie — при которых якобы доступ будет осложнен не только для атакующих ботов, но и для поисковых. В общем спросил я снова хостера, ответили
Да, Когда включена фильтрация, идет проверка соединения по специальной куке.
Но
У нас для поисковых ботов включено исключение по их IP-адресам, и они не испытывают проблем с доступом.Я мол, а что ж тогда яндексботы достучаться не могут? А они говорят
Возможно у поисковых ботов Яндекса сменились IP-адреса.
Я им: а что, у яндексов каждый день меняются IP-адреса?
ОниУ Вас в файле .htaccess сайта указаны IP-адреса для запрета им доступа к сайту. Это действия плагина iThemes Security , он автоматически может добавлять IP-адреса и удалять их из списка заблокированных.
Ага! Помню, что этот плагин вроде как ранее блочил яндексов по юзерагенту, а что по айпишникам может — упустил из виду. В общем выключил я в плагине этот раздел — прошло несколько дней, нет, зараза, все равно та же ошибка в Янвебмастере!
Я еще тогда хостера спросил, помню — ваша фильтрация все же основана на testcookie или нет? Ответ меня несколько удивил: )))— Судя по отдаваемому адресу, то да.
В общем я не программист, конечно, и не знаю кому верить — то ли статьям про тесткуки, то ли хостеру, который уверяет, что для яндексботов фильтра нет.
- Ответ изменён 5 лет, 5 месяцев назад пользователем StellaStan.
Flector
боты гугла могут просто индексировать неполноценную страницу.
Смотрел в Посмотреть как Гуглбот (последние дни, кстати, доживает сей инструмент) — непонятно. То если в Сканировать выводит html страницы, то вроде нет полезного текстового контента, то он есть. Если же в Сканировать и отобразить — то все на месте.