Всем привет обновил свой ресурс на WP до последней версии 5.5. Но спустя пару недель увидел большое количество мусорных страниц в веб мастере формата
sait.ru/wp-json/wp/v2/product/1015
при открытии этих страниц абра кадабра открывается. Вопрос, как исправит ситуацию? Восстановить бекап не получится так, как после обновления прошло несколько недель было выполнено много работы на сайте. Кто с этим сталкивался?
garry69
REST API уже лучше не отключать, а то масса чего перестанет работать на сайте. Можно через robots.txt закрыть и они постепенно вылетят из индекса.
Webliberty
Эти страницы содержат в заголовках ответа сервера X-Robots-Tag: noindex и поэтому не должны индексироваться.
Bill_geits
garry69 #: REST API уже лучше не отключать, а то масса чего перестанет работать на сайте. Можно через robots.txt закрыть и они постепенно вылетят из индекса.
Я почитал на форумах вроде как пишут это баг нового Wp/ поговаривают, что отключают это в functions.php темы кодом ниже. Я последовал совету не знаю на сколько правильно
Если отключать через robots то как правильно отключить?
Я почитал на форумах вроде как пишут это баг нового Wp/ поговаривают, что отключают это в functions.php темы кодом ниже. Я последовал совету не знаю на сколько правильно
Если отключать через robots то как правильно отключить?
Как то так и проверить в панеле вебмастера. Disallow: /wp-json/ А отключать REST API как вы сделали, сейчас плохая идея, в новых версиях много где используется движком и плагинами.
SeVlad
Bill_geits #: Я почитал на форумах вроде как пишут это баг нового Wp
Это «баг» с /wp-json/ существует сколько себя помню. Его ещё на 2,7 в роботсе запрещали.
Но он не индексируется, так что можно и не запрещать. Это дурацкий яндекс его почему-то терзает.
И да, отключать рест-апи — очень плохая идея с версии 4.4
garry69
SeVlad #: Но он не индексируется, так что можно и не запрещать. Это дурацкий яндекс его почему-то терзает.
Зпретить в роботсе стоит, просто в итоге нагрузка лишняя уйдет, яндекс перестанет дергать кучей запросов сайт, по не нужному лазить не будет, да собственно весь мусор и лишние дубли лучше всегда закрывать и по этой причине в том числе.
SeVlad
garry69 #: просто в итоге нагрузка лишняя уйдет, яндекс перестанет дергать кучей запросов сайт, по не нужному лазить не будет, да собственно весь мусор и лишние дубли лучше всегда закрывать и по этой причине в том числе.
Вот насчёт «по причине дебильности яндекса» — я полностью согласен. А вот насчёт «нагрузка лишняя уйдет» не всё так однозначно. Палка о двух концах. Есть тип зловредных роботов, которые сканят разное засвеченное, в тч и в роботсе (я бы даже сказал — особеннов роботсе). А это уже не только нагрузка, но и безопасность.
В отношении ВП это конечно не столь актуально, тк такие пути известны «нехорошим людям», но всё же общие принципы безопасности (да и не только) — «не свети лишние».
Лучше б яндекс лишний раз попинать (а его не раз за это пинали).
Gigabajt
Пару дней назад задался таким же вопросом, но додумался спросить у гугла. 3 минуты — вопрос решен. ТС, посты набивашь ?
Bill_geits
Gigabajt #: Пару дней назад задался таким же вопросом, но додумался спросить у гугла. 3 минуты — вопрос решен. ТС, посты набивашь ? Мне смысла нет набивать посты. Возникла проблема я погуглив нашел решение в виде когда , о котором я писал выше. В итоге знающие подсказали , что этот код зло. Лучше через запрет в robots решить. А как вы это сделали?
Bill_geits
при открытии этих страниц абра кадабра открывается. Вопрос, как исправит ситуацию? Восстановить бекап не получится так, как после обновления прошло несколько недель было выполнено много работы на сайте. Кто с этим сталкивался?
garry69
Webliberty
Bill_geits
REST API уже лучше не отключать, а то масса чего перестанет работать на сайте. Можно через robots.txt закрыть и они постепенно вылетят из индекса.
Я почитал на форумах вроде как пишут это баг нового Wp/ поговаривают, что отключают это в functions.php темы кодом ниже. Я последовал совету не знаю на сколько правильно
Если отключать через robots то как правильно отключить?
// Отключаем сам REST API
add_filter(‘rest_enabled’, ‘__return_false’);
// Отключаем фильтры REST API
remove_action( ‘xmlrpc_rsd_apis’, ‘rest_output_rsd’ );
remove_action( ‘wp_head’, ‘rest_output_link_wp_head’, 10, 0 );
remove_action( ‘template_redirect’, ‘rest_output_link_header’, 11, 0 );
remove_action( ‘auth_cookie_malformed’, ‘rest_cookie_collect_status’ );
remove_action( ‘auth_cookie_expired’, ‘rest_cookie_collect_status’ );
remove_action( ‘auth_cookie_bad_username’, ‘rest_cookie_collect_status’ );
remove_action( ‘auth_cookie_bad_hash’, ‘rest_cookie_collect_status’ );
remove_action( ‘auth_cookie_valid’, ‘rest_cookie_collect_status’ );
remove_filter( ‘rest_authentication_errors’, ‘rest_cookie_check_errors’, 100 );
// Отключаем события REST API
remove_action( ‘init’, ‘rest_api_init’ );
remove_action( ‘rest_api_init’, ‘rest_api_default_filters’, 10, 1 );
remove_action( ‘parse_request’, ‘rest_api_loaded’ );
// Отключаем Embeds связанные с REST API
remove_action( ‘rest_api_init’, ‘wp_oembed_register_route’);
remove_filter( ‘rest_pre_serve_request’, ‘_oembed_rest_pre_serve_request’, 10, 4 );
remove_action( ‘wp_head’, ‘wp_oembed_add_discovery_links’ );
garry69
Я почитал на форумах вроде как пишут это баг нового Wp/ поговаривают, что отключают это в functions.php темы кодом ниже. Я последовал совету не знаю на сколько правильно
Если отключать через robots то как правильно отключить?
Как то так и проверить в панеле вебмастера.
Disallow: /wp-json/
А отключать REST API как вы сделали, сейчас плохая идея, в новых версиях много где используется движком и плагинами.
SeVlad
Я почитал на форумах вроде как пишут это баг нового Wp
Это «баг» с /wp-json/ существует сколько себя помню. Его ещё на 2,7 в роботсе запрещали.
Но он не индексируется, так что можно и не запрещать. Это дурацкий яндекс его почему-то терзает.
И да, отключать рест-апи — очень плохая идея с версии 4.4
garry69
Но он не индексируется, так что можно и не запрещать. Это дурацкий яндекс его почему-то терзает.
Зпретить в роботсе стоит, просто в итоге нагрузка лишняя уйдет, яндекс перестанет дергать кучей запросов сайт, по не нужному лазить не будет, да собственно весь мусор и лишние дубли лучше всегда закрывать и по этой причине в том числе.
SeVlad
просто в итоге нагрузка лишняя уйдет, яндекс перестанет дергать кучей запросов сайт, по не нужному лазить не будет, да собственно весь мусор и лишние дубли лучше всегда закрывать и по этой причине в том числе.
Вот насчёт «по причине дебильности яндекса» — я полностью согласен. А вот насчёт «нагрузка лишняя уйдет» не всё так однозначно. Палка о двух концах. Есть тип зловредных роботов, которые сканят разное засвеченное, в тч и в роботсе (я бы даже сказал — особеннов роботсе). А это уже не только нагрузка, но и безопасность.
В отношении ВП это конечно не столь актуально, тк такие пути известны «нехорошим людям», но всё же общие принципы безопасности (да и не только) — «не свети лишние».
Лучше б яндекс лишний раз попинать (а его не раз за это пинали).
Gigabajt
Bill_geits
Пару дней назад задался таким же вопросом, но додумался спросить у гугла. 3 минуты — вопрос решен. ТС, посты набивашь ? Мне смысла нет набивать посты. Возникла проблема я погуглив нашел решение в виде когда , о котором я писал выше. В итоге знающие подсказали , что этот код зло. Лучше через запрет в robots решить. А как вы это сделали?
Gigabajt
через robots и запретил