Малоценные страницы на сайте: как найти и работать с ними

Малоценные страницы на сайте как найти и работать с ними

 

Поисковые системы хранят в базе бесконечное множество страниц с сайтов, но некоторые из них не включают в поиск, так как считают их малоценными, маловосстребованными – не несущими полезной информации для пользователей.

Например, Яндекс извещает, что

Малоценной страница может быть признана:

  • если она является полным или частичным дублем;
  • не содержит видимый роботу контент.

Маловостребованной, если робот решит, что:

  • в поиске нет запросов, на которые данная страница могла бы ответить (даже если страница без ошибок в коде и содержит контент).

В обоих случаях страница может быть исключена из поиска. Давай разберем подробнее эти определения.

 

Малоценные страницы на сайте

Полные или частичные дубли на примере интернет-магазина – карточки товаров одного вида очень похожи и могут различаться лишь картинкой, парой фраз или предложений. Робот читает всю страницу целиком, все сквозные блоки (шапка, меню сайдбар, подвал) и из-за очень низкой уникальности признает ее дублем. Из поиска страница удаляется, а сайт получает минус к репутации.

Нет контента или мало контента – иногда на странице размещают только видео, фото, картинки без «живого» текста, или текста очень мало, 1-2 предложения, или текст размещен на картинке (афиши, объявления). А бывает и так, что вебмастера делают на будущее и публикуют пустыми целые разделы с пустыми (только заголовки) страницами. Потом они про них забывают, и образуется малоценная страница без контента.

Маловостребованные страницы

– например, когда заголовки и мета-теги прописаны неправильно или некорректно по отношению к самому тексту страницы. Другими словами – в заголовке, в h1 есть ключевое слово, а в тексте оно не упоминается вообще ни разу. Или когда автор придумывает от себя ключевую фразу к публикации, а такой запрос (по статистике) ни кто и никогда из пользователей интернета не задавал. ПС может посчитать, что информация никому не интересна и удалит страницу из выдачи.

 

Минусы для сайта от малоценных страниц

1. Снижается авторитет сайта.

Если на сайте много подобных страниц, в совокупности с другими техническими ошибками, авторитет площадки может снизиться.

2. Ухудшаются поведенческие факторы

Пользователь заходит на малоценную страницу и не находит нужную информацию. Он быстро закрывает сайт, что повышает показатель отказов — ухудшает поведенческие факторы.

3. Происходит каннибализация ключевых слов

Простыми словами – использования одних и тех же ключевых слов на разных страницах. Такие страницы будут конкурентами внутри ресурса, а это грозит негативными последствиями для видимости сайта в поиске.

4. Малоценные или маловостребованные страницы снижают краулинговый бюджет сайта

Краулинговый бюджет – это лимит, который выдается каждому сайту на индексацию. Предположим, что вашему сайту назначен лимит на индексацию 100 страниц. На сайте 50 этих «плохих» страниц. Если поисковый робот обойдет много страниц с низкой ценностью, он может и не добраться до важных, хороших страниц.

 

Как найти, определить малоценные страницы

C помощью сервиса Яндекс.Вебмастер

  1. Открываем Яндекс.Вебмастер и в левом меню переходим в раздел «Индексирование – Страницы в поиске».
  2. В верхнем меню выбираем «Исключенные»

 

Яндекс_Вебмастер страницы в поиске исключенные

По графику несложно разобраться, а при наведении курсора – отобразятся данные на определенную дату

 




По малоценным страницам смотрим процент.

  • если показатель от 0 до 20% — это в пределах нормы;
  • если от 20 до 30% — пересматриваем проблемные страницы и отправляем их на «Переобход страниц»;
  • показатель свыше 40% – делаем сами или заказываем технический аудит.

 

Отслеживаем отчеты Яндекс.Вебмастра.

Найдены страницы-дубли с GET-параметрами

 

Если пришло такое сообщение «Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров)» — смотрим примеры страниц и решаем, что с ними делать:

  • технические страницы и некоторые дубли можно закрыть через файл robots.txt или через метатег noindex;
  • для страниц с параметрами (например, страницы сортировки) прописать rel=«canonical» или Clean-param в robots.txt

 

С помощью программы Screaming Frog SEO Spider

Иконка Screaming Frog SEO Spider
Если вы с ней незнакомы  — в ближайшее время расскажу на сайте, а если уже пользовались – просканируйте свой сайт.

По результату можно отсортировать страницы по Word Count (количество слов) или Size (размер страницы):

 

Сортировка страниц по Word Count или Size - Screaming Frog SEO Spider

 

Смотрим, что это за страницы предполагая — чем меньше страница весит, тем меньше ее ценность и объем контента, так же и с количеством слов.

Там же можно проверить дублирующиеся теги, выявляя похожие страницы. Вкладка Title и в выпадающем меню Duplicate

 

Дублирующиеся теги Screaming Frog SEO Spider

 

С помощью Яндекс.Метрики или Google Analytics

Ищем страницы с плохими поведенческими факторами, один из вариантов – сортировка страниц по проценту отказов

 

Варианты исправления малоценных страниц

После выявления или получения уведомления о таких некачественных страницах, не следует сразу удалять, закрывать или переадресовывать их – нужно разобраться, выяснить причину.

Дубли страниц – там, где частично или полностью повторяется контент. Если их немного, можно перенаправить редиректом 301 через файл .htaccess или плагинами, со временем проиндексируется новый документ, а старый уйдет из поиска. Если дублей много – удаляем те, куда нет сторонних ссылок, а оставшиеся делаем каноническими.

Находим дубли Яндекс.Вебмастером (смотрите выше), программой Screaming Frog SEO Spider, и в Google Search Console — вкладка «Оптимизация Html» — список с потенциальными дублями – одинаковыми мета-описаниями.

 

Страницы с GET-параметрами (внутренний поиск, сортировка, фильтры) – лучший вариант прописать Clean-param или rel=«canonical» в robots.txt.

Технические страницы можно закрыть в файле robots.txt

Например: Disallow: *apply*

Это закроет страницы типа /catalog/rozetki_vyklyuchateli/legrand_plexo/filter/clear/apply/. Только желательно проверить наличие трафика на эти страницы, чтобы не потерять его.

Заключение

Работа над малоценными страницами не обязывает к большим затратам, но может принести неплохие результаты, особенно на больших сайтах.
 


Если статья была интересна для вас - ей можно поделиться


Получать новые публикации по электронной почте:



Одна мысль о “Малоценные страницы на сайте: как найти и работать с ними”

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *