Как найти страницы сайта без трафика с помощью Яндекс Метрики?

Часто бывает необходимо найти страницы сайта без трафика с помощью Яндекс Метрики. В этой статье я и расскажу и покажу как это сделать.

Вступление

Прежде всего, хочу сказать, что в Яндекс Метрике, по состоянию на сегодняшний день, нет стандартного отчета, который бы позволил одним кликом решить эту задачу. К тому же для отчета «Содержание» — «Страницы входа», который мы будем использовать, есть стандартное ограничение, которое гласит:

Детализация до уровня отдельных визитов и посетителей была отключена для исключения рисков деанонимизации пользователей. Показываются только строки с информацией не менее чем по 10 посетителям.

Источник: Яндекс Метрика

Другими словами, данный отчёт Яндекс Метрики, не отобразит нам страницы на которые заходило менее 10 посетителей за выбранный промежуток времени. Он нам отобразит страницы сайта на которые заходило от 10 посетителей включительно.

Условимся, что под страницами без трафика мы будем далее понимать те страницы, которые за выбранный временной интервал посетило до 10 посетителей.

А если временной интервал выбрать, скажем, 6 или 12 месяцев, то такие страницы и вправду можно считать страницами без трафика, а следовательно, не представляющими для SEO никакой ценности. Такие страницы ещё называются зомби-страницами (от англ. Zombie Pages) и, они как правило, подлежат удалению либо доработке.

Инструкция

Условимся, что наш целевой временной интервал — 6 месяцев. Тогда алгоритм нахождения страниц сайт без трафика с помощью Яндекс Метрики будет следующим:

1. Выгружаем из Яндекс Метрики (отчет «Содержание» — «Страницы входа») все страницы сайта, на которые количество было от 10 включительно за весь целевой временной интервал. Для выгрузки в XLSX формат выбираем «Данные таблицы» и далее XLSX (см. рисунок 1). Получаем соответствующий список страниц, сохраняем его в рабочую папку на компьютере.

Выгрузка из Яндекс Метрики страницы с визитами более 10
Рис. 1. Выгрузка из Яндекс Метрики страницы с визитами более 10

2. На этом шаге нам нужно выгрузить все страницы сайта. Я использую для этой цели, а также для многих других seo-работ программу Screaming Frog. Можно, конечно, воспользоваться и списком страниц из sitemap.xml, если он, конечно, корректно генерируется, то есть выводит все актуальные страницы сайта.

Чтобы спарсить все страницы сайта, нужно ввести ULR главной страницы сайта в строку «Enter URL to Spider» программы Screaming Frog и нажать кнопку «Start». После завершения сканирования применяем фильтр «HTML». Далее удаляем из списка страницы у которых «Status Code» отличный от 200 (см. рисунок 2), то есть в списке должны остаться страницы сайта со «Status Code» = 200 .

Я также удаляю из списка страницы, которые закрыты от индексации, то есть со статусом «Non-Indexable» в столбце «Indexability» (см. рисунок 2) — обычно это какие-нибудь служебные страницы сайта или страницы пагинации.

Выгрузка страниц из screaming frog
Рис. 2. Выгрузка страниц из Screaming Frog

Далее оставшийся список экспортируем в XLSX файл через кнопку «Export».

3. На этом этапе воспользуемся инструментом сравнения списков и сравним списки полученные на шагах 1 и 2 между собой. Я использую онлайн инструмент от WPNEW (вы можете воспользоваться любым другим — это не принципиально). Чтобы воспользоваться этим инструментом для наших целей нахождения страниц, которые посетило от 0 до 9 (включительно) юзеров, нужно:

  • В правое поле (2 список слов) вставляем урлы из списка, который мы получили на шаге 1.
  • В левое поле (1 список слов) вставляем урлы из списка, который мы получили на шаге 2.
  • Выбираем опцию «Уникальные слова, которые есть только в первом списке» (см. рисунок 3).
  • Жмём кнопку «Получить уникальные слова» и получаем урлы страниц без трафика.
Сервис сравнения списков ключевых слов
Рис. 3. Сервис сравнения списков

Далее итоговый список таких урлов без трафика, которые можно считать малозначимыми, вы можете удалить с сайта либо закрыть от индексации в том случае, если планируете их в последующем доработать.

Применяйте данный лайфхак и улучшайте ваше SEO!