База знаний SEO        26 декабря 2016

Внутренняя оптимизация сайта: полное руководство

Внутренняя оптимизация сайта - это комплекс работ, проводимый с целью корректировки содержимого сайта для быстрой индексации и лучшего ранжирования сайта в поисковых системах.

Внутренняя оптимизация - это самый большой и ответственный этап в seo продвижении сайта. Здесь важно не допустить ошибок и все делать правильно, учитывая как рекомендации поисковых систем, так и личный опыт seo-специалиста.

Основные этапы.

Внутренняя оптимизация страниц сайта предполагает проведение следующих работ:

Схема внутренней оптимизации сайта

Примерная схема внутренней оптимизации сайта

Содержание

Анализ конкурентов

Процесс внутренней оптимизации сайтов начинается с анализа конкурентов. Обычно в самом начале работ уже известен некоторый перечень сайтов конкурентов. Когда этого перечня мало, можно воспользоваться такими сервисами как SemRush, SpyWords, Advisor.Sape и найти их еще пару штук.

Обычно хватит для конкурентного анализа 5-6 сайтов. Цель такого анализа: снять различные количественные и качественные характеристики таких сайтов. Снимают обычно такие параметры, как: тиц, pr, возраст сайта, количество проиндексированных страниц, число главных страниц в выдаче, наличие запроса в точной форме в title  и другие. Как правило, результаты анализа оформляются в виде наглядной таблицы.

По результатам анализа получается конкретный список тех работ, который нужно будет провести, чтобы подтянуть сайт до уровня конкурентов и возможно в чем-то даже обогнать.

Составление семантического ядра

Следующий этап - это составление семантического ядра по которому и будут продвигаться страницы сайта в зависимости от выбранной стратегии: по позициям или по трафику. Дело в том, что если продвижение осуществляется по позициям, то и семантическое ядро обычно не большое (до 100-200 слов). Если речь идет о трафиковом продвижении, то нужно подбирать семантическое ядро с количеством фраз от 1000 в зависимости от тематики.

Здесь основной акцент нужно сделать на работу с ВЧ, СЧ и НЧ запросами, которые разделяются между собой в зависимости от частоты показов и тематики. Например в тематике "еда" - ВЧ имеют частоты от 100 тыс показов в месяц, а в тематике "продвижение сайтов" уже от 2000. Нет единых численных значений - помните об этом. Как правило, СЧ имеют частоту в 3-10 раз ниже чем ВЧ, а НЧ в 3-10 ниже чем СЧ.

Высокочастотные запросы очень плохо подходят для молодых сайтов, так как они почти всегда одновременно и максимально конкурентные. В основном работают с СЧ и НЧ запросами - они более целевые и их легче продвигать.

Основные стадии составления семантического ядра следующие:

  • сбор фраз из всевозможных источников (Яндекс метрика, Google Analytics, Liveinternet, SemRush, SpyWords, База Пастухова и другие);
  • очистка полученного списка от нецелевых слов и пустышек;
  • разбиение запросов на продвигаемые группы по принципу решения проблемы пользователя. Если группа запросов решает одну и ту же проблему пользователя (информационную потребность), то мы делаем вывод, что их нужно продвигать на одной странице.

Отлично автоматизировать процесс сбора семантического ядра можно в программе Key Collector.

Размещение запросов на сайте + выбор посадочной страницы

После того как мы собрали семантическое ядро, провели его чистку и сформировали продвигаемые группы мы должны подумать о размещении запросов на сайте. Для этого нужно подобрать посадочные страницы. Но в большинстве своем многие группы запросов не будут иметь существующих посадочных страниц. Тут выход один: либо такие группы не учитывать, либо создать новую целевую страницу.

Конечно, лучше размещать запросы на существующие страницы, так как они уже имеют возраст и накопленные поведенческие факторы. В таком случае запросы будут продвигаться легче и быстрее.

Минусом же новых страниц является отсутствия фактора доверия со стороны поисковых систем и возраста, а это в нынешних реалиях очень сильно сказывается на seo. Но есть и плюс - это постоянное расширение списка продвигаемых запросов и возможность оперативно подхватить текущие трендовые запросы и их тоже разместить.

Работа со структурой сайта

Под структурой сайта понимается совокупность всех страниц сайта с учетом их взаимосвязи между собой. Основные разделы в структуре сайта выделяются путем создания папок (директорий) на сервере, либо с помощью соответствующих записей в базе данных.

Пример рубрик:

  • /wordpress/;
  • /baza-znanij-seo/.

Пример страниц: 

  • /baza-znanij-yuzabiliti/yuzabiliti-internet-magazina.php; (допускается как использовать расширение .html, .php так и не использовать как в примере ниже)
  • /wordpress/nastrojka-gravatara.html;
  • /baza-znanij-seo/vnutrennyaya-optimizaciya-sajta/.
Блок схема создания правильной структуры сайта

Блок схема создания правильной структуры сайта

Инструкция по созданию правильной структуры сайта:

  1. Самое первое, что мы должны сделать - это сформировать список seo-запросов;
  2. Далее по основным из них (самым частотным) нужно провести анализ структуры конкурентов. Здесь вам нужно проанализировать конкретные страницы конкурентов на предмет того, как они сделаны, как оформлены. Являются ли они, например, разделом с перечислением, например, товаров или просто отдельной страницей (карточкой товара). Нужно найти какие-либо части, блоки, модули, сервисы, которые реализованы у конкурентов, но не реализованы у вас. Если они представляют ценность, то, в конечном итоге, реализовать. Также нужно посмотреть количество страниц разных типов и сравнить с вашим. Например, если у конкурента около 5000 карточек товара, то и у вас должно быть приблизительно такое же количество;
  3. Далее беремся за анализ ЧПУ конкурентов. Это может быть и анализ того, какие ключевые слова встречаются в урле и среднее количество этих слов, а также и уровень вложенности. Обычно - это шаблонные решения. И если они удачны, то необходимо подумать о реализации у себя.
  4. Провести учет иерархии разделов и подразделов. Тут нужно посмотреть как реализована иерархия в меню сайта. Посмотреть как реализовано тегирование, которое очень неплохо позволяет реализовать эту самую иерархию.
  5. Раскрыть все основные потребности на сайте. Под каждую основную потребность необходимо создать раздел, а внутри этого раздела будут подразделы или конечные детальные страницы.
  6. Возможность масштабирования. Если в процессе разбиения мы получаем ситуацию, когда в одном разделе существует более сотни подразделов - то это неправильно. Нужно изначально этот раздел разбить на несколько десятков подразделов, каждый из которых внутри будет разбиваться также на несколько десятков. Это будет более логично и удобно для восприятия.
Пример готовой структуры сайта в виде таблицы Excel

Пример готовой структуры сайта в виде таблицы Excel

Seo-теги: title, h1-h6, description, keywords, strong

После того, как известен список продвигаемых ключевых слов, можно приступать к оптимизации seo-тегов для каждой страницы сайта: title, h1-h6, description, keywords, strong. Здесь у каждого свои секреты. Но есть и общие требования:

  • не переспамливать ключевыми словами;
  • Yandex учитывает 186 слов в title, а Google - 12;
  • тег title должен содержать продвигаемый запрос в точной форме;
  • h1 должен быть употреблен в исходном html коде только 1 раз и не должен содержать классов и стилей;
  • необходимо соблюдать иерархию заголовков: сначала h1, потом h2, затем h3 - и так далее;
  • содержимое h1, по возможности, не должно совпадать с title;
  • старайтесь выделять тегом strong важную мысль, а не ключевые слова;
  • максимальная длинна description, которую учитывает Яндекс - 160 символов, а Google - 140;
  • description должен содержать 2-3 предложения, которые описывают содержимое страницы. Можно использовать цифры, факты, рекламные слоганы, призывы к действию и т.д;
  • мета тег дескрипшен не должен совпадать с тегом title,  иначе поисковая система будет его игнорировать.

Для упрощения работы с seo-тегами я рекомендую утилиту Screaming Frog SEO Spider, которая после сканирования выведет всю необходимую информацию по каждой странице сайта в удобном виде.

Для интернет-магазинов или порталов, ввиду большого количества страниц, ручная работа по заполнению данных мета-тегов весьма затруднительна, поэтому здесь процесс автоматизируют, используя различные шаблонные маски.

Работа с исходным html кодом

  • На данном этапе внутренней оптимизации сайта необходимо сделать так, чтобы код был валидным. Это будет почти 100% гарантией того, что сайт будет хорошо открываться в браузерах. Также есть исследования, которые говорят о том, что валидный код дает небольшой бонус при ранжировании.
  • В рамках данного этапа важно проследить за тем, чтобы все стили были вынесены из исходного html кода в отдельный CSS файл.
  • Все JS скрипты нужно вынести в отдельный файл.
  • Важно работать в целом над тем, чтобы убрать лишние теги, пробелы - это позволит уменьшить вес страниц сайта в килобайтах.
  • Оптимальный размер страницы - до 100 килобайт.
  • Также нужно позаботиться о том, чтобы ваш HTML код был лишен CSS, JS и шрифтов, которые не используются на данной конкретной странице - это позволит ускорить загрузку.
  • Основные seo-теги - title и дескрипшен нужно выводить сразу же после открывающегося тега <head>.

Наличие ЧПУ

Как известно, поисковики дают бонус в ранжировании, если урлы будут представлены в человеко-подобном виде (ЧПУ). Лучше всего использовать транслитерацию, но неплохо работают и английские переводы слов. Здесь есть один момент: ЧПУ урл не должен быть слишком большим. Есть даже такой фактор ранжирования в Google, как длина урла. Эксперты склоняются к выводу, что оптимальная длинна ЧПУ урла должна быть не более 130 символов.

Хороший пример ЧПУ урла для запроса "продвижение сайтов в гугл" → /prodvizhenie-sajtov/google/

Требования к ЧПУ:

  • содержание 1-3 основных тематикозадающих слов из запросов;
  • корректность с точки зрения поисковой системы;
  • как можно более меньшая длина урла;
  • иерархическое дополнение друг друга.

Для ручного создания правильных и корректных с точки зрения поисковиков ЧПУ урлов Вы можете воспользоваться моим сервисом транслитерации урлов.

Улучшение индексации сайта

Цель улучшения индексации сайта - это сделать так, чтобы мы удалили из базы поисковой системы бесполезные страницы сайта и добавили полезные. Для выполнения этой задачи мы первым делом должны проверить индексацию каждой существующей страницы сайта. Лучший инструмент для этой задачи, на мой взгляд, сделала команда сервиса Seranking. Он находится здесь. Да, инструмент платный, но зато быстрый и удобный.

По результатам проверки мы можем выяснить, что часть страниц не попала в индекс, а часть попала. Далее мы должны удостовериться, что проиндексированные страницы не являются мусорными. Если часть из них являются все же мусорными, то мы должны предпринять меры по их удалению из базы поисковой системы. Для этого существует файл robots.txt, meta name="robots" и link rel="canonical".

Также в индекс могут не попадать и нормальные страницы. Причины этого следующие:

  • Страница находится более чем в 3 кликах от главной;
  • Отсутствие уникального контента;
  • Дублирование заголовков;
  • Долгое время загрузки страницы.

P.S. Для реально ускорения индексации сайта в яндексе нужно использовать инструмент переобход страниц, а в гугле аддурилку.

Составление корректного robots.txt

Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow (запретить) и Allow (разрешить) можно управлять сканированием разделов сайта. Корректность составления данного файла можно проверить с помощью сервиса Яндекса здесь.

Из других основных директив следует отметить:

  • User-agent: - указывает для какого робота будут действовать директивы секции;
  • Host: - указывает основное зеркало (работает только в секции для поискового робота Яндекс);
  • Sitemap: - позволяет указать урл по которому расположена XML карта сайта.

Пример составления файла для cms WordPress можете посмотреть у меня на блоге.

Правильная расстановка meta name="robots" и link rel="canonical"

Для правильного индексирования сайта и распределения весов нужно правильно расставить meta name="robots" и link rel="canonical".

Если страница закрыта от индексации с помощью данного метатега, то важно, чтобы она не была одновременно закрыта в robots.txt. Помните, что robots.txt управляет сканированием, а meta name="robots" индексированием.

Для указания основной страницы используйте link rel="canonical". Данный атрибут целесобразно применять тогда, когда нужно поисковой системе явно указать какая из двух страниц с одинаковым содержимым является приоритетной. Я рекомендую все же это делать не с помощью canonical, а с помощью 301 редиректа.

Создание автоматически генерируемых sitemap.xml для обычных постов, картинок, видео

Карта сайта - это ничто иное как обычное содержание, которое должно именно индексироваться.

На сайте должен присутствовать автоматически обновляемый файл sitemap.xml. Различают sitemap.xml для постов, для картинок и видео. Стоит отметить, что сайтмап для картинок и видео поддерживает лишь Google, а Яндекс нет. При составлении данного файла важно учитывают следующие моменты:

  • любая новая страница, картинка или видео должны сразу же попадать в соответствующий sitemap.xml;
  • если страница запрещена в robots.txt или запрещена мета-тегом, то такая страница не должна присутствовать в сайтмапе;
  • лучше всего настроить автоматическую генерацию карты сайта средствами вашей CMS;
  • идеальный случай - это когда в файле sitemap.xml присутствуют лишь непроиндексированные url.

Тег noindex (скрытие текстового содержимого в коде страницы)

Тег noindex позволяет скрывать часть текста в коде страницы от индексирования. То есть все, что находится внутри данного тега не учитывается при текстовом ранжировании. Работает только в поисковой системе Яндекс. Тег можно ставить в любой порядке и в любом месте кода, так как он не является вложенным.

Пример использования тега:

<!--noindex-->текст, который нужно скрыть от индексации<!--/noindex-->

Тег используют если:

  • на странице большое число повторов, например, характеристик товара;
  • на странице используется неуникальный контент, который вы где-то позаимствовал.

В Гугле тег noindex, к сожалению, не работает. Для закрытия контента в гугле и яндексе одновременно используйте технологию seohide.

Атрибут rel="nofollow"

Атрибут rel="nofollow" присваивается ссылкам и служит для закрытия их от индексации поисковыми системами Яндекс и Google. Раньше с помощью данного атрибута управляли pagerank (статическим весом), который является одним из алгоритмов ссылочного ранжирования. Сейчас это не имеет смысла в связи с изменением учета nofollow поисковыми системами. Другими словами, для внутренней перелинковки смысла использовать nofollow нет.

Но в тоже время использовать данный атрибут для внешних ссылок смысл есть, например, в случае закрытия исходящих ссылок в комментариях.

Пример использования:

<a rel="nofollow" href="урл ссылки, который нужно закрыть от индексации">анкор ссылки</a>

Борьба с дублированием контента

Таблица: Причины дублирования страниц и как решать их:

Причины дублирования контента Как исправлять проблему
Сайт доступен как по адресу site.ru, так и по адресу www.site.ru Нужно настроить главное зеркало в вебмастерах поисковых систем. В директиве host файла robots.txt указать главной зеркало для ПС Яндекс. Настроить 301 редирект на одну любую версию сайта (с www либо без www).
Сайты доступны со слешем (/) на конце и без слеша. Настройка 301 редиректа на одну любую из версий.
Одинаковое содержимое доступно по адресу site.ru, site.ru.html, site.ru.php.
Параметрический урл и ЧПУ. Одна и та же страница доступна по адресам вида: site.ru.php?=category=100 и, например, site.ru/seo/ankor/.
Один и тот же сайт открывается как по https так и по http протоколу.
Использование UTM-меток и реферальных ссылок. С помощью link rel="canonical" на всех копиях страниц указываем главную страницу, которую нужно индексировать.

Внутренняя перелинковка

Внутренняя перелинковка продолжает сейчас иметь важное значение при оптимизации страниц сайта. Принципы и формы перелинковки различны для сайтов информационной и коммерческой направленности. Одно скажу, что стандартные схемы типа кольца, куба и прочие не работают в настоящее время. Если их использовать можно даже попасть и под санкции поисковых систем.

Из практических советов:

  • важно следить за максимальной уникальностью и разнообразностью анкор листа. Отлично себя зарекомендовала теговая перелинковка в интернет-магазинах;
  • работает и классическая контекстная перелинковка из статей. Но нужно ставить не более 1 линка на 1000 знаков контента. Анкоры при этом делаем разнообразные с тематическим содержимым;
  • для работы с внутренней перелинковкой вам обязательно нужно освоить метод скрытия контента через js и отдельно технологию seohide;
  • гиперссылки необходимо цветом отделить от основного контента (пример - ссылки синего цвета, а текст черного);
  • для больших порталов и интернет-магазинов нужно обязательно разрабатывать свое комплексное решение по перелинковке.

Циклические ссылки

При правильной перелинковке сайта нужно избегать использования циклических ссылок. Циклическая ссылка - это когда страница ссылается сама на себя.

Пользователю такая ссылка точно не нужна, поскольку он уже находится на этой странице - для чего ему с этой же страницы переходить на неё же? Вывод: циклические ссылки нужно удалять.

Мероприятия по увеличению скорости загрузки сайта

Если вы хотите, чтобы внутренняя оптимизация сайта давала результат, то прилагайте усилия, чтобы ваш ресурс загружался максимально быстро. Google и Яндекс официально признали, что скорость загрузки является фактором ранжирования. Важно сделать так, чтобы время загрузки страницы сайта не было больше 2 секунд. Советы следующие:

  • Чтобы узнать, что именно нужно сделать, чтобы увеличить скорость загрузки страницы сайта, можно воспользоваться официальным инструментом от Google - PageSpeed Insights.
  • Среди основных моментов на которые нужно обращать внимание - это оптимизация размера картинок, сжатие HTML и CSS кода, вынос JS перед закрывающим тегом BODY, включение Gzip сжатия, использование кэша браузера и многое другое.
  • Перейдите на хостинг, сервера которого находятся физически ближе к вашему целевому посетителю.
  • Набирает популярность технология AMP для мобильных страниц. Если есть техническая возможность, то ее лучше внедрить, так как она отлично ускоряет загрузку.

Коды ответа сервера

Общее: на данном этапе нам нужно проверить корректность отдачи сервером нужных кодов в ответ на запрос сайта с браузера. Проверить код ответа сервера вы можете с помощью плагина Firebug для Firefox или сервисом от Яндекса.

Код ответа 200 OK

На данном этапе мы должны удостовериться, что при вводе в браузере любой реально существующей страницы сайта, сервер отдает 200 код ответа. Данный ответ сервера, говорит нам, что запрос успешен. С точки зрения поисковых систем данный код означает, что страница существует и ее можно индексировать. Здесь нам важно убедиться в том, что несуществующие страницы сайта не отдают 200 код. Если так и есть, то все хорошо.

Перенаправление навсегда - код 301

В том случае, если вы настраиваете постоянный редирект с одной страницы на другую, то должны удостовериться в том, что сервер возвращает 301 код ответа. Для чего вам нужно перенаправление? Например, если у вас поменялся URL одной и той же страницы, то вы должны в обязательном порядке настроить 301 редирект со старого урла на новый, чтобы показать, что страница расположена по другому адресу. 301 редирект также передает вес и возраст страницы, а также решает вопрос дублирования контента.

Проверка сайта на корректную отдачу 404 кода

Проверка сайта на корректную отдачу 404 кода (страница не существует) - это один из первоочередных этапов внутренней оптимизации. Важно проверить все возможные варианты, когда должна отдаваться 404 ошибка. Проверять нужно не только реальную отдачу сервером 404 кода в случае ввода несуществующего url, но и чтобы для пользователя выводилась хорошо оформленная страница. Пример такой хорошо оформленной страницы у меня на сайте (введите несуществующий url и увидите).

Коды 5xx (ошибки сервера)

Тут вы должны знать, что существуют еще коды ответа сервера серии 5xx, например, 501, 502, 503 и так далее. Они говорят нам, что есть некая ошибка именно на сервере. Как правило причиной таких ошибок является перегрузка сервера, например, из за роста посещаемости. Поэтому если вдруг вы получаете любой из кодов пятисотой серии, то вам нужно провести работу по оптимизации настроек сервера. Как подсказка: анализируйте логи, чтобы понять какой именно процесс приводит к сбою сервера.

Поиск и исправление битых ссылок

Битые ссылки - это ссылки, которые ведут на несуществующие страницы. Причины их появления следующие:

  • неаккуратная простановка ссылок администратором сайта;
  • смена адреса страницы. При этом забывают поменять ссылки ведущие на эту страницу;
  • удаление страницы, но ссылки на нее остаются на других страницах.

Наличие битых ссылок очень сильно сказывается на ранжировании сайта. Они доставляют и неудобства пользователю, так как при переходе по такой ссылке попадаешь не на целевую страницу, а на страницу 404 ошибки. К тому же с точки зрения seo на эти страницы утекает статический вес. Поэтому seo-специалистам и вебмастерам необходимо их вовремя находить и исправлять. Для оперативного поиска битых ссылок я использую бесплатную утилиту XENU или платную Page Weight.

Оптимизация изображений

При оптимизации изображений имеют ввиду следующие особенности:

  1. Изображение желательно должно быть уникальным;
  2. Картинку нужно оптимизировать под определенные размеры по ширие и высоте;
  3. Воспользоваться сервисами сжатия, чтобы максимально сократить размер в килобайтах;
  4. При размещении на сайте обязательно заполнять атрибуты alt и title таким содержимым, чтобы оно полностью описывало именно то, что изображено на картинке;
  5. По возможности заполнять EXIF данные;
  6. Названия картинок нужно делать в ЧПУ виде (по аналогии с урлами - лучше всего транслитом);
  7. Полезно использовать разметку Schema.org для картинок, которая поддерживается и Яндексом и Гуглом.

Коммерческие факторы ранжирования

При оптимизации интернет-магазинов важно правильно работать с коммерческими факторами ранжирования. В первую очередь сюда относят следующие факторы:

  • наличие телефона в видном месте на странице (обычно в шапке сайта);
  • бесплатный телефон на 8-800;
  • максимально полная информация об организации в на странице "контакты" с картой проезда;
  • добавление информации о сайте в справочник организаций в Яндексе;
  • наличие различных сортировок, сервисов, разделов, которые призваны повышать удобство пребывания пользователя на сайте;
  • увеличивать ассортимент продукции;
  • наличие возможности онлайн-консультирования;
  • возможность попасть в карточку любого товара за 1-3 клика;
  • наличие актуальных цен и многое-многое другое.

Составление ТЗ для написания качественного и полезного контента

Контент - это король SEO. Так было, так и осталось. К тому же влияние контента в последнее время только усиливается. В информационных тематиках продвижение контентом дает, по моим оценкам, 85% успеха. Для коммерческих тематик текст не имеет решающего значения. В тоже время написание качественных статей с большим количеством графики, видео, интерактива в раздел обзоров интернет-магазина позволяет здорово улучшить поведенческие факторы в целом на сайте. А это со временем приведет к росту позиций и по коммерческим запросам.

У каждого seo-специалиста свой подход в составлении технического задания на написание текста. Обычно это базовые требования:

  • Важно в первую очередь то, чтобы страница полностью решала потребности пользователя. Конечно, текстовое ранжирование, по-прежнему, основано на модернизированной формуле BM 25 и это не нужно забывать;
  • Уникальность контента;
  • Объем текста - от 1000 знаков для хорошей индексации. В более объемных статьях, например, информационной направленности обязательно необходимо включать картинки, видео и любые другие иллюстрации. Это позволит добавить ценность на посадочную страницу и снизить вероятность наложения санкций за переспам;
  • Параграфы должны состоять из не более 4-6 строк;
  • Текст верстаем тегами <p>;
  • Использование подзаголовков, списков, жирного шрифта, курсива.

Правильная внутренняя оптимизация сайта необходима для увеличения его траста в глазах поисковых систем, что положительным образом будет отражаться на позициях и трафике.

Обсуждение: есть 1 комментарий
  1. Григорий:

    Автор — просто кладезь полезной информации. Никогда не думал, что на фактор ранжирования влияет скорость. Нашел столько косяков!….. Буду исправлять, так что сегодня мой вечер занят…Про картинки я знал, и это тоже моя задача. Так что спасибо тебе, добрый человек!))

    Ответить

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *