Алгоритм BERT от Google начал «выкатываться» в октябре 2019 года. Google BERT, что расшифровывается как Bidirectional Encoder Representations from Transformers, помогает Google понимать поисковые запросы на естественном языке.
Он делает это, понимая тонкие изменения в значении слов в зависимости от контекста и места их появления в предложении.
Что такое алгоритм BERT от Google?
Компания Google заявила, что BERT является крупнейшим достижением в алгоритмах поиска за последние пять лет и «одним из самых больших скачков вперед в истории поиска«.
BERT расшифровывается как «двунаправленные кодирующие представления из трансформеров». Это алгоритм глубокого обучения, использующий обработку естественного языка (NLP). Он анализирует особенности естественного языка, такие как:
- распознавание сущностей;
- разметка части речи;
- вопрос-ответ.
Что делает алгоритм BERT?
Первое, что необходимо отметить, это то, что в отличие от предыдущих обновлений, таких как Panda и Penguin, BERT не предназначен для пессимизации сайтов.
Скорее, он помогает Google понять намерения пользователя. Действительно, в центре внимания BERT находится не содержание, а понимание поисковых запросов.
BERT помогает Google лучше понять значение слов в поисковом запросе, обращая внимание на контекст и порядок слов в поисковом запросе.
BERT является двунаправленным
В отличие от предыдущих лингвистических алгоритмов, BERT использует двунаправленную модель, что позволяет ему лучше понимать контекст, предоставляемый окружающими словами. Рони Хорев объясняет это следующим образом:
В отличие от направленных моделей, которые считывают входной текст последовательно (слева направо или справа налево), кодер Transformer считывает всю последовательность слов сразу. Поэтому он считается двунаправленным, хотя точнее было бы сказать, что он ненаправленный. Эта функция позволяет модели узнать контекст слова на основе всего его окружения (слева и справа от слова).
Rani Horev // Towards Data Science
Если предыдущие алгоритмы, как правило, рассматривали запросы как «набор слов» без определенного порядка, то алгоритм Google BERT очень внимательно изучает порядок слов в запросе.
Это помогает ему понять смысл запроса.
BERT и «стоп-слова»
Если вы некоторое время занимались оптимизацией своих веб-страниц, вы, вероятно, сталкивались с концепцией, что «стоп-слова» не важны для SEO. К стоп-словам относятся такие предлоги, как «до», «от», «в» и так далее.
С появлением BERT стоп-слова вдруг стали очень важны. Вместо того чтобы отбрасывать их из анализа смысла поискового запроса, BERT теперь будет очень внимательно изучать предлоги и места их появления в поисковом запросе.
Google приводит следующий пример:
До выхода BERT запрос: «можно ли получить лекарство для кого-то в аптеке» привел бы к общей информации о том, что в аптеке, как правило, нужно предъявлять рецепты на лекарства.
Но алгоритм BERT уделяет особое внимание предлогу «для». Теперь Google понимает, что вы спрашиваете, а именно, может ли покупатель приобрести лекарство в аптеке для другого человека. И все из-за этого небольшого предлога «для».
Вот еще один пример:
До появления BERT поисковый запрос «бразильскому путешественнику в сша нужна виза» выдавал информацию для граждан США, путешествующих в Бразилию. Google проигнорировал бы предлог «в».
Но с помощью BERT компания Google понимает, что поисковик хочет получить информацию о визовых требованиях для бразильцев, отправляющихся в США. Опять же, это связано с предлогом в запросе.
Какое влияние оказывает BERT на SEO?
Компания Google заявила, что в настоящее время BERT попадает в 1 из 10 англоязычных поисковых запросов в США. Очевидно, что 10% всех поисковых запросов оказывают значительное влияние.
Но поскольку BERT действует для длиннохвостых ключевых слов (как правило НЧ запросов — то есть запросов в основном состоящих не менее чем из 4 слов), а не для 1-2-3 словников (ВЧ и СЧ запросов), его эффект, не ощущается в конкурентных сегментах рынка, где многие хотят быть в топе именно по ВЧ и СЧ запросам.
Алгоритм BERT от Google оказывает сейчас сильное влияние на поисковые запросы, в которых предлоги являются ключом к пониманию того, что ищет пользователь.
Это означает, что BERT оказывает влияние, в частности, на два типа поисковых запросов:
- запросы с длинным хвостом, содержащие обычно четыре, пять или более слов (в отличие от коротких поисковых запросов, состоящих из одного, двух или трех слов);
- разговорные поисковые запросы.
Поскольку BERT работает со сложными поисковыми запросами, то он сделал более доступным подробный контент.
Таким образом, веб-сайты с длинным контентом, таким как руководства, учебники и статьи — больше всего выигрывают от BERT.
Можете ли вы оптимизировать для BERT?
Дэнни Салливан из Google сказал, что нет ничего, для чего можно было бы оптимизировать с помощью BERT:
Для BERT не нужно ничего оптимизировать, и никому не нужно ничего переделывать. Наше стремление вознаграждать качественный контент остается неизменными (28 октября 2019 г.)
DANNY SULLIVAN (SEARCH LIAISON, GOOGLE)
В алгоритме BERT (как и в алгоритме RankBrain) чем естественнее ваш контент, тем лучше он будет ранжироваться.
Ключевая, на мой взгляд, мысль состоит в том, что вы не можете оптимизировать эту «естественность» — чем больше вы пытаетесь оптимизировать контент, тем менее естественным он становится.
Фактически, единственный способ оптимизировать контент для алгоритма Google BERT — это полностью отказаться от всяческой оптимизации текста и вместо этого писать с «головы» что называется «для людей».
Заключение
- Алгоритм Google BERT — это один из примеров того, как машинное обучение меняет облик органического поиска.
- По мере продвижения к виртуальным помощникам и мобильному поиску для Google становится все более важным понимать разговорные поисковые запросы.
- Алгоритм BERT отражает растущее внимание Google к обработке естественного языка (NLP).