Уроки компьютерной грамотности

Уроки компьютерной грамотности

» » Группировка поисковых запросов. Группировка ключевых слов Что такое кластеризация запросов

Группировка поисковых запросов. Группировка ключевых слов Что такое кластеризация запросов

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер — Xmind . Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:


Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев — в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector . Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.


Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:


Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].


Все что не собралось, дособираем через wordstat.

Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.


Например, у нас тематика — болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду — это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.


Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку — Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.


Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.


Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый — стоит покопаться, можно найти слова на будущее.

Оранжевый — могут пригодиться, если будем расширять сайт новыми сервисами.

Красный — не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем — какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.


Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.


Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / (AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?

Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем — анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.


У нас открываются все конкуренты.


Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.


Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.


Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.


Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

В сегодняшнем выпуске На Доске про семантику и структуризацию ключевых слов для сайта.

О том, что такое кластеризация семантического ядра. Зачем нужно кластеризировать и как это можно сделать.

Про это рассказывает Олег Шестаков , основатель Rush Analytics .

Видео получилось довольно таки объемным. В нем основные нюансы связанные с кластеризацией.

Переходим к просмотру видео:

Фото с доски:

Важно : Если у вас есть вопросы, то смело задавайте их в комментариях. Олег с удовольствием на них ответит.

Расшифровка видео

1. Что такое кластеризация?

Кластеризация по методу подобия топов - это группировка ключевых слов на основе анализа выдачи поисковых систем. Как это происходит?

  • Берем два запроса, например, «блеск для губ» и «купить блеск для губ».
  • Собираем для каждого из запросов поисковую выдачу, сохраняем 10 url из каждой выдачи и проверяем, есть ли общие url в обеих выдачах.
  • Если есть хотя бы 3-5 (в зависимости от точности кластеризации, которую мы зададим), то эти запросы группируются.

2. Зачем делать кластеризацию?

Почему тренд кластеризации на рынке уже около полутора лет? Почему это важно и как это поможет?

  • Экономия времени. Кластеризация - замечательная технология, которая поможет сократить рутину при работе с группировкой семантического ядра. Если обычный специалист по семантическому ядру разбирает 100 000 ключевых слов, отделяя их на группы, порядка 2-3 недель (а то и больше, если сложная семантика), то кластеризатор может это разделить в порядке очереди примерно за час.
  • Позволяет избежать ошибки продвигать разные запросы на одну страницу. В Яндексе есть классификаторы, которые оценивают коммерческие запросы. Например, выдача по информационным запросам и коммерческим - совершенно разная. Запросы «блеск для губ» и «купить блеск для губ» никогда не получится продвинуть на одну страницу.

1) По первому запросу («блеск для губ») стоят сайты информационной тематики (irecommend, Википедия). Под этот запрос нужна информационная страница.

2) По второму запросу («купить блеск для губ») — коммерческие ресурсы, известные интернет-магазины. Под этот запрос нужна коммерческая страница.

То есть под разные запросы нужны разные типы страниц. Частая ошибка отимизатора - когда он продвигает все вместе на одну страницу. Получается так, что половина семантического ядра выходит в ТОП-10, а вторая половина никак не может туда попасть. Кластеризатор позволяет избежать таких ошибок.

Для того чтобы так не происходило, нужно изначально правильно сгруппировать запросы по типам страниц по выдаче.

3. Как кластеризация помогает в продвижении?

  • скорость обработки данных,
  • классификация страниц, под которые делается продвижение.

Если структура сайта сгруппирована и внутренняя оптимизация сделана правильно, то это уже половина дела, если мы говорим о российском рынке. Под западные рынки, естественно, потребуются ссылки. По нашему опыту, где-то 50-60% запросов при правильной кластеризации и правильной текстовой оптимизации просто выходит в ТОП без какого-либо внешнего вмешательства. Для интернет-магазинов либо классифайдов (агрегаторов и порталов) в принципе даже не нужны и тексты.

Кластеризация - залог правильного ранжирования. На данный момент нет смысла бороться с ранжированием поисковой системы, а проще подстроиться под это ранжирование, войти в нужные типы страниц и успешно продвигаться. Сменить парадигму продвижения какой-то тематики - скорее нереально, чем реально.

4. Какие есть методы кластеризации? (Hard/Soft)

Soft — это то, что было описано ранее. Берется маркерный запрос какой-то категории интернет-магазина, к нему привязываются другие запросы, сравнивается выдача. «купить блеск для губ», «купить блеск для губ в москве», «купить блеск для губ цены» — они имеют с главным запросом 4-5 связей.

Эти запросы привязываются. На этом проверка заканчивается, получается кластер ключевых слов и его можно продвигать.

Но есть тематики более конкурентные, например, пластиковые окна. Здесь нужно проверить, чтобы все запросы, которые были привязаны к главному, могли быть продвинуты друг с другом.

Нужно сравнить, есть ли в выдаче по этим запросам

одинаковый url. Сравниваем выдачу не только с главным запросом, но и между собой. И группируем только те запросы, которые могут быть связаны между собой.

Для большинства случаев хватает Soft кластеризации. Это интернет-магазины (не очень конкурентные категории), информационные ресурсы.

5. Кластеризация в Rush Analytics

У нас есть модуль кластеризации и 3 типа кластеризации:

  • По Wordstat. Самый простой и менее затратный по времени с точки зрения оптимизатора метод. Идеально подойдет для ситуаций, когда мы не знаем о структуре сайта практически ничего.

1) В Excel загружаете в одну колонку ключевые слова, в другую - частотность по Wordstat, и отправляете на кластеризацию.

2) Мы сортируем весь список по убыванию: наверху получаются самые частотные слова (обычно самые короткие).

3) Алгоритм работает так: мы берем первое слово, пробуем привязать к нему все остальные слова, группируем. Все, что привязалось, вырезаем, делаем сортировку заново и опять повторяем эту итерацию.

4) Из списка ключевых слов мы получаем набор кластеров.

По маркерам

Подходит для сайтов, где структура определена. Очень хорошо работает в e-commerce (например, интернет-магазины).

1) Мы знаем маркерный запрос (основной запрос страницы или несколько запросов, под которые она продвигается).

2) Мы берем список ключевых слов, в колонке справа единицами отмечаем маркерные запросы, и нулями - все остальные запросы.

3) Мы берем маркерное ключевое слово и пытаемся привязать к нему остальные ключевые слова и сгруппировать в кластеры. Здесь важно, что в этом алгоритме маркерные слова, которые мы пометили единичками, никогда не будут связаны между собой. Мы не будем пытаться их привязать.

Комбинированная кластеризация

Этот алгоритм совмещает в себе два предыдущих

1) Мы загружаем ключевые слова, отмечаем «маркер/не маркер» и частотность.

2) Привязываем к маркерным запросам все слова, которые мы можем привязать.

3) Берем ключевые слова, которые остались не привязанными, и группируем их между собой по Wordstat.

4) Все остальное откинется в «некластеризованные».

5) В итоге - структура, которую мы уже знаем. Также получится автоматическая кластеризация всех остальных ключевых слов, что поможет нам расширить структуру. Все эти типы кластеризации есть в Rush Analytics .

Какие еще есть инструменты на рынке?

Из достойных, кроме Rush Analytics, можно выделить сервис JustMagic, где есть и Hard и Soft кластеризация. Сервис разработал Алексей Чекушин.

Это все, что вам нужно знать о кластеризации, чтобы начать работу по группировке ключевых слов.

Используйте кластеризацию и экономьте свое время. К тому же, люди часто ошибаются, процент ошибок оптимизатора — порядка 15%. Доверьте рутину роботам - не нужно разбирать это руками.

В небольшом SEO-отделе большого контентного проекта, где я работаю, решили увеличить штат. Набирать планировалось людей с небольшим опытом или совсем без опыта. По этой причине было решено создать некий гайд, который бы служил исчерпывающим руководством по написанию новых статей. Руководство получилось действительно подробным и полным, один из его важных блоков – это кластеризация запросов.

Зачем нужны сервисы кластеризации?

В один кластер должны быть объединены только такие запросы, которые имеют хорошие шансы выйти в топ-10 поисковых систем с общей релевантной страницей. То есть, если по двум запросам в выдаче все страницы сайтов разные и нет пересечений, то следует относить их к разным кластерам. Также и наоборот: если два запроса возможно продвинуть на одной статье, то не следует разносить их на разные кластеры, чтобы не писать лишнего – бюджет на контент не резиновый.


Общая схема составления ТЗ на написание SEO-статьи следующая:

  1. Сбор семантики – статистика поисковых систем, базы семантики, внутренняя статистика проекта;
  2. Кластеризация автоматическая – сервис или программа для кластеризации по подобию топов;
  3. «Посткластеризация» ручная – обработка того что не удалось кластеризовать автоматически;
  4. Приоритезация – определение важности полученных запросов в каждом кластере;
  5. Оформление ТЗ для копирайтера – лемматизация, LSI и различные указания для написания статей, по статье на каждый кластер.

Вот именно для второго пункта нужно было выбрать самый подходящий сервис автоматической кластеризации. Для этой цели я провел сравнительный анализ самых известных, на мой взгляд, сервисов.

Способы кластеризации

Из способов, которые автоматизированы в каких-то известных сервисах или программах, можно выделить два:

  • По подобию топов (по поисковой выдаче);
  • По .
Исходя из задачи – написание SEO-статей, был выбран метод по подобию топов. Поисковая система на трафик с которой мы ориентируемся – Яндекс, поэтому для кластеризации использовался топ-10 Яндекса. У данного метода есть два вида:
  • Soft – когда все запросы кластера связаны хотя бы с одним общим (маркерным) запросом;
  • Hard – когда каждый запрос связан со всеми запросами в своем кластере;
а также такой параметр как «сила связи» – количество общих URL в поисковой выдаче по запросам.

По рекомендациям создателей сервисов кластеризации для нашего случая был выбран вариант Soft с силой связи 4. Это важный момент, потому что для интернет-магазина, например, следовало бы выбирать другие опции.

Методика сравнения

Суть сравнения сервисов в следующем: выбрать идеально кластеризованный список запросов – эталонное ядро. Сравнить результаты кластеризации каждого сервиса с эталонным.


Важно было хорошо составить такое эталонное ядро. Поскольку у нас контентный проект и большая часть контента – это вопросы и ответы пользователей, то материала для сбора статистики по проекту предостаточно.


Было взято ядро на 2500+ ключевых фраз, которое отслеживается уже много месяцев. Из него выбраны только запросы вышедшие в топ-5 Яндекса. И из них взяты только те которые имеют релевантной страницу одного из широких разделов (категория вопроса, тема вопроса, категория документа, страница с формой «задать вопрос»), а не узкую страницу вопроса с ответами. Запросы были сгруппированы по релевантной странице. Оставлены только группы в которых более чем 4 запроса. В итоге получилось 292 запроса разбитых на 22 кластера.


Забегая вперед скажу, что сравнивались результаты кластеризации по Московской выдаче Яндекса и без геопривязки. Региональная московская выдача показала себя лучше, поэтому далее будем говорить про нее.

Сравнение сервисов

В поиске самых популярных сервисов очень помог доклад Александра Ожгибесова на BDD-2017, к тем, что у него было добавлено еще несколько сервисов, получился такой список:

  1. Топвизор
  2. Pixelplus
  3. Serpstat
  4. Rush Analytics
  5. Just Magic
  6. Key Collector
  7. MindSerp
  8. Semparser
  9. KeyAssort
  10. coolakov.ru

Первое на что проверялись полученные в результате кластеризации эталонного ядра по этим сервисам группы – это не делает ли сервис слишком широкие группы. А именно не попали ли запросы из разных групп эталонного ядра в один кластер по версии сервиса.


Но только такого сравнения не достаточно. Сервисы делятся на два подхода к некластеризованному остатку фраз:

  • сделать для них общую группу «Некластеризованные»;
  • сделать для каждой некластеризованной фразы группу из нее одной.
По причине п.2 появилась необходимость смотреть на количество фраз, которые находятся в одной группе эталонного ядра и попали в разные по сервисам.

В сравнении я использовал оба этих параметра в виде соотношения – какой процент фраз от общего количества попал не в свою группу.


Результаты сравнения:

  • Топвизор
    • разные группы эталона в одной по сервису – 4%
  • Pixelplus
    • одна группа эталона в разных по сервису – 7%
  • Serpstat
    • разные группы эталона в одной по сервису – 0%
  • Rush Analytics (132 фразы, demo)
    • разные группы эталона в одной по сервису – 11%
    • одна группа эталона в разных по сервису – 8%
  • Just Magic
    • разные группы эталона в одной по сервису – 0%
    • одна группа эталона в разных по сервису – 9%
  • Key Collector
    • разные группы эталона в одной по сервису – 12%
    • одна группа эталона в разных по сервису – 16%
  • MindSerp – не удалось получить демо, не выходят на связь
  • Semparser
    • одна группа эталона в разных по сервису – 3%
  • KeyAssort
    • разные группы эталона в одной по сервису – 1%
    • одна группа эталона в разных по сервису – 1%
  • coolakov.ru
    • разные группы эталона в одной по сервису – 0%
    • одна группа эталона в разных по сервису – 18%

Итоги

В качестве оптимального решения для нашего проекта была выбрана программа KeyAssort – это именно программа, а не онлайн-сервис, лицензия покупается однократно, привязывается к железу.


Неплохие результаты показал популярный онлайн сервис Serpstat, но для нашего случая чуть хуже, а также значительно дороже. Если брать большие объемы запросов в месяц и использовать его только для кластеризации – он не рентабелен. Возможно, если использовать кластеризатор вместе с другими его инструментами, то он и окажется приемлемым по цене.


Самые худшие показатели у программы Key Collector, что все равно не отменяет необходимость ее иметь в своем арсенале для любого сеошника.


Очень удивил сервис MindSerp, через сайт которого я так и не смог получить никакой обратной связи по поводу демо. Если представители этого сервиса прочитают статью, может быть я добавлю в сравнение и его)

Теги: Добавить метки

Это группировка ключевых слов, которые идут просто списком, разделение их на кластеры (группы). Это то, что превращает тысячу ваших запросов в полноценную структуру, разбитую на категории, страницы, статьи и т.д. Без правильной разбивки вы будете тратить много денег и времени в "холостую", так как некоторые запросы не могут быть "посажены" на одну страницу. Либо наоборот, ключевые слова требуют, чтобы данные запросы были на одном URL.

При сборе семантического ядра (СЯ) я обычно делаю кластеризацию руками, с помощью , вот ссылки по теме:

Но все это легко и просто, когда у нас есть четкие группы запросов по разному логическому смыслу. Мы прекрасно знаем, что для запроса "Коляска для близнецов" и "Коляска для мальчика" должны существовать разные посадочные страницы.

Но бывают запросы, которые разделяются между собой не совсем явно и тяжело "по ощущениям" определить, какие запросы нужно сажать на одну страницу, а какие запросы раскидывать по разным посадочным URL.

Один из участников моего SEO марафона задал мне вопрос: "Петя, как быть с этими ключами: сажать все на одну страницу, создавать несколько, если да, то сколько?" А вот и сам отрывок из списка ключевых слов:

Одно только слово "java" использует в трех вариациях ("ява", "джава"), плюс ко всему этому народ ищет его для разных игр, устройств и т.д. Запросов там очень много и реально тяжело понять, как все-таки лучше поступить.

Как вы думаете, как правильно? Верно. Лучше всего подойдет анализ конкурентов, которые уже находятся в ТОПе по данным ключевым словам. Сегодня я расскажу вам, как можно сделать кластеризацию семантического ядра на основе данных у конкурентов.

Если у вас уже есть готовый список ключевых слов для кластеризации, вы можете сразу переходить к 4-му пункту.

1. Матрица запросов

Возьму еще другой пример: есть у меня один клиент с интернет-магазином электро- и светотехники. У магазина очень большое количество товаров (несколько десятков тысяч).

Конечно, у любого магазина есть товары, которые наиболее приоритетны для продажи. У этих товаров может быть высокая маржинальность, либо просто нужно избавиться от данного товара со склада. Так вот, пришло мне письмо, что-то вроде этого "Петя, вот список товаров, которые интересны нам". И там списком было перечислено:

  • выключатели;
  • светильники;
  • лампы;
  • прожекторы;
  • удлинители;
  • и еще несколько пунктов.

Я попросил составить так называемую "матрицу запросов". Так как владельцы магазина лучше меня знают свой ассортимент, мне нужно было собрать весь товар и основные характеристики/отличия у каждого товара.

Получилось что-то вроде этого:

При составлении матрицы, не забываем, что некоторые англоязычные бренды запрашиваются и на русском, это нужно учесть и их добавить.

Конечно, если у товара были еще и другие характеристики добавлялся столбец. Это могут быть "Цвет", "Материал" и т.д.

И такая работа была проделана для самых приоритетных товаров.

2. Перемножение запросов

Для перемножения запросов существуют много сервисов и программ. Я воспользовался этим генератором ключевых фраз http://key-cleaner.ru/KeyGenerator , вбиваем туда все наши запросы по столбцам:

Сервис перемножил всевозможные варианты со словом удлинитель. Важно: многие генераторы перемножают только подряд идущие столбцы, то есть 1 столбец со вторым, потом первые два с третьим и т.д. А этот перемножает все подряд из первого столбца с другими: первый со вторым, потом первый с третьим, четвертым; далее первый*второй*третий, первый*второй*четвертый и т.д. То есть мы получаем максимальное количество фраз с содержанием основного слова в первом столбце (это так называемый маркер).

Маркер - это основная фраза, от которого нужно генерировать ключ. Без маркера невозможно создать адекватный ключевой запрос. Нам не нужны фразы "иэк оптом", или "на катушке купить".

При перемножении важно, чтобы в каждом ключевом словосочетании был этот маркер. В нашем примере - это фраза "удлинитель". В итоге сгенерировалось в данном примере 1439 (!) уникальных ключевых фраз:

3. Очистка запросов от "мусора"

Теперь есть 2 варианта развития событий. Можно заняться кластеризацией всех этих запросов и насосоздавать огромное количество сгенерированных страниц под каждый кластер, если позволяет это сделать система вашего сайта. Конечно, у каждой страницы должны быть свои уникальные метатеги, h1 и т.д. Да и проблемно иногда подобные типы страниц засовывать в индекс.

У нас же подобной возможности в техническом плане не было, поэтому мы даже не рассматривали данный вариант. Нужно было в "полуручном" режиме создавать только самые необходимые новые посадочные страницы.

С каким типом частотности работать? Так как у нас список товаров + пересечений встречались не очень популярные (узконаправленные), я делал акцент на частотности с кавычками (без восклицательных знаков) - то есть в различных словоформах. Это ключевые фразы в разном падеже, числе, роде, склонении. Именно этот показатель позволяет более менее оценить трафик, который мы сможем получить из Яндекса в случае попадания в ТОП.

Снимаем в Key Collector частотности в кавычках у данных фраз (конечно, если у вас сезонный товар, то нужно снять частотности в "сезон"):

И удаляем все то, что равно нулю. Если у вас более популярная тематика и очень много слов с ненулевой частотностью, вы можете увеличить нижний порог до 5, или еще выше. У меня же ненулевых запросов из 1439 фраз осталось всего 43 по региону Москва и область.

Эти 43 фразы с данными частотностей я переношу в Excel:

4. Кластеризация запросов

Все это я делаю в Rush Analytics , вот алгоритм кластеризации в данном сервисе:

Под каждый запрос "выдергивается" из выдачи ТОП-10 URL по заданному региону. Далее по общим URL происходит кластеризация. Точность кластеризации можно задать самому (от 3-х до 8 общих url).

Допустим мы выставили точность 3. Система запоминает URL страниц, которые в ТОП-10 по первому запросу. Если по второму запросу из списка в ТОП-10 встречаются те же 3 URL, которые были у первого, то эти два запроса попадут у нас в 1 кластер. Количество общих URL зависит от заданной нами точности. И такая обработка происходит с каждым запросом. В итоге ключевые слова разбиваются на кластеры.

  1. Заходим в RushAnalytics -> Кластеризация, создаем новый проект (при регистрации каждый получает 200 рублей на счет для тестирования, удобно):
  2. Выбираем приоритетную поисковую систему для нас и регион:

  3. Выбираете тип кластеризации. Я выбираю в данном случае "Wordstat". Метод "Ручные маркеры" мне не подходит, так как в запросах только один маркер "удлинитель". Если же вы загружаете сразу несколько разных типов товаров (пример, удлинитель, лампочка и т.д.), то тогда вам лучше выбрать тип "Wordstat + ручные маркеры" и указать маркеры (маркеры нужно будет отметить цифрой 1 во втором столбце, а не маркеры цифрой 0, частотность уйдет в третий столбец). Маркерами будут самые основные запросы, которые логически никак не связываются между собой (не может "посадиться" запрос "удлинитель" и "лампочка" на одну страницу). В моем случае я работаю поэтапно с каждым товаром и создавал отдельные кампании для удобства. Также выбираете точность кластеризации. Если пока не знаете какой метод выбрать, можно отметить все (на цену это не повлияет никак), а дальше уже после получения результата сможете выбрать тот вариант, который лучше всего откластеризовал ваши запросы. По опыту скажу, что самый подходящий во всех тематиках - это точность = 5. Если вы делаете кластеризацию для уже существующего сайта, я рекомендую вам вбить URL вашего сайта (если ваш сайт будет в ТОП-10 по запросу, то ваш URL выделится зеленым в полученным файле):

  4. В следующем шаге загружаете файл в систему. Также можно настроить стоп-слова, у меня же файл был без них, поэтому данная функция не нужна в данном примере. Цена кластеризации - 50-30 копеек за 1 запрос (зависит от объема):
  5. Нужно будет немного подождать пока сервис Rush Analytics выполнит свою работу. Заходите в завершенный проект. Уже там можете просмотреть кластеры исходя из точности кластеризации (жирным выделено начало нового кластера и его название):
  6. Повторюсь, лучше всего использовать точность 5 для кластеризации. Он чаще всего подходит.
  7. Также в соседней вкладке можно увидеть список некластеризованных слов:

    Вы спросите, почему они не кластеризовались? Скорей всего по данным запросам выдача не очень качественная и невозможно было в автоматическом режиме отнести данные запросы к какому-нибудь кластеру. Что с ними делать? Можно кластеризовать вручную и создать отдельные посадочные страницы по логике, если это возможно. Можно даже для одного запроса создать отдельный кластер и "посадить" его на отдельную страницу. Либо же можете расширить список слов и заново произвести кластеризацию в сервисе Rush Analytics.
  8. Во вкладке "Лидеры тематики" можно увидеть ТОПовые домены по данным запросам:

  9. Кстати, в некоторых запросах вы можете увидеть вот такие пальчики вверх, выделенные "зеленым":
    Это означает что по данным запросам, у вас уже есть посадочная страница для данного кластера в ТОП-10 и нужно работать над ней.
  10. Все это дело можно скачать себе на компьютер в Excel и работать уже в данном документе. Я работаю с точностью 5, поэтому скачиваю этот файл:

  11. В Excel документе та же самая информация. Серым выделено начало каждого кластера и его название (кликните по изображению, чтобы увеличить):

  12. Помимо названия кластеров, здесь вы увидите их размеры, частотности, суммарные частотности, Top URL, релевантный URL и подсветки, что очень нужно при работе над посадочной страницей. Вот они:

    Обратите внимание, что бренд "Юниверсал" (через "Ю") тоже подсвечивается, а я даже не подозревал, что данный бренд можно прописывать итак. В подсветках также вы увидите синонимы и тематические фразы, которые крайне желательно использовать на посадочных страницах для достижения ТОПа.

Заключение

Что же дальше? Что нам даст эта кластеризация? Теперь под каждый кластер у нас на сайте должен быть отдельный, а главное релевантный url. Продвижение этих страниц полностью в наших руках и продвигаем дальше так, как умеем (оптимизация контента, внутренняя перелинковка, внешняя оптимизация, социальные факторы и т.д.).

Если же мы бы сделали неправильную кластеризацию, то очень много запросов тяжело было бы продвинуть. Это было бы "якорем", который сдерживал бы нас, несмотря на то, что мы тратили бы кучу денег на продвижение этих страниц.

Правильная кластеризация поможет вам прилично сэкономить и существенно облегчит попадение в заветный ТОП.

Что вы думаете по этому поводу? А как вы делаете кластеризацию запросов семантического ядра?

Добрый день, уважаемые читатели! Все мы знаем, что сбор поисковых запросов — это фундамент для успешной seo-раскрутки любого веб-ресурса в Яндексе и Гугле. Но как показывает практика, этот этап поискового продвижения у многих не очень получается. Поэтому на своих «Записках» я периодически выдаю практические материалы на эту тему. Сейчас поговорим о том, как проводить грамотную кластеризацию семантического сайта или блога своими руками. В статье Вы поймете важность этого процесса, увидите варианты его выполнения, узнаете способы группировки ключевых слов.

  1. Первым делом мы формируем — словосочетаний, которые затем лягут в основу будущих ключевых слов.
  2. На этапе парсинга мы получаем весь пул поисковых запросов по нашей теме, .
  3. С помощью найденных параметров , вычищаем будущее семантическое ядро.
  4. Имея список всех найденных ключевиков сайта наступает этап их распределения по страницам нашего веб-ресурса.

Кластеризация ключевых слов сайта

Именно последний шаг в создании семантического ядра вызывает много вопросов. Дело в том, что первые этапы (кроме первого) более менее автоматизированы. Не нужно много усилий, чтобы провести сбор запросов и сделать их анализ. А вот этап группировки ключевых слов требует от веб-мастера максимум временных и умственных затрат. Поэтому и возникают различные ошибки. Наша с Вами задача — их не допустить!

Что такое группировка ключевых слов

Группировка (или кластеризация) ключевых слов — это процесс распределения поисковых запросов одной тематики (группа запросов) для продвижения одной страницы. Почему одной? Ответ Вы найдете в моем практическом .

Другими словами, с помощью этого этапа найденные словосочетания формируем в отдельные смысловые группы. Каждая группа внедряется только на свою продвигаемую страницу и решает одну задачу (общую для всех запросов этой группы):

  • дает ответ на вопрос пользователя из поисковых систем (блоги, инфо-сайты);
  • предлагает коммерческие данные по конкретным товарам (интернет-магазины);
  • выдает информацию по услуге (коммерческие сайты, специализированные порталы).

Таким образом, все запросы группы соответствуют главной теме конкретной целевой страницы. Все они раскрывают цель конкретного документа сайта с той или иной стороны.

Более детально о понятии кластеризации семантического ядра Вы можете изучить . В нем Вы найдете историю появления этого вида seo-работы, увидите наглядный пример по группировке запросов.

Еще под кластеризацией поисковых запросов понимается автоматизированный сбор фраз путем взаимодействия сервиса со страницами в поисковых выдачах. Об этом я подробнее расскажу, когда речь пойдет об одноименной услуге Топвизора.

Что дает грамотная кластеризация ключей для сайта

Каждая найденная группа запросов — это не только ключевики для контента целевой страницы. Понятное дело, что их нужно внедрить в документ сайта (информационный пост блога, карточка товара интернет-магазина и т.д.). Кроме этого кластеризация запросов позволяет получить:

  • видение будущей полноценной структуры нового сайта (или старого);
  • путеводитель по темам, которые интересны пользователям из поиска;
  • понимание текущего спроса на товары/услуги в конкретной нише;
  • план seo-продвижения (какой контент формировать в первую очередь);
  • материал, из которого видны запросы для оптимизации страницы.

Поясню один важный момент. Кластеризация в группы дает колоссальную возможность использовать все ресурсы для привлечения максимального поискового трафика! Не делая группировку поисковых запросов, мы тем самым отсекаем свой сайт от освящения тем, которые нужны пользователям из Яндекса и Гугла.

Что сулит неправильное распределение ключевиков

Итак, не имея распределенных групп по большой теме, владелец веб-ресурса не видит полноту всей картины продвижения. Это самая большая проблема, которая возникает при игнорировании этапа кластеризации (или ее неполноценного совершения).

Но даже наличие этого шага в Вашем плане продвижения не может гарантировать Вам достижения всех назначенных seo-задач. Это может произойти из-за ошибок, которые возникают при группировке запросов на целевые страницы. Вот проблемы, которые дает неправильное распределение ключевых слов:

  • появление дублей в индексах поисковых систем (за счет каннибализации);
  • потеря или не получение мест в первой десятке поисковой выдачи;
  • потеря денег, затраченных на формирование «лишнего» контента;
  • ухудшение поведенческих факторов, не достижение поставленных целей.

Как говорил один известный киношный персонаж «Картина маслом». По-другому тут и не скажешь. В современном поисковом продвижении нельзя делать «чуть-чуть» или оставлять что-то на потом. Все нужно выполнять вовремя и со смыслом. Кластеризация семантического ядра — это тот этап, после которого на скелет сайта нанизывается «мясо» (контент). И здесь любая ошибка превращает seo-раскрутку сайта в настоящий апокалипсис. Проблемы возникают там, где их не ждут.

Способы группировки семантического ядра

Для формирования групп ключевых слов семантики сайта используют ручной и/или автоматизированный способы. Первый самый рутинный и сложный. Зато самый надежный — нет лучшего проверяльщика и корректора, чем человек.

Ручной способ очень трудоемок. Одно дело, распределить 500 запросов на ряд статей новой темы. Другое дело, когда нужно просканировать 10 000 ключевиков и сформировать из них подобающие группы. Тут нужна выдержка и терпение.

Автоматизированный способ почти всю рутину берет на себя — вебмастеру или специалисту остается только проверить результат кластеризации. Но зато возникают другие сложности — часть запросов стоит не в своих группах, логика распределения может отличаться от той, которую представляет себе человек.

Чтобы как-то нивелировать иногда «туповатую» логику машины, используется полуавтоматический способ распределения СЯ сайта. В этом случае специалист заранее формирует общие группы согласно найденным запросам. А автоматика распределяет запросы уже в самих этих группах. Таким образом ошибок распределения намного меньше.

Теперь рассмотрим каждый способ кластеризации семантического ядра, используя самые лучшие инструменты (на мой взгляд, конечно).

Автоматизированный способ группировки СЯ сайта

Автоматических вариантов кластеризации поисковых фраз в настоящее время существует очень много. Все они отличаются интерфейсом, даже есть отличия в самом процессе распределения. Более детально о современных инструментах группировки СЯ веб-ресурса можно узнать в обзорной статье Александра Алаева . Я же разберу только два варианта, которыми пользуюсь сам и считаю их самыми лучшими.

Анализ групп в программе Key Collector

Key Collector — это самый лучший софт для создания семантического ядра. Разумеется, у него есть и свой способ распределения запросов — инструмент «Анализ групп». Он позволяет разбить все найденные поисковые запросы. Вот схема работы с ним.

Выбираем инструмент «Анализ групп»

Допустим, нам необходимо сделать распределение спарсенных запросов по теме камер видеонаблюдения. Для этого нажимаем соответствующую иконку на панели управления во вкладке «Данные»:

В открывшемся окне необходимо выбрать режим кластеризации. У программы Key Collector есть несколько таких режимов:

  • по отдельным словам
  • по составу фраз
  • по поисковой выдаче
  • по составу фраз и поисковой выдаче

Первый вариант служит для очень тонкой настройки — он группирует те запросы, у которых совпадает хотя бы одно слово. Например, поисковые фразы «видеокамеры Минск купить» и «видеосалоны Минск» софт включил бы в одну группу.

Второй вариант учитывает строение найденных поисковых фраз и числа их совпадений (за это отвечает элемент «Сила по составу»). Отличный способ для кластеризации большого числа запросов.

Режим группировки «по поисковой выдаче» объединяет ключевики по числу совпадений ссылок в поисковой выдаче между фразами. Работает только в том случае, если в Key Collector по сайту сняты данные о поисковой выдаче («Составляющие KEI»). Здесь также есть сила группировки, отвечающая за степень связи между фразами.

Последний способ распределения запросов является комбинацией 2-го и 3-го, степень важности которых выбирается по специальному ползунку.

Проводим группировку запросов

По своему опыту скажу, что для большинства случаев подойдет именно второй вариант группировки. Его и рассмотрим подробнее. Для примера я взял тему камер видеонаблюдения. Выбрав тип группировки, указываем ее силу. Рекомендую ставить цифру 2 или 3. В моем случае мне подошло первое значение. В итоге я получил 434 группы с 1789 полезными фразами:

Если бы я взял большее число, то уже привязка была бы немного другой и число групп бы уменьшилось. А именно, стало равным 298, причем количество полезных фраз по нашему условию тоже уменьшилось — 1207.

Посмотрим, какие в итоге группы получились в первом случае с силой по составу равной 2. Для этого я экспортирую сделанную группировку в таблицу Excel. Вот отрывок экспортированной таблицы:

Как видим, в целом Key Collector смог сделать хорошее распределение найденных поисковых запросов. Но все же обточить напильником эту табличку не помешает — есть некоторые группы и отдельные слова, которые находятся не на своем месте.

Кластеризация запросов в сервисе Топвизор

Итак, запросы уже найдены (их также можно было импортировать):

Осталось заняться их группировкой. Для этого нажимаем специальный значок на панели инструментов Топвизора и выбираем нужные настройки:

Если выбор поисковика и региона (обязательно!) не сложен, то указание степени группировки может вызвать вопросы. Поясню, что это за зверь такой.

Степень группировки — это число адресов страниц, которые будут браться за проверку схожести наших запросов для одной или другой группы. Например, если этот параметр равен 3-м, то имея ряд поисковых фраз для группировки, каждая из них будет проверяться только по 3-м страницам в выдаче, а не по всему топу сразу. В принципе, этого бывает достаточно, чтобы увидеть структуру семантического ядра (группы запросов) в целом. Если же необходимо иметь более точные группы, выбираем цифру 8 или 9.

Итак, по истечении десяти минут получаем готовый результат кластеризации нашего семантического ядра:

В итоге Топвизор смог распределить 3181 найденных запросов по 514-ти группам. Причем одна группа, последняя, называется «Запросы без связей» и содержит фразы, которым не нашлось соответствия в топе:

Если данный результат нас не устраивает, мы может сразу же сделать перегруппировку — достаточно нажать на ту же кнопку в панели управления. Кстати, перегруппировка будет стоит копейки (похоже, Топвизор сразу делает группировку на большое значение, поэтому материальных и временных затрат на перераспределение просит немного):

В итоге после новой группировки мы получаем другое число групп (меньшее, чем в прошлый раз) и количество в них фраз. Они более детальны, но зато и число не попавших в эти группы запросов («Запросы без связей») заметно выросло.

Для конечной работы с кластеризованным семантическим ядром можно сделать экспортирование запросов в таблицу Excel или текстовый файл. Вот как в итоге выглядит таблица с указанием названия группы:

В целом Топвизор выполняет на отлично свою работу по распределению семантического ядра. Хороший инструмент для тех, кто не может тратить свое время на сбор запросов в программе Key Collector. Но, правда, дороговатый.

Кластеризация запросов в сервисе Serpstat

Еще один дельный вариант автоматической кластеризации есть у популярного сервиса Serpstat . Но в отличие от Топвизора, данная seo-платформа смогла разработать свою уникальную технологию группировки запросов. Делается она следующим образом.

Заходим в своем аккаунте в инструмент «Кластеризация и текстовая аналитика»:

Нажав кнопку «Создать проект», проходим по циклу шагов, указывая в соответствующих графах необходимые данные по проекту. Возьмем в качестве примера задачу группировки запросов для моего seo-блога по теме «семантическое ядро».

Сначала проходим шаг 1, указывая название проекта и адрес домена:

Затем в инструмент кластеризации Серпстата добавляем поисковые запросы. Это можно сделать как вручную, так и с помощью загружаемого списка в формате txt или csv:

И теперь остается самый ответственный шаг — выбрать схему, по которой будет происходить группировка указанных нами запросов. Для этого указываем силу связи и вариант кластеризации:

Seo-платформа Serpstat для кластеризации изучает все фразы, которые вошли в проект. И для грамотной группировки сервис по этим словосочетаниям изучает их пересечение в поисковых выдачах указанных нами поисковиков!

Более детальную схему кластеризации Серпстата можете самостоятельно изучить в этой статье блога сервиса .

Дав последние указания, Serpstat начинает группировку. После обработки всех данных, мы получаем набор запросов, фразы которых сгруппированы по своему одинаковому признаку. Вот кусочек сделанного в моем примере распределения запросов по теме «семантическое ядро» (картинка кликабельна!!!):

Ручной способ распределения семантического ядра

Ручным способом я называю такой вариант кластеризации ядра, при котором мы самостоятельно указываем группы, наводим порядок в них, формируем структуру СЯ самостоятельно. Конечно, без специальных программ здесь не обошлось. Вернее, без одной — Excel.

Распределение запросов с помощью программы Excel

Здесь все просто — выгружаем уже собранные и отредактированные поисковые запросы и ручками формируем группы и перекидываем в них подходящие фразы.

Подробно об этом варианте кластеризации я расписал в . Там я даю 3 способа группировки, выбирайте свой и дерзайте. Я лично их комбинирую в зависимости от ситуаций.

Кластеризация ключевых слов с помощью файла «Ядро»

Данный вариант отличается от предыдущего тем, что здесь уже мы перекидываем фразы благодаря умному скрипту «Ядро», сделанному в Excel. Все остальное проделывается тоже своими руками.

Скрипт «Ядро» сделали ребята из MFC (Made for content) для облегчения задачи распределения ключевиков. За основу они взяли наработку seo-специалиста Сергея Кокшарова, который и придумал вариант с Excel. Давайте посмотрим, как работает этот макрос. Для этого я воспользуюсь видеороликом ребят из MFC:

В общем, все понятно. Ничего сложного здесь нет. Поэтому, если у Вас нет возможности использовать программу Key Collector, а семантических ядер для распределения у Вас много, используйте скрипт «Ядро» (погуглите). Даже если Вы делаете кластеризацию редко для своего сайта или блога, данный макрос лишним не будет. По крайней мере с него стоит начинать, а уже потом допиливать группировку первым ручным способом.

Да, забыл самое важное сказать про файл «Ядро» — он бесплатен!

Бонус — мой способ класетризации запросов

Его я называю полуавтоматическим — роль человека здесь важна в самом начале и в конце. Его я отразил в специальной seo-шпаргалке, забирайте ее и смело используйте:

Скажу только, что в его основу легла работа с правильным поиском списка масок, использования софта Key Collector и обычная логика.

На этом мой небольшой ликбез по кластеризации поисковых фраз семантического ядра закончен. Если есть вопросы или пожелания, милости прошу в комментариум!

Где можно заказать отличное семантическое ядро?

Кстати, если Вы планируете собрать семантическое ядро для своего проекта, можете заказать семантику, обратившись . Спасибо!

С уважением, Ваш Максим Довженко