Key collector ключи буквы алфавита. Автоматическое составления семантического ядра по URL

Настройка Bluetooth 01.04.2020
Настройка Bluetooth

Всем-всем привет!

Как только Вы создали аккаунт, можете переходить к инструкции ниже:

Отлично! Key Collector успешно настроен, а значит можно переходить непосредственно к составлению семантического ядра.

Составление семантического ядра в Key Collector

Перед тем, как начать сбор ключевых фраз для Яндекс.Директ, рекомендую почитать , в нем Вы найдете массу полезной информации по поводу ключевых фраз (только для новичков). Прочитали? Посмотрите еще пример сбора семантического ядра для ремонта бытовой техники:

Тогда Вам не составит труда собрать маски ключевых фраз, которые очень нужны для парсинга через Key Collector.

  1. В обязательном порядке укажите регион сбора ключевых слов:
  2. Нажмите на кнопку “Пакетный сбор слов из левой колонки Yandex.Wordstat”:
  3. Впишите маски ключевых фраз и распределите по группам:Такой получится результат. Нажмите “Начать сбор”:Делается это для удобства обработки ключевых фраз. Так запросы не будут смешаны в одной группе и Вам будет гораздо проще обрабатывать их;
  4. Дождитесь окончания сбора ключевых фраз. Как только процесс будет закончен, можете собрать точную частотность запросов, а также узнать примерную стоимость клика по объявлению, примерное количество показов объявления, примерный бюджет и количество конкурентов по определенному запросу. Все это можно узнать с помощью одной единственной кнопочки “Сбор статистики Yandex.Direct” (ее мы добавили в панель быстрого доступа):
    Поставьте все галочки в соответствии со скриншотом выше и нажмите “Получить данные”;
  5. Дождитесь окончания процесса и просмотрите результаты. Для того, чтобы это было удобно делать, нажмите на кнопку автонастройки колонки, которая оставляет видимыми только те колонки, в которых присутствуют данные:
    Те статистические данные, которые сейчас у нас собирались, нам нужны для того, чтобы проанализировать конкурентную ситуацию по каждой ключевой фразе и прикинуть примерные затраты на рекламу по ним;
  6. Далее воспользуемся таким крутейшим и удобнейшим инструментом Key Collector’а, как “Анализ групп”. Мы его добавили в панель быстрого доступа, поэтому просто перейдите к нему оттуда:
    Key Collector сгруппирует все ключевые фразы по словам и нам будет удобно обрабатывать каждую группу запросов. Ваша задача: просмотрите весь список групп; найдите группы запросов, содержащие не целевые слова, то есть минус-слова и добавьте их в соответствующий список; отметьте эти группы запросов, чтобы потом их удалить. Добавить слово в список можно нажав на маленькую синюю кнопку:Затем появиться небольшое окошко, где нужно выбрать список минус-слов (список 1(-)) и нажать на кнопку “Добавить в стоп-слова”:Таким образом прорабатываете весь список. Не забывайте отмечать группы с нецелевыми словами. Ключевые фразы автоматически отмечаются и в таблице поисковых запросов;
  7. Затем необходимо удалить отмеченные нецелевые фразы в таблице поисковых запросов. Делается это нажатием кнопки “Удалить фразы”:
  8. Продолжаем обрабатывать фразы. Как Вы помните, в Яндекс Директ в начале 2017 года появился статус “Мало показов” (с ним мы разбирались ), и чтобы избежать этого статуса необходимо выделить запросы с низкой частотностью (НЧ-запросы) в отдельную группу. Для начала применяем фильтр к столбцу “Базовая частотность”:
    Параметры фильтра: Базовая частотность , меньше или равно 10. Эти параметры фильтра я выставил исходя из региона показов – Ижевск:
    Затем отмечаем все отфильтрованные фразы:
  9. Создаем подгруппу в группе, где происходит работа в данный момент простым сочетанием клавиш CTRL+Shift+T:Затем переносим отфильтрованные фразы из группы “Купить iphone 6” в группу “Мало показов”. Делаем это через перенос фраз в другую группу:
    Затем указываем параметры переноса как на скриншоте ниже (Выполнить-перенос-отмеченных):
    Снимаем фильтр со столбца “Базовая частотность”:

Точно таким вот образом обрабатываете остальные группы. Способ, конечно, может показаться на первый взгляд муторным, однако при определенной сноровке можно быстренько-быстренько составить семантическое ядро для Яндекс Директ и уже создавать кампании в Excel, а затем и залить их. На обработку семантического ядра таким способом у меня уходит примерно 2 часа, но зависит это исключительно от объемов работы.

Вот Вам еще одно видео, но уже пример сбора минус-слов:

Экспорт ключевых фраз в Excel

Нам осталось экспортировать ключевые фразы в файл для работы с Excel. Key Collector предлагает два формата экспортируемых файлов: csv и xlsx. Гораздо предпочтительнее второй вариант, так как работать в нем гораздо удобнее и привычнее лично для меня. Указать формат файла можно все в тех же настройках программы, во вкладке “Экспорт”:

Экспортировать ключевые фразы можно, нажав на зеленый значок в панели быстрого доступа:

Экспортируется каждая группа по отдельности, то есть отдельная группа – это отдельный xlsx файл. Можно, конечно, засунуть все группы запросов в один файл с помощью инструмента “Мульти-группы”, но потом будет крайне не удобно работать с этими файлами, особенно если групп получилось много.

Далее нужно экспортировать минус-слова. Для этого нужно зайти в “Стоп-слова” и скопировать минус-слова в буфер обмена, чтобы потом вставить их в Excel:

Вот так я работаю с Key Collector’ом, чему научил и Вас. Искренне желаю, что данный урок поможет Вам в освоении этого замечательного инструмента и Ваше семантическое ядро принесет исключительно целевой трафик и много-много продаж.

До скорых встреч, друзья!

Начал писать эту статью довольно давно, но перед самой публикацией оказалось, что меня опередили соратники по профессии и выложили практически идентичный материал.

Поначалу я решил, что публиковать свою статью не буду, так как тему и без того прекрасно осветили более опытные коллеги. Михаил Шакин рассказал о 9-ти способах чистки запросов в KC , а Игорь Бакалов отснял видео об анализе неявных дублей . Однако, спустя какое-то время, взвесив все за и против, пришел к выводу, что возможно моя статья имеет право на жизнь и кому-то может пригодиться – не судите строго.

Если вам необходимо отфильтровать большую базу ключевых слов, состоящую из 200к или 2 миллионов запросов, то эта статья может вам помочь. Если же вы работаете с малыми семантическими ядрами, то скорее всего, статья не будет для вас особо полезной.

Рассматривать фильтрацию большого семантического ядра будем на примере выборки, состоящей из 1 миллиона запросов по юридической теме.

Что нам понадобится?

  • Key Collector (Далее KC)
  • Минимум 8гб оперативной памяти (иначе нас ждут адские тормоза, испорченное настроение, ненависть, злоба и реки крови в глазных капиллярах)
  • Общие Стоп-слова
  • Базовое знание языка регулярных выражений

Если вы совсем новичок в этом деле и с KC не в лучших друзьях, то настоятельно рекомендую ознакомиться с внутренним функционалом , описанным на официальных страницах сайта. Многие вопросы отпадут сами собой, также вы немножечко разберетесь в регулярках.

Итак, у нас есть большая база ключей, которые необходимо отфильтровать. Получить базу можно посредством самостоятельного парсинга, а также из различных источников, но сегодня не об этом.

Всё, что будет описано далее актуально на примере одной конкретной ниши и не является аксиомой! В других нишах часть действий и этапов могут существенно отличаться ! Я не претендую на звание Гуру семантика, а лишь делюсь своими мыслями, наработками и соображениями на данный счет.

Шаг 1. Удаляем латинские символы

Удаляем все фразы, в которых встречаются латинские символы. Как правило, у таких фраз ничтожная частотка (если она вообще есть) и они либо ошибочны, либо не относятся к делу.

Все манипуляции с выборками по фразам проделываются через вот эту заветную кнопку

Если вы взяли миллионное ядро и дошли до этого шага – то здесь глазные капилляры могут начать лопаться, т.к. на слабых компьютерах/ноутбуках любые манипуляции с крупным СЯ могут, должны и будут безбожно тормозить.

Выделяем/отмечаем все фразы и удаляем.

Шаг 2. Удаляем спец. Символы

Операция аналогична удалению латинских символов (можно проводить обе за раз), однако я рекомендую делать все поэтапно и просматривать результаты глазами, а не «рубить с плеча», т.к. порой даже в нише, о которой вы знаете, казалось бы, все, встречаются вкусные запросы, которые могут попасть под фильтр и о которых вы могли попросту не знать.

Небольшой совет, если у вас в выборке встречается множество хороших фраз, но с запятой или другим символом, просто добавьте данный символ в исключения и всё.

Еще один вариант (самурайский путь)

  • Выгрузите все нужные фразы со спецсимволами
  • Удалите их в KC
  • В любом текстовом редакторе замените данный символ на пробел
  • Загрузите обратно.

Теперь фразоньки чисты, репутация их отбелена и выборка по спец. символам их не затронет.

Шаг 3. Удаляем повторы слов

И снова воспользуемся встроенным в KC функционалом, применив правило

Тут и дополнить нечем – все просто. Убиваем мусор без доли сомнения.

Если перед вами стоит задача произвести жесткую фильтрацию и удалить максимум мусора, при этом пожертвовав какой-то долей хороших запросов, то можете все 3 первых шага объединить в один .

Выглядеть это будет так:

ВАЖНО: Не забудьте переключить «И» на «ИЛИ»!

Шаг 4. Удаляем фразы, состоящие из 1 и 7+ слов

Кто-то может возразить и рассказать о крутости однословников, не вопрос – оставляйте, но в большинстве случаев ручная фильтрация однословников занимает очень много времени, как правило соотношение хороший/плохой однословник – 1/20, не в нашу пользу. Да и вбить их в ТОП посредством тех методов, для которых я собираю такие ядра из разряда фантастики. Поэтому, поскрипывая сердечком отправляем словечки к праотцам.

Предугадываю вопрос многих, «зачем длинные фразы удалять»? Отвечаю, фразы, состоящие из 7 и более слов по большей части, имеют спамную конструкцию, не имеют частотку и в общей массе образуют очень много дублей, дублей именно тематических. Приведу пример, чтоб было понятней.

К тому же частотка у подобных вопросов настолько мала, что зачастую место на сервере обходится дороже, чем выхлоп от таких запросов. К тому же, если вы просмотрите ТОП-ы по длинным фразам, то прямых вхождений ни в тексте ни в тегах не найдете, так что использование таких длинных фраз в нашем СЯ – не имеет смысла.

Шаг 5. Очистка неявных дублей

Предварительно настраиваем очистку, дополняя своими фразами, указываю ссылку на свой список, если есть, чем дополнить – пишите, будем стремиться к совершенству вместе.

Если этого не сделать, и использовать список, любезно предоставленный и вбитый в программу создателями KC по умолчанию, то вот такие результаты у нас останутся в списке, а это, по сути, очень даже дубли.

Можем выполнить умную группировку, но для того, чтобы она отработала корректно – необходимо снять частотку. А это, в нашем случае не вариант. Т.к. Снимать частотку с 1млн. кеев, да пусть хоть со 100к – понадобится пачка приватных проксей, антикапча и очень много времени. Т.к. даже 20 проксей не хватит – уже через час начнет вылезать капча, как не крути. И займет это дело очень много времени, кстати, бюджет антикапчи тоже пожрет изрядно. Да и зачем вообще снимать частотку с мусорных фраз, которые можно отфильтровать без особых усилий?

Если же вы все-таки хотите отфильтровать фразы с умной группировкой, снимая частотности и поэтапно удаляя мусор, то расписывать процесс подробно не буду – смотрите видео, на которое я сослался в самом начале статьи.

Вот мои настройки по очистке и последовательность шагов

Шаг 6. Фильтруем по стоп-словам

На мой взгляд – это самый муторный пункт, выпейте чая, покурите сигаретку (это не призыв, лучше бросить курить и сожрать печеньку) и со свежими силами сядьте за фильтрацию семантического ядра по стоп-словам.

Не стоит изобретать велосипед и с нуля начинать составлять списки стоп-слов. Есть готовые решения. В частности, вот вам , в качестве основы более, чем пойдет.

Советую скопировать табличку в закорма собственного ПК, а то вдруг братья Шестаковы решат оставить «вашу прелесть» себе и доступ к файлику прикроют? Как говорится «Если у вас паранойя, это еще не значит, что за вами не следят…»

Лично я разгрупировал стоп-слова по отдельным файлам для тех или иных задач, пример на скриншоте.

Файл «Общий список» содержит все стоп-слова сразу. В Кей Коллекторе открываем интерфейс стоп-слов и подгружаем список из файла.

Я ставлю именно частичное вхождение и галочку в пункте «Искать совпадения только в начале слов». Данные настройки особенно актуальны при огромном объеме стоп-слов по той причине, что множество слов состоят из 3-4 символов. И если поставите другие настройки, то вполне можете отфильтровать массу полезных и нужных слов.

Если мы не поставим вышеуказанную галочку, то пошлое стоп-слово «трах» найдется в таких фразах как «консультация государственного страхования» , «как застраховать вклады» и т.д. и т.п. Вот ещё пример, по стоп слову «рб» (республика Беларусь) будет отмечено огромное кол-во фраз, по типу «возмещение ущерба консультация», «предъявление иска в арбитражном процессе» и т.д. и т.п.

Иными словами — нам нужно, чтобы программа выделяла только фразы, где стоп-слова встречаются в начале слов. Формулировка ухо режет, но из песни слов не выкинешь.

Отдельно замечу, что данная настройка приводит к существенному увеличению времени проверки стоп слов. При большом списке процесс может занять и 10 и 40 минут, а все из-за этой галочки, которая увеличивает время поиска стос-слов во фразах в десять, а то и более раз. Однако это наиболее адекватный вариант фильтрации при работе с большим семантическим ядром.

После того как мы прошлись по базовым списком рекомендую глазами просмотреть не попали ли под раздачу какие-то нужные фразы, а я уверен, так оно и будет, т.к. общие списки базовых стоп-слов, не универсальны и под каждую нишу приходится прорабатывать отдельно. Вот тут и начинаются «танцы с бубном.

Оставляем в рабочем окне только выделенные стоп слов, делается это вот так.

Затем нажимаем на «анализ групп», выбираем режим «по отдельным словам» и смотрим, что лишнего попало в наш список из-за неподходящих стоп-слов.

Удаляем неподходящие стоп-слова и повторяем цикл. Таким образом через некоторое время мы «заточим» универсальный общедоступный список под наши нужды. Но это еще не все.

Теперь нам нужно подобрать стоп-слова, которые встречаются конкретно в нашей базе. Когда речь идет об огромных базах ключевиков, там всегда есть какой-то «фирменный мусор», как я его называю. Причем это может быть совершенно неожиданный набор бреда и от него приходится избавляться в индивидуальном порядке.

Для того, чтобы решить эту задачку мы снова прибегнем к функционалу Анализа групп, но на этот раз пройдемся по всем фразам, оставшимся в базе, после предыдущих манипуляций. Отсортируем по количеству фраз и глазами, да-да-да, именно ручками и глазами, просмотрим все фразы, до 30-50 в группе. Я имею в виду вторую колонку «кол-во фраз в группе».

Слабонервных поспешу предупредить, на первый взгляд бесконечный ползунок прокрутки», не заставит вас потратить неделю на фильтрацию, прокрутите его на 10% и вы уже дойдете до групп, в которых содержится не более 30 запросов, а такие фильтровать стоит только тем, кто знает толк в извращениях.

Прямо из этого же окна мы можем добавлять весь мусор в стоп слова (значок щита слева от селектбокса).

Вместо того, чтобы добавлять все эти стоп слова (а их гораздо больше, просто я не хотел добавлять длиннющий по вертикали скриншот), мы изящно добавляем корень «фильтрац» и сразу отсекаем все вариации. В результате наши списки стоп-слов не будут разрастаться до огромных размеров и что самое главное, мы не будем тратить лишнее время на их поиск . А на больших объемах — это очень важно.

Шаг 7. Удаляем 1 и 2 символьные «слова»

Не могу подобрать точное определение к данному типу сочетания символов, поэтому обозвал «словами». Возможно, кто-то из прочитавших статью подскажет, какой термин подойдет лучше, и я заменю. Вот такой вот я косноязычный.

Многие спросят, «зачем вообще это делать»? Ответ прост, очень часто в таких массивах ключевых слов встречается мусор по типу:

Общий признак у таких фраз — 1 или 2 символа, не имеющие никакого смысла (на скриншоте пример с 1 символм). Вот это мы и будем фильтровать. Здесь есть свои подводные камни, но обо всем по порядку.

Как убрать все слова, состоящие из 2-х символов?

Для этого используем регулярку

Дополнительный совет: Всегда сохраняйте шаблоны регулярок! Они сохраняются не в рамках проекта, а в рамках KC в целом . Так что будут всегда под рукой.

(^|\s+)(..)(\s+|$) или же (^|\s){1,2}(\s|$)

(ст | фз | ук | на | рф | ли | по | ст | не | ип | до | от | за | по | из | об)

Вот мой вариант, кастомизируйте под свои нужды.

Вторая строка – это исключения, если их не вписать, то все фразы, где встречаются сочетания символов из второй строки формулы, попадут в список кандидатов на удаление.

Третья строка исключает фразы, в конце которых встречается «рф», т.к. зачастую это нормальные полезные фразы.

Отдельно хочу уточнить, что вариант (^|\s+)(..)(\s+|$) будет выделять все – в том числе и числовые значения . Тогда как регулярка (^|\s){1,2}(\s|$) – затронет лишь буквенные, за неё отдельное спасибо Игорю Бакалову.

Применяем нашу конструкцию и удаляем мусорные фразы.

Как убрать все слова, состоящие из 1 символа?

Здесь все несколько интересней и не так однозначно.

Сначала я попробовал применить и модернизировать предыдущий вариант, но в результате выкосить весь мусор не получилось, тем не менее – многим подойдет именно такая схема, попробуйте.

(^|\s+)(.)(\s+|$)

(с | в | и | я | к | у | о)

Традиционно – первая строка сама регулярка, вторая – исключения, третья – исключает те фразы, в которых перечисленные символы встречаются в начале фразы. Ну, оно то и логично, ведь перед ними не стоит пробела, следовательно, вторая строка не исключит их присутствие в выборке.

А вот второй вариант при помощи которого я и удаляю все фразы с односимвольным мусором, простой и беспощадной, который в моем случае помог избавиться от очень большого объема левых фраз.

(й | ц | е | н | г | ш | щ | з | х | ъ | ф | ы | а | п | р | л | д | ж | э | ч | м | т | ь | б | ю)

Я исключил из выборки все фразы, где встречается «Москв», потому что было очень много фраз по типу:

а мне оно нужно сами догадываетесь для чего.

Key Collector — один из основных инструментов SEO-оптимизатора. Эта программа, созданная для подбора семантического ядра, входит в категорию маст-хэв инструментов для продвижения. Она так же важна, как скальпель для хирурга или штурвал — для пилота. Ведь без ключевых слов немыслима.

В этой статье рассмотрим, что такое Кей Коллектор и как с ним работать.

Для чего нужен Key Collector

Затем зайдите в настройки (кнопка шестерёнки в панели в верхнем левом углу окна программы) и найдите вкладку «Yandex.Direct «.

Нажмите на кнопку «Добавить списком » и введите созданные аккаунты в формате логин:пароль .

Внимание! добавлять @yandex.ru после логина не нужно!

После всех операций получится примерно следующее:

Но и это ещё не всё. Теперь нужно создать аккаунт Google AdWords, который будет привязан к данному аккаунту Google. Без аккаунта в AdWords получать данные по ключевым словам будет невозможно, так как они берутся именно оттуда. При создании аккаунта выберите язык, часовой пояс и валюту. Учтите, что эти данные нельзя будет изменить .

После создания аккаунта AdWords вновь откройте настройки Key Collector и вкладку «Google.AdWords «. Здесь в настройках рекомендуется использовать только один аккаунт Google.

Антикапча

Этот пункт не является обязательным, но я всё же рекомендую использовать антикапчу. Конечно, если вам нравится каждый раз вводить капчу вручную, дело ваше. Но если вам не хочется тратить на это своё время, найдите в настройках вкладку «Антикапча», включите радиокнопку «Antigate» (или любой другой из предложенных вариантов) и в появившемся поле введите свой ключ антикачи. Если у вас ещё нет ключа, создайте его.

Распознавание капчи — это платная услуга, но 10 долларов хватает минимум на месяц. К тому же если вы не занимаетесь парсингом поисковиков ежедневно, этой суммы хватит и на год.

Прокси

По умолчанию программа использует для парсинга ваш основной IP-адрес. Если пользоваться Кей Коллектором часто вам не потребуется, на настройки прокси можно забить. Но если вы часто работаете с программой, поисковики могут часто подсовывать вам капчу и даже временно банить ваш IP. К тому же будут страдать все пользователи, которые выходят в Сеть под общим IP. Такая проблема встречается, например, в офисах.

Также трудности при парсинге Яндекса с основного IP могут испытывать пользователи из Украины.

Найти бесплатные прокси, которые всё ещё не в бане поисковиков, бывает довольно сложно. Если у вас есть список таких адресов, введите их в настройках во вкладке «Сеть «. Затем нажмите на кнопку «Добавить строку «.

Другой вариант — создайте файл с адресами в формате IP:порт , скопируйте их в буфер обмена и добавьте в коллектор с помощью кнопки «Добавить из буфера «.

Но я рекомендую подключить платный VPN от hidemy.name . В этом случае на компьютер устанавливается приложение, которое включает/выключает VPN по требованию. В этом приложении также можно изменять сам прокси и его страну. Дополнительно не придётся ничего настраивать. Просто включаете VPN и комфортно работаете с Коллектором.

Я перечислил основные настройки, которые нужны для старта работы. Советую самостоятельно пройтись по всем вкладкам и изучить настройки программы. Может быть, вы найдёте пункты в настройках, которые окажутся нужны именно вам.

Подбор ключевых слов с Key Collector

Наконец-то мы дошли до собственно подбора семантического ядра. В главном окне программы нажмите на большую кнопку «Новый проект «. Советую назвать файл проекта именем сайта, например, site.ru, и сохранить в специально созданную папку для проектов Key Collector, чтобы потом не тратить время на поиски.

В Коллекторе удобно сортировать ключевые слова по группам. Мне удобно, когда иерархия групп в проекте соответствует будущей , поэтому первая группа (группа по умолчанию) у меня соответствует главной странице сайта.

Для примера поработаем с тематикой «создание сайтов Москва». Начнём с Яндекса.

Сначала нужно задать регион:

Теперь нужно открыть «Пакетный сбор слов из левой колонки Yandex.Wordstat » и в возникшем окне ввести штук 5 наиболее очевидных в данной тематике ключевых фраз (на их основе будет производиться парсинг).

Теперь нужно нажать на кнопку «Начать сбор «.

Всё, можно пойти заварить кофе или переключиться на другие задачи. Кей Коллектору потребуется некоторое время, чтобы спарсить ключевые фразы.

В результате отобразится примерно следующее:

Стоп-слова

Теперь нужно отфильтровать неподходящие в данный момент слова и фразы. Например, сочетание слов «создание сайтов москва бесплатно » не подойдёт, так как бесплатных услуг мы не предоставляем. Искать такие фразы вручную в семантическом ядре на сотни и тысячи запросов занятие крайне увлекательное, но лучше всё же воспользоваться специальным инструментом.

Затем нужно нажать на плюсик:

Вероятно, вы заметили, что в программе есть большое количество различных опций при работе с ключевыми словами. Я объясняю основные, самые простые операции в Key Collector.

Работа с частотностью запросов

После фильтрации по минус-словам можно запустить парсинг по частотности.

Сейчас мы видим только колонку с общей частотностью. Чтобы получить точную частотность по каждому ключевому слову, нужно в Вордстате ввести его в операторе кавычки — «ключевое слово».

В Коллекторе это делается следующим образом:

При необходимости можно собрать частотность с оператором «!слово».

Затем нужно отсортировать список по частотности » » и удалить слова с частотностью менее 10 (иногда 20-30).

Второй способ собрать частотность (более медленный):

Если вы точно знаете, что частотность ниже определённого значения вас не интересует, можно задать порог в настройках программы. В этом случае фразы с частотностью ниже порога вообще не будут попадать в список. Но так можно упустить перспективные фразы, поэтому я эту настройку не использую и вам не советую. Впрочем, действуйте по своему усмотрению.

В итоге получается более-менее пригодное для последующей работы семантическое ядро:

Обратите внимание, что это семантическое ядро — лишь пример, созданный только для демонстрации работы программы. Оно не годится под реальный проект, так как слабо проработано.

Правая колонка Yandex.Wordstat

Иногда есть смысл парсить правую колонку Вордстата (запросы, похожие на «ваш запрос»). Для этого нужно кликнуть на соответствующую кнопку:

Google и Key Collector

Запросы из статистики Google парсятся по аналогии с Яндексом. Если вы создали аккаунт Google и аккаунт AdWords (как мы помним, одного лишь аккаунта Google недостаточно), нажмите на соответствующую кнопку:

В открывшемся окне введите интересующие запросы и запустите подбор. Всё по аналогии с парсингом Вордстата. Если необходимо, в этом же окне укажите дополнительные настройки конкретно для Google (при клике на значок вопроса появится справка).

В итоге вы получите следующие данные по AdWords:

И сможете продолжить работу с семантикой.

Выводы

Мы разобрали базовые настройки Key Collector (то, без чего невозможно начать работать). Также мы рассмотрели самые простые (и основные) примеры использования программы. И подобрали простенькое семантическое ядро, используя статистику Яндекс.Вордстат и Google AdWords.

Как вы понимаете, в статье показано примерно 20% от всех возможностей программы. Чтобы освоить Key Collector, нужно потратить несколько часов и изучить официальный мануал. Но оно того стоит.

Если после этой статьи вы решили, что проще заказать семантическое ядро у специалистов, чем разбираться самому, напишите мне через страницу , и мы обсудим детали.

И бонусное видео: чувак по имени Derek Brown виртуозно играет на саксофоне. Я даже побывал на его концерте во время джаз-фестиваля, это реально круто.

Мы уже писали, как самостоятельно собрать семантическое ядро . Но перед тем как разделить запросы по категориям, их следует хорошенько почистить. Как убрать восемь уровней шлака и оставить чистое серебро? Понадобится аккаунт в Key Collector и 12 минут на прочтение этого поста.

1. Чистка семантического ядра по словам-маркерам

Также можно все ненужные слова добавлять непосредственно из полного списка запросов. В таком случае создаем отдельную группу — специально для таких стоп-слов.

Алгоритм действий:

5. Чистим ядро с помощью функции анализа группы слов

Группы, отмеченные в таблице, автоматически отмечаются в основном списке запросов. После того как были отмечены все неподходящие слова, закрываем таблицу и удаляем все ненужные запросы.

6. Ищем и удаляем неявные дубли

Для использования данного метода необходимо сначала собрать информацию о частотности запросов. После этого переходим на вкладку «Данные» — «Анализ неявных дублей»:

Программа автоматически отметит все неявные дубли, частотность которых меньше в указанной поисковой системе.

7. Ручной поиск по группе запросов

Наконец можно отметить вручную все ненужные слова в семантическом ядре: сленг, слова с ошибками и так далее. Основной массив нерелевантных запросов уже был очищен ранее, так что ручная чистка не займет много времени.

8. Очистка запросов по частотности

С помощью расширенного фильтра в KeyCollector устанавливаем параметры частоты запросов и отмечаем все низкочастотные фразы. Этот этап нужен далеко не всегда.

Выводы

Чтобы качественно очистить семантическое ядро от мусора, следует выполнить восемь шагов в KeyCollector:

  1. Чистка семантического ядра по словам-маркерам.
  2. Удаление повторяющихся слов.
  3. Удаление латинских букв, специальных символов, запросов с цифрами.
  4. Очистка ядра с помощью функции анализа группы слов.
  5. Поиск и удаление неявных дублей.
  6. Ручной поиск по группе запросов.
  7. Очистка запросов по частотности.

На каждом этапе желательно просмотреть слова, помеченные для удаления, так как существует риск удалить качественные и релевантные запросы.

Вместо удаления ненужных запросов лучше создать отдельную группу и переносить их туда. В свежих обновлениях Key Collector появилась соответствующая группа по умолчанию — «Корзина».

После тщательной чистки семантического ядра можно переходить к следующему этапу — кластеризации и группировке запросов.

Отмечу, что всегда существует риск упустить парочку нерелевантных запросов во время чистки ядра. Их как раз очень легко выявить и удалить на этапе группировки, но об этом — в следующий раз.

Рекомендуем почитать

Наверх