О том, что важно учесть при составлении семантического ядра.
В закладки
Если вы думаете, что собрать правильное ядро способен некий сервис или программа, то вы будете разочарованы. Единственный сервис, способный собрать правильную семантику, весит около полутора килограмм и потребляет около 20 ватт мощности. Это мозг.
Причем в этом случае у мозга есть вполне конкретное практическое применение вместо абстрактных формул. В статье я покажу редко обсуждаемые этапы процесса сбора семантики, которые невозможно автоматизировать.
Подход первый (идеальный):
Плюсы: в этом случае вы получаете 100% охват - вы взяли все реальные запросы с трафиком по главному запросу «заборы» и выбрали оттуда всё, что вам нужно: от элементарного «заборы купить» до неочевидного «установка бетонных парапетов на забор цена».
Минусы: прошло два месяца, а вы только закончили работать с запросами.
Подход второй (механический):
Бизнес-школы, тренеры и агентства по контексту долго думали, что с этим делать. С одной стороны, действительно проработать весь массив по запросу «заборы» они не могут - это дорого, трудозатратно, людей не получится научить этому самостоятельно. С другой стороны, деньги учеников и клиентов тоже надо как-то забрать.
Так было придумано решение: берем запрос «заборы», умножаем на «цены», «купить» и «монтаж» - и вперед. Ничего не надо парсить, чистить и собирать, главное - перемножить запросы в «скрипте-перемножалке». При этом возникающие проблемы мало кого волновали:
Подход с перемножениями себя полностью исчерпал: наступают трудные времена, победителями выйдут только те компании, которые смогут для себя решить проблему качественной обработки действительно большого реального семантического ядра - от подбора базисов до очистки, кластеризации и создания контента для сайтов.
Задача этой статьи - научить читателя не только подбирать правильную семантику, но и соблюдать баланс между трудозатратностью, размером ядра и личной эффективностью.
Для начала договоримся о терминологии. Базис - это некий общий запрос. Если вернуться к примеру выше, вы продаете любые заборы, значит, «заборы» - главный для вас базис. Если же вы продаете только заборы из профнастила, то вашим главным базисом будет «заборы из профнастила».
Но если вы один, запросов много, а кампании надо запускать, то можно взять в качестве базиса «заборы из профнастила цена» или «заборы из профнастила купить». Функционально базис служит не столько как рекламный запрос, сколько как основа для сбора расширений.
Например, по запросу «заборы » более 1,3 млн показов в месяц по РФ
Это - не пользователи, не клики и не запросы. Это количество показов рекламных блоков «Яндекса» по всем запросам, включающим слово «заборы». Это мера охвата, применимая к некоему большому массиву запросов, объединенных вхождением в него слова «заборы».
Желаете узнать, как составить семантическое ядро в яндекс директ? В яндекс директ ядро не составляется, но пригождается.
4 этапа сбора семантического ядра для директ
Яндекс директ требует наличия семантического ядра, ведь задача заключается в реламе, а основой запросы служат. Рекламная компания основывается на .
Запросы подобрать можно на Яндекс Вордстат.
В Яндекс Директ ядро используется для реализации рекламной кампании. Семантическое ядро для Директ необходимо. Его нужно создать, применяя Вордстат Яндекса. Набираете в Вордстате ключ, получаете список ключевых слов. Это сбор ядра для директа.
Стремитесь к тому, чтобы сбор ядра для директа приводил к большому семантическому ядру , директ любит, когда есть выбор. Это необходимо, чтобы кампания прошла хорошо.
Семантическое ядро директ любит состоящее из коммерческих запросов . Это значит, что запросы наподобие «что такое семантическое ядро» или что такое диван не подойдут, нужно подбирать запросы более практичные. Для семантического ядра яндекс директ предпочел бы запросы с «купить», они и ценятся дороже. Старайтесь подбирать в ядро директа запросы с такими словами, как «заказ», а также можно «как выбрать».
Последний из примеров не очень коммерческий. Однако для директ может подойти. Это дешевле запросов в семантическом ядре со словом «купить». Однако подходит, потому что статьи такого вида имеют неплохой для инфо-статей показатель конверсии. Сбор ядра для директа поможет заложить фундамент под хорошую кампанию.
Написать статьи вам помогут копирайтеры, биржа где пишут по запросу за 15 руб. — Etxt и Advego .
лукошко купить
заказ лукошка
лукошко как выбрать
лукошко самара
Эти 4 запроса получились после сбора семантического ядра в директе. Необходимо подобным образом делать сбор ядра для директа.
Чтобы собрать ядро для директ, нужно:
Откуда будем брать ключевые слова? Каким должно быть семантическое ядро? Что с ним делать? Куда пихать, как разделять, что отправим в поисковую рекламную кампанию, а что в . Обо всем этом ниже.
Перед сбором семантики уясним пару моментов (для тех, кто не знал), что для крутой и прибыльной рекламной кампании важен охват. Охват целевого, чистого трафика, разумеется. Для этого мы соберем как можно больше базовых масок ключей, пропарсим в Кейколлекторе (КК) и добавим некоторые фразы из специальных баз с ключевыми словами – ниже расскажу подробнее. Таким образом, у нас будет довольно полное семантическое ядро. Полнее, чем у 80% рекламодателей 🙂
Это одно или два слова, которые описывают тематику (нишу) и на которых строится семантическое ядро для Яндекс Директ. Например, в Аренде спецтехники – «услуги спецтехники», «аренда спецтехники» – базовые маски, просто «спецтехника» – нет. Можете взять «спецтехнику» за базовую маску и пропарсить, но мусора будет много, нужных ключевых слов мало. Так же и в других сферах, в Отделке квартир – «ремонт квартир» – да, «квартира» – нет.
Транслитерация – пишем по-русски латиницей, например. Если, конечно, тематика предусматривает такие ключевики. Например, купить айфон – купить iphone, яндекс директ – yandex direct. Не применяйте транслитерацию на ровном месте, например – ремонт квартир – remont kvartir. Толку никакого не будет, такие запросы не вводят в поисковик, такая семантика будет пустой. Далее, пропарсив все в КК, увидите частотность и уберете пустые запросы, сделаете «рабочее» семантическое ядро для Директа.
Иногда мы не берем за базовую маску одиночное слово. Например, автомобиль, в тематике ремонт автомобиля. Появится столько мусора, что устанем минусовать мусор. В таком случае лучше поработать с синонимами (ремонт, отремонтировать, ремонтировать и тд.), чем создавать семантическое ядро через высокочастотные, мусорные однословники.
Сначала пишу из головы. И где нибудь на пятой маске (где–то тут фантазия часто заканчивается), пользуюсь следующей схемой:
1. Собираем маски из Wordstat. Иду в вордстат и вбиваю туда то, что написал из головы. После этого в вордстате открывается правая колонка (рисунок №1). В правой колонке вордстата показываются запросы, которые люди еще вводили и искали вместе с базовыми масками, которые я придумал вначале. По такой схеме, иногда я залипаю в вордстате на час, переходя по правым колонкам. Все маски ключей из вордстата я добавляю в Yandex Wordstat Assistant (рисунок №2) (YWA – расширение для Хрома, Яндекса, Оперы). YWA быстро формирует список из базовых масок и выделяет уже добавленные фразы при переключении по колонкам вордстата. Проще говоря, через YWA можно быстро накидать список масок из вордстата, не покинув браузера.
В правой колонке вордстата тоже можно найти базовые маски
Пробегаю по правым колонкам и собираю маски в YWA
2. Просматриваем поисковики. Перебираю маски ключей на выдачу в поисковых системах. Вбиваю фразы в поисковики и смотрю дискрипшены (рисунок №3) и смотрю Яндекс и Google картинки (рисунок №4) (там часто нахожу много нового).
Смотрим выдачу в Яндексе и Google
Просматриваем картинки в Яндекс и Google картинкам
3. SpyWords. Далее, сформированный список масок (по желанию) отправляем в SpyWords (SW). Если пользуетесь Кейколлектором (если нет – странно), то можно из него спарсить выдачу SW. SW прибавит масок ключей и синонимов. Будет много мусора, парсите SW в отдельную группу, заберете нужные маски, а группу удалите потом.
4. Парсим в Кейколлекторе. Теперь беру все маски ключей и заливаю в Кейколлектор. Чаще, 1 маску ключей помещаю в отдельную группу. 1 маска = 1 группа (рисунок №5). Так привык и такой подход не раз выручал. Если вдруг по какой–нибудь одной маске спарсите пару тысяч шлака, можно легко удалить шлаковую группу. А если парсить все маски в одну группу, будет весело. Либо заново все парсить, либо сидеть и судорожно вычищать мусор.
Вот так выглядит уже пропарсенное и очищенное семантическое ядро
5. Пропарсили маски в КК. Парсим подсказки. Я рекомендую собирать подсказки в отдельную группу (т.к. много мусора) и по опыту – выбирайте подсказки Yandex и Mail.ru. Если очень хочется – еще Google, но в отдельную группу его, там еще больше мусора, чем в подсказках Яндекса и Майл.ру.
6. Чистим ключи. На этом этапе чищу ключевые слова от мусора. О чистке, минусации слов написал .
7. Добираем ключи из баз. Затем идем и добираем фразы из специальных баз. Самые популярные (вроде) – База пастухова, MOAB, Букварикс. Рекомендую использовать Букварикс. На сколько знаю, в Буквариксе меньше «мусора» и пока еще бесплатный. Сделайте для них отдельную группу в КК и парсите, потом отминусуете ненужные ключи.
Все, семантическое ядро собрано и очищено. Осталось разгруппировать.
На данном этапе (пока ничего не разгруппировано), удобнее сделать семантику для РСЯ. Фильтруете в КК базовую частоту больше 50 запросов и забираете ключевые слова для настройки РСЯ. Семантику с частотностью меньше 50 в месяц нет смысла брать в РСЯ. Трафика с таких ключевых слов вы вряд ли получите. Раньше я фильтровал ключи для РСЯ еще по количеству слов (3 и меньше). Забил, когда увидел, что и 4-5 словники конвертят.
Тут я беру семантику (уже очищенную от мусора), удаляю пустые ключевые слова, с нулевой частотностью и делаю группировку. Группировка ключевиков – второй по важности момент в семантике для Директа, после сбора масок ключей.
Группировка ключевиков стала более актуальной в Директе с приходом статуса «Мало показов» , когда все низкочастотные группы ключевых перестали участвовать в аукционе. И поэтому сейчас группировка семантики важна еще тем, что просто нужно сохранить охват в Директе. Группировку ключевых слов мы делаем для большей эффективности рекламных кампаний. Чтобы сделать цену клика немного пониже, из-за хорошего CTR. В конечно счете, чтобы получать больше звонков, заказов при том же бюджете (понятно, что не один Директ влияет на цену заявки).
Самая распространенная группировка ключей – деление семантического ядра на горячие, теплые, холодные ключевые слова.
По факту – холодные ключи, это обычно околоцелевые и конвертят они чуть хуже, чем никак. Чтобы там ни говорили продавцы шашлыков (или септиков?) кто в теме, тот понимает о чем я 🙂 У кого конвертят – молодцы.
«Горячесть» ключей для каждой тематике своя.
Горячие ключевые слова:
В товарах – это приставки «купить», «цена», «доставка», какие то точные характеристики товара, принадлежность товара к какому то гео. Например «кирпич саратов», «кирпич купить» и тд.
В услугах – «заказать», «заказ», «под ключ», так же принадлежность к гео. Например, «заказать портрет а4 карандаш», «ремонт квартиры под ключ» и тд.
Теплые ключевые слова – это слова, в которых нет явного намерения приобрести, заказать товары (услуги), но это слова из нашей тематики и очень вероятно, что по ним будут конверсии. Например, «силикатный кирпич», «кладка кирпича», «портрет карандаш» и тд. Понятно, что ключевые слова мы корректируем минус словами и часто «теплые ключевые слова» конвертируют не хуже «горячих».
Я бы сказал, что это условное разделение. Чтобы на разгруппированную семантику потом релевантные объявления написать и анализировать проще, когда каждая группа объявлений подписана и мы знаем какие там ключи внутри.
Этой информации достаточно, чтобы собрать хорошее семантическое ядро для Директа (при условии, что Excel и Кейколлектор у вас есть).
Пишите в комменты или по контактам, если какие–то моменты непонятны.
В идеале процесс работает так:
2) Собираете семантику по маркерным запросам откуда угодно: от Wordstat до поисковых подсказок.
Неважно, что вы используете при сборе. У всех сервисов разное качество, но принцип один: на входе вы вводите маркерный запрос, а программа выдает расширения, которые содержат фразу.
Задача, которую приходится решать вручную - определить те самые маркеры (базисы). Каждый из них отражает собственный спрос, ключевые фразы, расширения и охват. Для этого необходимо хотя бы минимальное знакомство с ассортиментом.
Когда речь идет о брендовой семантике, понятно, как искать маркеры. У бренда есть, как правило, русское или английское написание, названия серий, моделей. При этом важно учесть все ошибочные и синонимичные написания. О других случаях с примерами будет далее в статье.
3) Получаете десятки-сотни тысяч запросов, чистите их от «мусора» и получаете две группы: нужные запросы и минус-слова.
Рассмотрим брендовую семантику на примере интернет-магазина туристического оборудования и товаров «Моя планета».
У магазина около 70-80 брендов, один из них - Stanley. Это и инструменты, и мебель, и посуда, и много другого. Нет смысла собирать все расширения от слова stanley, иначе будет очень много «мусора». Поэтому оставляем запросы из 2-3 слов:
Чаще всего лучше брать трехсловники или двухсловники, в некоторых специфических случаях допустимы однословники.
Термосы - самый популярный товар, у него 3 написания названия бренда - станлей, стенли, stanley, - и есть маркеры по сериям: stanley mountain, стенли классик.
Чем больше базисов, тем шире охват. У нас получается 70 видов товаров, по каждому - 20-50 базисов. Общий объем «хвоста» - несколько сотен тысяч расширенных запросов. Они могут пересекаться, но частично: как правило, процент пересечения невысокий.
В итоге вы получаете 100% охват, но тратите очень много времени на обработку данных. Чтобы ускорить процесс, часто используют способ перемножения запросов в скрипте-перемножалке.
Для брендового семантического ядра такой метод ускоряет работу. Но что делать, когда вы предлагаете услуги на высококонкурентном рынке?
В этой ситуации - более неочевидные запросы, которые можно выявить только с помощью глубокого анализа.
Пример - «дизельный» автосервис, клиент агентства MOAB.
Исходные данные: прежний подрядчик перемножал стандартные названия услуг на транзакционные слова типа «цены», «купите» и прочие. В итоге получались базисы «ремонт форсунок», «ремонт ТНВД» и иже с ними.
Этот подход дает самые банальные формулировки. Точная копия ключа, перестановка слов, разные падежи и словоформы - не вариант для проявления креатива. Все - и подрядчики, и клиенты - мыслят одинаково, используют однотипные формулировки и транзакционные слова. Запросы «от фонаря» быстро перегреваются.
Результат - потеря охвата и, как следствие, недостаточная загруженность сервиса, так как нет показов по неочевидным запросам. Их и невозможно получить простым перемножением.
Парадокс ситуации в том, что трафика немного (до 10 посетителей в сутки), но аукцион жуткий (до 40 рублей за клик). Даже сервису с огромной материальной базой, низкой себестоимостью и большим потоком клиентов практически невозможно окупить ставки по конкретному ключу.
По результатам анализа мы нашли дополнительные базисы (указана частотность по Москве):
Большинство из них и для самого заказчика были откровением: он не подозревал, что потенциальные клиенты могут ТАК формулировать поиск, хотя давно работает в этой сфере.
Эти запросы далеко не очевидные и для конкурентов, а потому неперегретые. Прогнозный суточный трафик - около 400-500 пользователей, суммарно для всех систем. Средняя цена по ним гораздо ниже, чем по фразам типа «ремонт форсунок».
Как систематизировать, если маркеры не привязаны к бренду и содержат размытый спрос? Что ищет целевая аудитория - этого не придумать спонтанно и не услышать от заказчика.
Одна проблема генерирует неизвестный большой массив запросов: дизель дымит черным, сизым, белым, не работает, стучит, гремит и т.д. Ваша задача - разбить этот массив на кластеры, чтобы разграничить на конечное количество потребностей.
В случае с брендом «якорь» спроса - само название. Товары Stanley не могут называться как-то иначе, это в любом случае нечто со словом «Stanley».
Для сложной услуги спрос распадается на несколько составляющих (переменных). Невозможно сформулировать проблему без одного из них:
С большой вероятностью человек, у которого сломался дизель, употребит хотя бы одно из значений этих переменных в запросе. Это «якорь», вокруг которого вертится спрос по проблеме.
Рекомендация: чтобы разбивать запросы на переменные и подбирать их значения, нужно представлять, как потенциальная аудитория говорит о проблемах. Для этого полезно изучать сайты конкурентов, тематические форумы, сообщества и т.д.
Представьте, есть гора, внутри которой - золотые слитки, которые вам надо добыть. Стандартный способ - выкопать шахту в этой горе и собрать золото, которое попадется на пути исследования.
Другой вариант - вы срываете гору экскаватором и отвозите на горнообогатительный комбинат. Он более трудозатратный и требует больше компетенций, но зато из всей массы пород вы соберете всё золото.
По аналогии с этим мы берем весь спрос по запросу «дизель», «дизельный» и прорабатываем все расширения в глубину в Wordstat. Затем по каждому собираем поисковые подсказки. По полученному массиву пробиваем частотность, удаляем дубли и получаем итоговый объем запросов.
Допустим, у нас получилось 100 тысяч. Что дальше с ними делать? Отбираем нужные фразы.
Для этого загоняем каждый массив в «Анализ Групп» в Key Collector. Применяем частотный словарь запросов. В нем необходимо поставить группировку по фразам и залить во вкладку ключевые слова.
Что получаем:
Это запросы, про которые не расскажет клиент. Так практически никто не делает, поэтому и конкуренция по такой семантике минимальная.
На этом этапе не надо чистить массив от минус-слов и т.д. Нужно просто просмотреть частотный словарь и выявить двухсловники, которые явно указывают на авторемонт.
В чем преимущества? Часто употребляемые группы запросов привязаны к наиболее популярным проблемам. Программа сортирует группы по количеству входящих в них слов. Вы просматриваете все результаты и выявляете группы, которые подходят под вашу проблему.
Вы получаете всё, что вообще можно в этой тематике собрать. При этом нормально, если у вас исходно 100 тысяч запросов со словом «дизель» и только 10 тысяч после анализа.
Подобную работу проделываете со всеми значениями переменных.
Для автотехцентра «ЯпиМоторс» агентство MOAB составило один из самых больших семантических планов за свою историю. Специфика клиента: ему необходимо обеспечить точный трафик.
Заказчик четко обозначил исходные условия: есть точный перечень работ (300 штук), которые он выполняет, и список марок (70 штук), с которыми работает.
На первом этапе мы искали всевозможные названия по списку работ:
Японские названия сложные, их часто пишут с ошибками. В итоге 70 заданных марок / моделей превратились в 270 строк различных вариантов написания латиницей и кириллицей.
Рынок большой, поэтому компания не претендовала на весь целиком. Логично: один автосервис не может обслуживать всю Москву. Его цель - небольшая часть этого спроса, но максимально горячая, и за минимальные деньги. Поэтому мы определили запросы, которые уже сейчас имеют неотложную потребность.
Если пользователь пишет в поиске «черный дым дизель», он может еще неделю ездить на дымящем автомобиле, прежде чем тот совсем накроется. А «ремонт ходовой цена» - прямо сейчас может сконвертироваться.
Перемножаем 450 работ на 270 моделей и получаем список маркеров, по которому снимаем частотность.
Около 5 тысяч базисов показали ненулевую частотность и «хвост» расширений в 50 тысяч. В отличие от ядра по дизелю, в котором много «мусора», это содержит минимальное число минус-слов, практически все запросы целевые.
Семантика для фидов обеспечивает достоверный минус-файл и чистоту трафика.
Стандартного списка минус-слов недостаточно. В лучшем случае они закрывают 30-40% реальных минус-слов. В каждой тематике также есть запросы, которые содержат характерные слова и делают сам запрос нецелевым, нерелевантным для вас. Поэтому нужно собирать минус-слова для фидов на основе реальных запросов.
Пример - запросы по автозапчастям Bosch. Это массив в несколько сотен тысяч. Из него мы выделили те, которые содержат цифры - это запросы товарные, таких получилось 20-30 тысяч. Мы составили из них частотный словарь, чтобы найти группы с нерелевантным спросом. Важно брать реальные фразы по конкретному бренду.
Это дает более точный файл минус-слов, на основе которого можно запретить нецелевые показы. В итоге по России средняя цена клика составила 7-10 рублей, а цена заявки - 60-70 рублей. Мы добились высокой конверсии, так как привлекали только трафик, близкий к покупке.
Это «фэйковые» артикулы и названия товаров.
Допустим, у вас 10 тысяч автозапчастей. В процессе важно проверить, нет ли среди артикулов двойные значения. Он может означать как товар, так и ГОСТ, инструкцию, которые не имеют отношения к вашей тематике. Или товар абсолютно из другой области.
Как это проверить? Берете список артикулов и пробиваете по ним частотность. Также вручную выявляете артикулы с двойным значением. По ним уточняете семантику - добавляете название бренда или уточняющие слова, чтобы исключить показы по нецелевому охвату.
Достаточно ли в объявление добавить артикул или нужно «%артикул + %купить (или другое транзакционное слово) »
Второй вариант не дает дополнительного трафика, но вы можете напрямую контролировать позицию объявления не только по запросу артикула, но и по запросу «%артикул + %купить» через подключение биддера.
Так было до недавнего времени. На очень больших товарных фидах не хватало баллов, чтобы загрузить много ключевых слов, и приходилось от этого отказываться.
Вывод: нет смысла размножать семантику по фидам. Достаточно добавить одно самое широкое название артикула или индекс товара.
Что делать со статусом «мало показов»
В первую очередь смотрите не что и как выпало, а изменился ли трафик. Если нет, переживать не стоит. Значит, эти объявления не генерировали трафик.
Если заметно снизился - не плюс-минус 10% погрешность, а больше, - то нужно разбираться: скорее всего, ошибки в кластеризации по кампании, подборе семантики. Хотя, применительно к фидам, такое маловероятно.
В современных условиях нужно окупаться на любых каналах. Принципиальной идеологической разницы между ними быть не должно.
Как это выглядит при нормальном планировании? Сначала мы определяемся с нишей, делаем HTML-макет сайта, движок, и тут же начинаем составлять семантику. При этом важно, чтобы структура зависела не от каталога и не от вашего видения разделов, а от семантики. То, что люди ищут чаще всего, разместите на видных местах.
После того, как собрали семантику и определились со структурой, создаем и наполняем контентом сайт.
Рекомендация: сначала контекст, потом SEO. Можно почистить и сгруппировать семантику и запустить контекст, чтобы бизнес зарабатывал деньги. Пусть не очень большие суммы (200-400 тысяч рублей), но быстро. За 2-4 месяца можно построить цепочку продаж, чтобы реинвестировать эти деньги под SEO.
В чем синергия процессов? Результаты, полученные при кластеризации в контексте, можно использовать при кластеризации в SEO. Не всё и не всегда будет одинаково, но многое можно взять из контекста для SEO.
Вывод: SEO и контекст скоро станут почти неразличимы, а экономия от их синергии растет.
1) На начальном этапе более важен не сам сбор (всё автоматизировано), а поиск базисов;
2) Базисы могут быть простые и чистые (гироскутер) и мусорные и грязные (дизель);
3) Проверьте, все ли синонимы и переформулировки вы собрали: в помощь Wordstat и блок «похожие запросы» в SERP;