Структура сайта под поисковые системы. Инструкция семантического проектирования

Поисковая оптимизация

В данной статье пойдет речь о том, как быстро, а самое главное, качественно подготовить семантическое ядро и структуру для нового сайта, которые позволят в дальнейшем получить хорошие результаты по поисковому продвижению.

Что нам потребуется?

  1. Key Collector.
  2. Прокси (хватит штук 7).
  3. “Левые” аккаунты для Яндекса и Google.
  4. Serpstat, точнее, только токен для доступа по API.
  5. API-ключ MOAB.
  6. Keyword Generator.
  7. Excel.
  8. XMind или любой другой аналог.

Настройка Key Collector. Подключение API и прокси

Зарегистрируйте “левые” аккаунты в Яндексе (количество должно совпадать с вашими прокси, но желательно сделать больше аккаунтов на всякий случай).

Добавляем список аккаунтов в Key Collector. Формат:

аккаунт:пароль

Пример:

kk.parsersemant:sdfgkj345sdfg

kk.parsersemant1:rtydfg345dh

kk.parsersemant2:dfg234fghfgh7

Добавляем прокси во вкладке “Сеть”.

Поставьте галочку “Использовать прокси-серверы”. Использовать столько потоков, сколько прокси, больше не нужно (я бы советовал ставить максимум 7). Иначе могут быть сбои в программе (ошибки, капча и т.д.).

Нажмите кнопку “Проверить в Yandex.Wordstat”.

Если какой-либо аккаунт в Яндексе будет красным, то просто удалите и создайте новый. После этого повторите процедуру с проверкой.

Подключение внешних API

Для подключения API Serpstat необходимо зайти на сайт https://serpstat.com/, перейти на вкладку “Профиль”:

и скопировать токен для доступа к API:

После этого в Key Collector перейдите на вкладку “Платные API” и вставьте API-ключ Serpstat:

Для подключения API MOAB перейдите на вкладку “API для разработчиков”:

Скопируйте API-ключ:

и вставьте в Key Collector:

На этом настройка прокси и внешних API закончена. Если есть API других сервисов, то добавляются они аналогично. Проблем с этим возникнуть не должно. Далее переходим непосредственно к алгоритму сбора семантического ядра.

Алгоритм сбора семантического ядра в Key Collector

  1. Для начала необходимо ознакомиться с ресурсами конкурентов в этой нише, запросить у клиента все категории, которые будут на сайте.
  2. Желательно скопировать или выписать категории в отдельный файл.
  3. Подбираем маркерные запросы под каждую категорию с помощью “мозгового штурма”. Альтернатива: просто парсим H1 конкурентов с помощью спайдеров. Если нам необходимо ОЧЕНЬ много маркеров по типу “товар+бренд”, то используем программу Keyword Generator.
  4. Далее добавляем наши маркерные запросы непосредственно в Key Collector с распределением по группам.
  5. Парсим ключевые фразы с помощью Serpastat и MOAB.
  6. Чистим ядро от “мусорных” запросов.
  7. Срезаем частоту запросов.
  8. Выгружаем наше семантическое ядро.

Подбор маркерных запросов

Если будут синонимичные запросы вида “офисная мебель” и “мебель для офиса”, то делаем отдельные маркеры. Это нужно для удобства, чтобы в будущем просто соединить группы.

Сбор ключевых фраз в Key Collector через Serpstat

Для парсинга через Serpstat:

Вставляем наши маркеры в окно и распределяем их по группам.

Подтверждаем операцию.

После этого выделяем группы и переносим маркеры для сбора фраз (нажимаем на красную стрелочку:))

Парсим для Google и Яндекс в две итерации.

Для этой группы маркеров всё спарсилось менее чем за 3 секунды.

Для парсинга через MOAB

ВАЖНО! У вас должен быть выставлен регион внизу программы для Яндекса.

Далее проводим такую же операцию, как и с Serpstat, но парсим уже через MOAB.

Что делать, если получилось маленькое семантическое ядро?

  1. Закинуть созданные группы с маркерами в Yandex.Wordstat;
  2. Проделать то же самое в Google.Ads;
  3. Спарсить все подсказки и похожие фразы для Google и Яндекса.

Срез частоты

С помощью MOAB:

С помощью Serpstat:

Можно также резать частоту с помощью Yandex.Direct (в несколько потоков режется довольно быстро).

Для поисковой системы Google также можно использовать инструмент Google Ads. Частота срезается тоже довольно быстро.

Что у нас получилось

Чистка семантического ядра

  1. Оставляем только целевые запросы.
  2. Оставляем свою улицу, метро (если это коммерческий сайт).
  3. Убираем чужие бренды (названия компаний).
  4. Оставляем только информационные/коммерческие запросы.
  5. Убираем лишние ГЕО (топонимы).

Настраиваем экспорт в Key Collector

Выбираем формат экспорта и колонки, которые нам нужны.

Что получаем на выходе?

В итоге у нас получился Excel с запросами, группой и частотой для двух поисковых систем.

Визуализация структуры сайта

Для построения карты сайта нужно просто скопировать маркеры и вставить в программу Xmind.

P.S. Не добавляем каждую категорию и не пишем вручную. Все маркеры мы уже собрали.

Ещё один маленький лайфхак при работе с Serpstat

Парсить семантику конкурентов можно и в Key Collector.

В итоге семантику конкурентов по всему домену или конкретному URL мы можем собирать пакетно.

Подпишись на рассылку дайджеста новостей от Webline Promotion

Оцените статью
Webline Blog
Добавить комментарий