🆘 (2/2) 20 шагов, если Google Ads скрывает поисковые запросы с 80% кликов.
⬆️ Продолжение части 1.
5️⃣ Собрать отраслевые домены конкурентов:
🥷 Спарсить SERP по списку ключей.
🥷 В пользовательских отчётах Google Ads собрать отчёт в срезе доменов из статистики аукционов, добавить в срез: даты, РК, группы, ключи, выбрать максимальный диапазон дат. Это позволит увидеть в сотню раз больше уникальных доменов, чем в стандартной статистике аукционов.
6️⃣ Домены из парсинга SERP и статистики аукционов объединить в один столбец, удалить дубли доменов.
7️⃣ С главных страниц списка уникальных доменов спарсить метатеги title+h1+description.
8️⃣ Три столбца метатегов объединить в один, продублировать его и обработать надстройкой SEMTools:
🥷 Удалить пунктуацию.
🥷 Привести к строчному регистру.
🥷 Удалить повторы слов в строке.
🥷 Лемматизировать.
🥷 Удалить стоп-слова.
9️⃣ Составить список главных категорийных слов, без которых страница не будет являться отраслевой, продублировать его рядом и лемматизировать.
1️⃣0️⃣ Составленный в пункте 9 список главных отраслевых слов извлечь из столбца с преобразованными метатегами в пункте 8.
1️⃣1️⃣ Отфильтровать домены, в метатегах которых извлечены главные отраслевые слова, т.е. эти домены точно являются отраслевыми конкурентами.
1️⃣2️⃣ По каждому домену спарсить в Screaming Frog все его урлы. Или только по тем, с которым доля пересечений показов в статистике аукционов наибольшая.
1️⃣3️⃣ По каждому URL каждого домена собрать прогноз ключей в планировщике Google Ads, выгрузить в Эксель, сложить файлы в ту же папку.
1️⃣4️⃣ Также изучить: 43 бесплатных и платных инструмента для сбора семантики. Поисковые подсказки, похожие запросы, ключи из баз сервисов — полезным будет всё.
1️⃣5️⃣ Объединить все файлы экспорта в один.
1️⃣6️⃣ Убрать дубли и неявные дубли выгруженных фраз.
1️⃣7️⃣ Убрать дубли и неявные дубли ключей в аккаунте и целевых поисковых запросов.
Пункты 16–17 необязательны, но они позволят не читать лишние тысячи строк, которые повторяют ваши ключи из аккаунта и уже прочитанные вами ранее целевые поисковые запросы.
1️⃣8️⃣ Сделать 1-gram анализ фраз (частотный словарь слов, из которых состоят фразы). В Power Query его можно сделать интерактивным.
1️⃣9️⃣ Собрать вайтлист целевых слов. Остальные слова и содержащие их фразы — нецелевые, и минус-список уже готов.
2️⃣0️⃣ Собрать в минус-фразы в [точном соответствии] слишком широкие фразы, которые хоть и содержат только целевые слов, но в которых не хватает нужного вам специфического слова, без которого фраза не имеет смысла для рекламирования.
————
Я уже разбирал на эфирах в закрытом канале:
🥸 Сбор сайтов конкурентов, парсинг метатегов урлов, их преобразование, извлечение целевых слов, фильтрацию только отраслевых доменов.
🥸 Настройки Screaming Frog SEO Spider, которые позволят не парсить с сайтов ненужную информацию и не упереться в лимит оперативной памяти.
🥸 Парсинг урлов домена по включениям и итерационный перезапуск парсинга урлов по исключениям.
🥸 Сбор иностранной семантики по доменам, точным урлам, ключам.
🥸 Объединение выгрузок, удаление дублей фраз, переводы, лемматизацию.
🥸 Фильтрацию семантики вайтлистом целевых слов.
🥸 Группировку фраз в порядке приоритета кластеров.
🥸 Формирование большого блэклиста слов без ручного сбора каждого минус-слова.
🥸 Массовую фильтрацию слишком широких "грязных" фраз для их исключения в точном соответствии.
Присоединяйтесь, скину вам ссылки на проведённые эфиры на эти темы — и изучайте в своё удовольствие, ни в чём себе не отказывайте.
————
⏰ В четверг 29 августа в 19:00 по МСК на стриме разберу в Power Query:
📌 Автоматизацию итерационной фильтрации целевых фраз.
📌 Автоматизацию итерационного сбора минус-слов и минус-фраз.
📌 Универсализацию готового пайплайна обработки данных под любой проект.
🔔 Го учиться, сентябрь на носу 🚸
via @ppc_bigbrain
⬆️ Продолжение части 1.
5️⃣ Собрать отраслевые домены конкурентов:
🥷 Спарсить SERP по списку ключей.
🥷 В пользовательских отчётах Google Ads собрать отчёт в срезе доменов из статистики аукционов, добавить в срез: даты, РК, группы, ключи, выбрать максимальный диапазон дат. Это позволит увидеть в сотню раз больше уникальных доменов, чем в стандартной статистике аукционов.
6️⃣ Домены из парсинга SERP и статистики аукционов объединить в один столбец, удалить дубли доменов.
7️⃣ С главных страниц списка уникальных доменов спарсить метатеги title+h1+description.
8️⃣ Три столбца метатегов объединить в один, продублировать его и обработать надстройкой SEMTools:
🥷 Удалить пунктуацию.
🥷 Привести к строчному регистру.
🥷 Удалить повторы слов в строке.
🥷 Лемматизировать.
🥷 Удалить стоп-слова.
9️⃣ Составить список главных категорийных слов, без которых страница не будет являться отраслевой, продублировать его рядом и лемматизировать.
1️⃣0️⃣ Составленный в пункте 9 список главных отраслевых слов извлечь из столбца с преобразованными метатегами в пункте 8.
1️⃣1️⃣ Отфильтровать домены, в метатегах которых извлечены главные отраслевые слова, т.е. эти домены точно являются отраслевыми конкурентами.
1️⃣2️⃣ По каждому домену спарсить в Screaming Frog все его урлы. Или только по тем, с которым доля пересечений показов в статистике аукционов наибольшая.
1️⃣3️⃣ По каждому URL каждого домена собрать прогноз ключей в планировщике Google Ads, выгрузить в Эксель, сложить файлы в ту же папку.
1️⃣4️⃣ Также изучить: 43 бесплатных и платных инструмента для сбора семантики. Поисковые подсказки, похожие запросы, ключи из баз сервисов — полезным будет всё.
1️⃣5️⃣ Объединить все файлы экспорта в один.
1️⃣6️⃣ Убрать дубли и неявные дубли выгруженных фраз.
1️⃣7️⃣ Убрать дубли и неявные дубли ключей в аккаунте и целевых поисковых запросов.
Пункты 16–17 необязательны, но они позволят не читать лишние тысячи строк, которые повторяют ваши ключи из аккаунта и уже прочитанные вами ранее целевые поисковые запросы.
1️⃣8️⃣ Сделать 1-gram анализ фраз (частотный словарь слов, из которых состоят фразы). В Power Query его можно сделать интерактивным.
1️⃣9️⃣ Собрать вайтлист целевых слов. Остальные слова и содержащие их фразы — нецелевые, и минус-список уже готов.
2️⃣0️⃣ Собрать в минус-фразы в [точном соответствии] слишком широкие фразы, которые хоть и содержат только целевые слов, но в которых не хватает нужного вам специфического слова, без которого фраза не имеет смысла для рекламирования.
————
Я уже разбирал на эфирах в закрытом канале:
🥸 Сбор сайтов конкурентов, парсинг метатегов урлов, их преобразование, извлечение целевых слов, фильтрацию только отраслевых доменов.
🥸 Настройки Screaming Frog SEO Spider, которые позволят не парсить с сайтов ненужную информацию и не упереться в лимит оперативной памяти.
🥸 Парсинг урлов домена по включениям и итерационный перезапуск парсинга урлов по исключениям.
🥸 Сбор иностранной семантики по доменам, точным урлам, ключам.
🥸 Объединение выгрузок, удаление дублей фраз, переводы, лемматизацию.
🥸 Фильтрацию семантики вайтлистом целевых слов.
🥸 Группировку фраз в порядке приоритета кластеров.
🥸 Формирование большого блэклиста слов без ручного сбора каждого минус-слова.
🥸 Массовую фильтрацию слишком широких "грязных" фраз для их исключения в точном соответствии.
Присоединяйтесь, скину вам ссылки на проведённые эфиры на эти темы — и изучайте в своё удовольствие, ни в чём себе не отказывайте.
————
⏰ В четверг 29 августа в 19:00 по МСК на стриме разберу в Power Query:
📌 Автоматизацию итерационной фильтрации целевых фраз.
📌 Автоматизацию итерационного сбора минус-слов и минус-фраз.
📌 Универсализацию готового пайплайна обработки данных под любой проект.
🔔 Го учиться, сентябрь на носу 🚸
via @ppc_bigbrain