PPC для сверхразумов | Александр Хитро


Channel's geo and language: Belarus, Russian


10 лет прикладываю к рекламе подорожник
Автор: @podorozhnik_ppc
О себе: t.me/ppc_bigbrain/865
Навигация: t.me/ppc_bigbrain/1191
Чат: t.me/+IAE-w7o7tZtjOTNi
45 отзывов о платном канале:
t.me/ppc_bigbrain/1004
t.me/ppc_bigbrain/1249

Related channels  |  Similar channels

Channel's geo and language
Belarus, Russian
Statistics
Posts filter


литералли ми после каждого аудита

via @ppc_bigbrain


🗯 ChatGPT об РСЯ, фроде, автотаргете, ЕПК и менеджерах.

Через ролевые игры попросил его написать ехидные саркастичные шутки на разные темы.

С тон оф войса в некоторых шутках даже я охерел.

Модельке для обучения, похоже, скормили все русскоязычные чаты и форумы по контекстной рекламе. А иначе как ещё объяснить всё это.

Фотошопа на скриншотах нет.

via @ppc_bigbrain


📰 Как сломать автостратегию в Google Ads в одно действие.

Работала-работа себе преспокойно на поиске автостратегия максимум конверсий. Две РК были добавлены в пакетную стратегию.

Одной РК явно не хватало бюджета на открутку, заказчик попросил с этой РК что-то сделать, чтобы давала больше трафика.

Принял тяжкое волевое решение разделить две РК по обособленным стратегиям, но при этом кампании достаются из пакетной стратегии, обеим РК назначается новая стратегия, новый дневной бюджет, и каждая начинает обучаться заново.

А в стратегии максимум конверсий, напомню, нет ограничения по цене клика.

Теперь имеем следующее: прежде страдающая РК как ничего не приносила, так и продолжила благополучно ничего не приносить, зато основная РК осела на жопу.

Помните:

Стремясь выполнить любые хотелки клиентов, какими бы срочными они ни были, вы каждый раз рискуете сломать то, что работает, и на обучение чего было потрачено не только много вашего времени на доведение до результата, но и много денег клиента.

Что мертво, умереть не может. Но за то, что работало, но перестало, отгребать потом вам. Вы же не скажете клиенту: "Сам виноват — сам и чини теперь".

via @ppc_bigbrain


😮 Как со 100 тысяч страниц конкурента спарсить нужные 320 урлов для сбора по ним семантики.

На следующем стриме 14 мая в 19:00 по МСК помимо чистки и группировки зарубежной семантики, а также 18 способов оптимизации скорости запросов в Power Query покажу ещё несколько важных вещей:

✅ Как я с огромного сайта конкурента спарсил только нужные мне пару сотен урлов.
✅ А дальше по ним из планировщика Google Ads получил 70 тысяч уникальных фраз.

Не копировать же мышкой из навигационного меню сайта каждую из 320 ссылок вручную, правильно?

Спойлер:

Урлы с огромного сеошного сайта конкурента спарсил в Screaming Frog SEO Spider.

————

Но есть три нюанса:

1⃣ На анализируемом сайте более 100 тысяч урлов. Для того, чтобы сократить время парсинга и не собирать ненужные мне урлы, я парсил их с учётом фильтров по исключённым RegEx (регулярным выражениям).

В итоге сбор закончился в несколько сотен раз быстрее, чем если бы собирались все страницы сайта.

2⃣ Даже парсинг с исключениями по регуляркам не спасает от сбора вложенных подкатегорий и неявных дублей урлов, поэтому покажу, как в Power Query или в Excel в несколько действий в результатах парсинга отфильтровать только нужные пару сотен категорийных урлов.

3⃣ Парсить по включениям регулярок, казалось бы, самый простой способ, чтобы сократить объёмы собираемых данных, но парсинг по включению регулярок опаснее всего, т.к. вы не знаете, какая структура у незнакомого сайта, и как его разработчики распределили в структуре категорийные урлы.

Почему?

Потому что структуры может не быть вообще никакой, и все урлы могут запросто лежать в главной директории сайта вторым уровнем вложенности страниц, а не распределены по подпапкам в суб-директориях.

Естественно, можно было бы спарсить только те урлы, которые не более второго или третьего уровня вложенности, но мы не знаем, какая на сайте структура дерева страниц. Поэтому парсить по вхождению регулярок будет огромной ошибкой.

————

Дальше по собранным и отфильтрованным категорийным урлам конкурента выгружаем семантику из планировщика ключей Google Ads для сбора вложенной глубины и синонимичной ширины семантики каждой исходной категории.

Как настроить парсинг ссылок с сайта с учётом исключённых регулярных выражений и отфильтровать нужные категорийные урлы, рассмотрим на следующем стриме, чтобы вы не страдали и не собирали урлы из навигационного меню сайта, копируя мышкой поштучно каждую ссылку на каждый раздел.

————

😘 Присоединяйтесь, будет жир.

————

via @ppc_bigbrain


💃 18 способов ускорения запросов в Power Query.

На прошлом стриме разобрал:

🔤 Как собрать детализированную семантику на любых иностранных языках, на которых вы не знаете ни слова.

На следующем эфире во вторник 14 мая в 19:00 по МСК разберу:

🔣 Как быстро обработать, очистить и сгруппировать зарубежную семантику, не зная ни единого слова ни на одном из иностранных языков.


———

Также рассмотрим 18 способов ускорения выполнения больших сложных запросов из множества шагов в Power Query (далее — PQ).

Обрабатывать буду большой объём данных:

🔥 320 файлов выгрузок из планировщика ключей Google Ads.
🔥 575 тысяч фраз с учётом дублей.
🔥 70 тысяч уникальных фраз.

———

Что за 18 способов оптимизации запросов PQ?

1️⃣ Функция DIVIDE с проверкой на ошибки в вычисляемых полях сводной таблицы по модели данных.

2️⃣ Вычисляемые поля с обращением к столбцам из разных таблиц в модели данных.

3️⃣ Связи таблиц по уникальным значениям в модели данных.

4️⃣ Индекс уникальных значений в таблице модели данных ("интовое" поле, от англ. "integer" — целое число, т.е. целочисленный тип данных).

5️⃣ Объединение таблиц по "интовому" полю:
          ✅ В модели данных.
          ✅ В Power Query.

6️⃣ Сводные таблицы, построенные из нескольких таблиц модели данных.

7️⃣ Сравнение скорости обновления запросов PQ при объединении таблиц по текстовому и интовому полю.

8️⃣ Сравнение скорости обновления сводных таблиц, построенных:
          ✅ По одной широкой таблице, в которой в PQ объединено несколько таблиц левым внешним объединением.
          ✅ По нескольким узким таблицам с уникальными значениями, связанными в модели данных по общему интовому полю.

9️⃣ Автоматическая лемматизация семантики для "схлопывания" в одну строку всех словоформ слов.

1️⃣0️⃣ Автоматическое разворачивание слов во фразах от А до Я для "схлопывания" в одну строку всех неявных дублей с другим порядком слов.

1️⃣1️⃣ Автоматическое удаление из фраз всех стоп-слов (союзов, частиц, предлогов, местоимений) для "схлопывания" в одну строку всех фраз со стоп-словами и без них.

1️⃣2️⃣ Уменьшение в расширенном редакторе запросов любого количества шагов запроса PQ до одного шага для многократного ускорения выполнения всего запроса PQ.

1️⃣3️⃣ Как грамотно причесать этот один шаг до читабельного внешнего вида, чтобы можно было потом ориентироваться в списке шагов и редактировать весь запрос PQ.

1️⃣4️⃣ Буферизация пользовательских библиотек данных.

1️⃣5️⃣ На каких шагах запроса PQ с анпивотом надо объединять таблицы, а на каких — нельзя и почему.

1️⃣6️⃣ Ошибка объединения таблиц по полю с неуникальными значениями.

1️⃣7️⃣ Единая схема нейминга запросов PQ и таблиц в модели данных, чтобы не путаться на всех этапах работы.

1️⃣8️⃣ Как при объединении таблиц исключить ошибку циклической ссылки на другие запросы.

Это далеко не всё, что касается оптимизации скорости выполнения запросов PQ и скорости обновления сводных таблиц по модели данных.

Если вы уже знаете, что такое ВПР, то объединение таблиц — это ВПР на героине в степени триллион.

Если не знаете — научитесь сразу продвинутому ВПРу.


На следующих ивентах все остальные шаги будем делать с учётом перечисленных выше продвинутых способов оптимизации скорости запросов:

⚡ Делать как можно больше преобразований в PQ, а не на листе Excel.
⚡ Объединять запросы по интовым полям.
⚡ Связывать таблицы в модели данных по интовому полю.
⚡ Строить все сводные по нескольким таблицам в модели данных.
⚡ Делать джойны таблиц перед анпивотом, а не после него.

Будете сразу учиться делать правильно и результаты обработки данных получать быстро, а не страдать и ждать вечность, пока обновятся все запросы PQ.

———

Дата: вторник, 14 мая.
Время: 19:00 по МСК.
Место: турбочятик.
Памписка: 10 000 ₽/мес.
Запись: будет.

———

Дисклеймер:

Специалистом по работе с базами данных я не являюсь. И я никто, чтобы учить с ними работать безукоризненно правильно.

Я лишь проживал страданиями на практике всё описанное выше.

Поэтому не могу не придать значимость всем этим вещам и не предотвратить в вашей жизни эти стрессы заблаговременно.


via @ppc_bigbrain


📰 В 19:00 по МСК стрим про массовую обработку в Power Query зарубежной семантики для Google Ads.

На данном этапе "зарубежная" она лишь постольку поскольку, ибо в конце прошлого эфира я наглядно продемонстрировал, почему исходный язык семантики не имеет никакого значения.

Сегодня продолжу тему того, как вся дальнейшая автоматизация работы в Power Query и в сводных таблицах по модели данных будет делаться только на русском языке, и к вычитке зарубежной семантики даже приступать не будет никакой необходимости.

А раз все массовые операции будут выполняться на русском языке, приглашаю вас присоединиться к эфиру, вам ведь всё равно работать дальше на русском в Яндекс Директ, даже если вы прямо сейчас с Google Ads не работаете. Выполняемые операции абсолютно идентичны как для Google Ads, так и для Яндекс Директ.

Увидите, какие чудеса можно за считанные клики вытворять с большими списками ключей. Я вам обещаю, у вас картина мира рухнет, и вы будете рвать на голове последние седые волосы от того, сколько времени вы, ваши коллеги и ваши сотрудники палите впустую на ручную ерунду.

😊 Го, я создал

За 5 минут до начала стрима поделюсь ссылкой на конференцию в Zoom.

via @ppc_bigbrain


📰 Автоматизация запуска Google Ads на иностранных языках

В среду 7 мая на стриме в закрытом канале за 3 часа разобрал работу с семантикой на зарубежных языках, и как в Power Query сделать так, чтобы было вообще без разницы, с какими языками работать.

Если собираетесь или уже работаете с иностранной рекламой на регулярной основе — инфа мастхэв 146%.

———

Разобранные темы:

💊 Сбор большой семантики с сайтов конкурентов.
💊 Особенности и подводные камни переводов нейронками.
💊 Перевод огромных списков фраз бесплатно за 2 секунды.
💊 Объединение файлов выгрузки семантики в один список.
💊 Группировка файлов по полю с ключевыми фразами (продвинутый аналог удаления дублей).
💊 Обработка исходной собранной семантики.
💊 Обработка переведённой семантики.
💊 Объединение переводов с исходной семантикой.
💊 Интерактивный 1-gram анализ переведённой семантики (более совершенный аналог анализа групп в Кейколлекторе).
💊 Назначение словам их смысловых ярлыков.
💊 Объединение смысловых ярлыков слов с исходной семантикой.
💊 Группировка 1-gram анализа в порядке приоритета смысловых ярлыков слов.

———

Сегодня на стриме в 19:00 по МСК покажу, как простейшими действиями в Power Query и сводных таблицах по модели данных из собранной семантики сделать готовые РК:

🔸 Массовое назначение семантике огромного количества смысловых ярлыков и групп ярлыков.
🔸 Массовая автоматическая фильтрация семантики по смысловым ярлыкам и группам ярлыков.
🔸 Как вместо сбора блэклиста слов фильтровать семантику вайтлистом слов.
🔸 Как автоматически сгруппировать семантику по смыслу и намерениям в порядке приоритета смысловых ярлыков и групп ярлыков.
🔸 Как грамотно и быстро согласовать с заказчиком все сегменты семантики.
🔸 Как сделать библиотеку замен синонимов на единое значение во избежание их разбивки на разные группы.
🔸 Как быстро подготовить готовую к загрузке на сервер РК.
🔸 Как определить, под какие недостающие сегменты делать новые посадочные страницы и в каком порядке.
🔸 Как определить, в каком порядке располагать разделы и кнопки навигационного меню на сайте.
🔸 Какие кастомные условия фильтрации сразу при запуске РК создать в Google Ads, чтобы в 1 клик анализировать главные, второстепенные, спорные и другие специфические сегменты групп объявлений, ключевых фраз и поисковых запросов.

———

На следующих стримах буду разбирать дальнейшие этап работы в Power Query на иностранных языках после запуска рекламы:

🏥 Автоматизацию последующей аналитики новых поисковых запросов.
🏥 Автоматизацию сбора минус-слов и минус-фраз из новых поисковых запросов.
🏥 Автоматизацию сбора из поисковых запросов новых целевых ключевых фраз.
🏥 Автоматизацию группировки новых поисковых запросов.
🏥 Ускорение добавления новых фраз из поисковых запросов в ближайшие по смыслу существущие группы объявлений и создание новых групп.

———

Дата: сегодня, 9 мая
Время: 19:00 по Мск
Место: турбочятик
Запись: будет
Памписка: 10 000 ₽/мес
Что входит: материалы с августа 2023 и все ивенты в течение месяца с момента оплаты.
45 отзывов: часть 1, часть 2.

———

via @ppc_bigbrain


ТОПы, которые мы не просили, но которые мы заслужили

Люблю от третьих лиц узнавать, как по независящим от меня причинам я в очередной раз попал в какие-то ТОПы специалистов или каналов по контекстной рекламе.

Штош, ещё два в копилочку:

1) https://vc.ru/983706
2) https://t.me/DigitalAgafonov/848

Имхо, характеристика "мега умный, но слишком заморачивается" — это самый большой комплимент, который только может получить технический специалист.

Чесн, всегда люто кринжую от подобных ТОПов, ибо щщетаю себя бесполезным овощем. Как я вообще попадаю в эти топы — для меня загадка. По сей день нахожусь в недоумении, почему вы все здесь собрались, и что вам всем от меня нужно)))00)000 👤

Не устраивайте, плес, холивары в комментариях авторов списков, кто кого лучше-хуже или выше-ниже в списке. Всё это ради фана онли.

via @ppc_bigbrain


📰 Зависят ли CPA, CR, CTR и CPC от качества объявлений в Google Ads?

По легендам из-за низкого качества адаптивных объявлений показатели якобы хуже. Я решил это проверить.

В текущем проекте в каждой группе сделал по две адаптивки с разными текстами и заголовками, в одном объявлении шаблон {KeyWord} для вставки ключа, в другом — 4 статических заголовка.

Раньше для анализа объявлений приходилось вручную открывать каждую группу, возвращаться назад, открывать следующую, что дико бесило.

Психанул и собрал в Looker Studio на уровне МСС аккаунта 4 новых отчёта, между которыми теперь переключаюсь в 1 клик и вижу всё необходимое.

В срезе качества объявлений на уровне кампаний и ТОП-30 групп по объёму лидов и кликов в гистограмме с накоплением отображается:

🔸 1 и 2 скрин — CPC и клики.
🔸 3 и 4 скрин — CTR и клики.

На скринах 1–4 группы отсортированы по убыванию кликов.

🔸 5 и 6 скрин — CPL и лиды.
🔸 7 и 8 скрин — CR и лиды.

На скринах 5–8 группы отсортированы по убыванию лидов.

Т.к. у одной группы сильный перевес кликов и лидов, для выравнивания гистограммы их распределения по группам в отчёте справа логарифмическая шкала, а не линейная, как слева.

🔸 9 скрин — общая статистика этой РК по датам для полноты картины суточного объёма трафика и лидов.

Надеялся на уровне групп в левой части отчёта увидеть что-то полезное для оптимизации РК, но обломался, не найдя ничего толкового, ибо нужно накопить 800 миллиардов вагонов данных с одновременным выполнением сразу трёх условий:

1️⃣ По каждой группе накоплена статистически достоверная выборка данных.

2️⃣ По каждому объявлению в группе накоплено достаточно статистики как по кликам, так и по лидам.

3️⃣ Объявления в каждой группе должны иметь разное качество.

Чтобы докопаться до истины, зависит ли от качества объявлений хоть один показатель, остаётся ждать проекта с огромной накопленной статистикой адаптивных объявлений либо год-два накапливать её самому.

Но для анализа хоть инструмент теперь готов))00))000 😳👍 Убейте меня уже кто-нибудь, умоляю.

via @ppc_bigbrain



10 last posts shown.